• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 61
  • 2
  • 1
  • Tagged with
  • 64
  • 33
  • 12
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Novas estratégias para seleção de variáveis por intervalos em problemas de classificação

Fernandes, David Douglas de Sousa 26 August 2016 (has links)
Submitted by Maike Costa (maiksebas@gmail.com) on 2017-06-20T13:50:43Z No. of bitstreams: 1 arquivototal.pdf: 7102668 bytes, checksum: abe19d798ad952073affbf4950f62d29 (MD5) / Made available in DSpace on 2017-06-20T13:50:43Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 7102668 bytes, checksum: abe19d798ad952073affbf4950f62d29 (MD5) Previous issue date: 2016-08-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In Analytical Chemistry it has been recurring in the literature the use of analytical signals recorded on multiple sensors combined with subsequent chemometric modeling for developing new analytical methodologies. For this purpose, it uses generally multivariate instrumental techniques as spectrometry ultraviolet-visible or near infrared, voltammetry, etc. In this scenario, the analyst is faced with the option of selecting individual variables or variable intervals so to avoid or reduce multicollinearity problems. A well-known strategy for selection of variable intervals is to divide the set of instrumental responses into equal width intervals and select the best interval based on the performance of the prediction of a unique range in the regression by Partial Least Squares (iPLS). On the other hand, the use of interval selection for classification purposes has received relatively little attention. A common practice is to use the iPLS regression method with the coded class indices as response variables to be predicted; that is the basic idea behind the release of the Discriminant Analysis by Partial Least Squares (PLS-DA) for classification. In other words, interval selection for classification purposes has no development of native functions (algorithms). Thus, in this work it is proposed two new strategies in classification problems using interval selection by the Successive Projections Algorithm. The first strategy is named Successive Projections Algorithm for selecting intervals in Discriminant Analysis Partial Least Squares (iSPA-PLS-DA), while the second strategy is called Successive Projections Algorithm for selecting intervals in Soft and Independent Modeling by Class Analogy (iSPA-SIMCA). The performance of the proposed algorithms was evaluated in three case studies: classification of vegetable oils according to the type of raw material and the expiration date using data obtained by square wave voltammetry; classification of unadulterated biodiesel/diesel blends (B5) and adulterated with soybean oil (OB5) using spectral data obtained in the ultraviolet-visible region; and classification of vegetable oils with respect to the expiration date using spectral data obtained in the near infrared region. The proposed iSPA-PLS-DA and iSPA-SIMCA algorithms provided good results in the three case studies, with correct classification rates always greater than or equal to those obtained by PLS-DA and SIMCA models using all variables, iPLS-DA and iSIMCA with a single selected interval, as well as SPA-LDA and GA-LDA with selection of individual variables. Therefore, the proposed iSPA-PLS-DA and iSPA-SIMCA algorithms can be considered as promising approaches for use in classification problems employing interval selection. In a more general point of view, the possibility of using interval selection without loss of the classification accuracy can be considered a very useful tool for the construction of dedicated instruments (e.g. LED-based photometers) for use in routine and in situ analysis. / Em Química Analítica tem sido recorrente na literatura o uso de sinais analíticos registrados em múltiplos sensores combinados com posterior modelagem quimiométrica para desenvolvimento de novas metodologias analíticas. Para esta finalidade, geralmente se faz uso de técnicas instrumentais multivariadas como a espectrometrias no ultravioleta-visível ou no infravermelho próximo, voltametria, etc. Neste cenário, o analista se depara com a opção de selecionar variáveis individuais ou intervalos de variáveis de modo de evitar ou diminuir problemas de multicolinearidade. Uma estratégia bem conhecida para seleção de intervalos de variáveis consiste em dividir o conjunto de respostas instrumentais em intervalos de igual largura e selecionar o melhor intervalo com base no critério de desempenho de predição de um único intervalo em regressão por Mínimos Quadrados Parciais (iPLS). Por outro lado, o uso da seleção de intervalo para fins de classificação tem recebido relativamente pouca atenção. Uma prática comum consiste em utilizar o método de regressão iPLS com os índices de classe codificados como variáveis de resposta a serem preditos, que é a idéia básica por trás da versão da Análise Discriminante por Mínimos Quadrados Parciais (PLS-DA) para a classificação. Em outras palavras, a seleção de intervalos para fins de classificação não possui o desenvolvimento de funções nativas (algoritmos). Assim, neste trabalho são propostas duas novas estratégias em problemas de classificação que usam seleção de intervalos de variáveis empregando o Algoritmo das Projeções Sucessivas. A primeira estratégia é denominada de Algoritmo das Projeções Sucessivas para seleção intervalos em Análise Discriminante por Mínimos Quadrados Parciais (iSPA-PLS-DA), enquanto a segunda estratégia é denominada de Algoritmo das Projeções Sucessivas para a seleção de intervalos em Modelagem Independente e Flexível por Analogia de Classe (iSPA-SIMCA). O desempenho dos algoritmos propostos foi avaliado em três estudos de casos: classificação de óleos vegetais com relação ao tipo de matéria-prima e ao prazo de validade utilizando dados obtidos por voltametria de onda quadrada; classificação de misturas biodiesel/diesel não adulteradas (B5) e adulteradas com óleo de soja (OB5) empregando dados espectrais obtidos na região do ultravioleta-visível; e classificação de óleos vegetais com relação ao prazo de validade usando dados espectrais obtidos na região do infravermelho próximo. Os algoritmos iSPA-PLS-DA e iSPA-SIMCA propostos forneceram bons resultados nos três estudos de caso, com taxas de classificação corretas sempre iguais ou superiores àquelas obtidas pelos modelos PLS-DA e SIMCA utilizando todas as variáveis, iPLS-DA e iSIMCA com um único intervalo selecionado, bem como SPA-LDA e GA-LDA com seleção de variáveis individuais. Portanto, os algoritmos iSPA-PLS-DA e iSPA-SIMCA propostos podem ser consideradas abordagens promissoras para uso em problemas de classificação empregando seleção de intervalos de variáveis. Num contexto mais geral, a possibilidade de utilização de seleção de intervalos de variáveis sem perda da precisão da classificação pode ser considerada uma ferramenta bastante útil para a construção de instrumentos dedicados (por exemplo, fotômetros a base de LED) para uso em análise de rotina e de campo.
62

Simulação Monte Carlo do processo de aquisição de imagens de um tomógrafo de dupla energia / Monte Carlo Simulation of the Image Acquisition process of a Dual Energy Computed Tomography Device

Lorena Paola Robayo Puerto 10 May 2018 (has links)
A Tomografia Computadorizada de Energia Dupla (DECT em inglês) é um dos campos das imagens tomográficas que mais evoluiu nos últimos anos. O DECT usa dois espectros para irradiar pacientes e é capaz de diferenciar tecidos com base na sua composição elementar. Apesar de serem semelhantes aos dispositivos padrão de tomografia, para essa modalidade é necessário o desenvolvimento de ferramentas específicas que permitam o estudo de suas propriedades de imagem. O objetivo deste trabalho era construir um sistema simulado de Tomografia Computadorizada (TC) com a capacidade de produzir imagens semelhantes às obtidas em dispositivos DECT reais. O TC simulado também permitiria explorar as propriedades das imagens de materiais de teste antes de sua construção física. Este trabalho presenta a simulação do processo de aquisição de imagens de um dispositivo DECT que funciona a partir da troca rápida de kV, o GE Discovery CT 750 HD. A geometria simulada foi baseada num dispositivo atualmente disponível no InRad (Instituto de Radiologia da Faculdade de Medicina da Universidade de São Paulo). As simulações foram realizadas usando o código Monte Carlo PENELOPE/penEasy para simular o transporte de radiação através dos materiais e detectores. Também é apresentada uma comparação entre as imagens obtidas no dispositivo real e nas simulações. Para isso, foi preparado um objeto simulador cilíndrico contendo concentrações de materiais equivalentes a iodo e cálcio. As imagens de tal objeto simulador foram adquiridas no equipamento GE Discovery CT 750 HD. Um objeto simulador equivalente foi modelado e as suas imagens foram simuladas com o código PENELOPE/penEasy. As imagens foram adquiridas e reconstruídas de acordo com as possibilidades do equipamento clínico de tomografia. Imagens de concentração de material e imagens monoenergéticas foram obtidas a partir do dispositivo CT clínico e das simulações. O algoritmo BMD (Basis Material Decomposition em Inglês) baseado nas projeções foi implementado usando os coeficientes de atenuação mássicos da água e do iodo. Consequentemente, imagens de concentração dos materiais água e iodo foram obtidas. A concentração medida nos cilindros de iodo foi equivalente às esperadas tanto no dispositivo real quanto nas imagens simuladas. Foram observados artefatos de endurecimento de feixe nas imagens de concentração de material. Imagens monoenergéticas foram obtidas para diferentes energias. Tais imagens foram obtidas a partir da superposição das imagens de concentração de água e iodo, que foram ponderadas pelos seus respectivos coeficientes de atenuação mássicos. Verificou-se que para as imagens monoenergéticas simuladas e reais em altas energias a imagem de concentração da água é a componente dominante, produzindo imagens que apresentaram as cavidades de iodo como menos atenuantes do que a água. Por outro lado, para energias baixas, a componente dominante nas imagens monoenergéticas foi a imagem de concentração do iodo. O CNR foi analisado nas imagens monoenergéticas como função da energia. As curvas do CNR dos dispositivos simulado e real exibiram semelhanças em sua forma, mas com escala diferente devido à diferença no ruído. Foi possível concluir que o modelo DECT simulado apresenta resultados qualitativos semelhantes aos obtidos no dispositivo real. O sistema de TC simulado permite explorar as características das imagens com diferentes materiais e composições. Ele também pode ser usado como uma ferramenta didática para melhorar a compreensão da diferenciação de materiais em tomografia espectral e DECT. / Dual Energy (DE) Computed Tomography (CT) is one of the fields of tomographic images that has evolved rapidly during the last years. DECT uses two X-ray spectra to irradiate patients It is capable to differentiate materials based on its elementary composition. Despite being similar to standard CT devices, DECT devices require the development of specific tools that allow the study of their image properties. The objective of this work was to build a modelled CT system capable of producing images similar to those obtained in real DECT devices. The modelled CT would also allow exploring the image properties of test materials before their physical construction. This work presents the simulation of the acquisition process of a DECT device that works with rapid kV switching, the GE Discovery CT 750 HD. The simulated geometry was based on a device currently available at the InRad (Institute of Radiology of the Faculty of Medicine of the University of São Paulo). The simulations were carried out using the PENELOPE/penEasy Monte Carlo code, which simulates radiation transport through the materials and detectors. A comparison between the images obtained in the real device and from simulations is also presented. To do so, a real phantom was prepared to be imaged and an equivalent system was simulated. The phantom contained inserts with concentrations of iodine and calcium. The images were acquired and reconstructed according to the possibilities of the real CT device. Standard, material concentration and virtual monoenergetic images were acquired[L1] from both, the real CT device and simulations. The Projection-Based BMD method was implemented using the mass attenuation coefficients of water and iodine. Then, material concentration images of water and iodine were obtained. The iodine concentrations estimated from the images agreed with the expected values in both real device and simulated images. Beam hardening artefacts were observed in the simulated material concentration images. Monoenergetic images were obtained for different energies. Such images were obtained as a superposition of the concentration images of water and iodine, weighed by their respective mass attenuation coefficient. It was verified that in the simulated and real device images, at high energies, the water concentration image predominated in the monoenergetic images, producing images that presented the iodine cavities as less attenuating than water. In contrast, at low energies, the predominant component of the monoenergetic images was the iodine concentration image. Contrast Noise Ratio (CNR) was analysed in the monochromatic images as a function of energy. Simulated and real device CNR curves exhibited similarities in their shape but with a different scale due to their difference in noise. It was possible to conclude that the simulated DECT model presented qualitative results similar to the obtained in the real device. The modelled CT system permits exploring the image features with different materials and compositions. It could also be used as a didactic tool to improve the understanding of material differentiation in spectral or DECT.
63

Paralelização de algoritmos APS e Firefly para seleção de variáveis em problemas de calibração multivariada / Parallelization of APF and Firefly algorithms for variable selection in multivariate calibration problems

Paula, Lauro Cássio Martins de 15 July 2014 (has links)
Submitted by Jaqueline Silva (jtas29@gmail.com) on 2014-10-21T18:36:43Z No. of bitstreams: 2 Dissertação - Lauro Cássio Martins de Paula - 2014.pdf: 2690755 bytes, checksum: 3f2c0a7c51abbf9cd88f38ffbe54bb67 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2014-10-21T18:37:00Z (GMT) No. of bitstreams: 2 Dissertação - Lauro Cássio Martins de Paula - 2014.pdf: 2690755 bytes, checksum: 3f2c0a7c51abbf9cd88f38ffbe54bb67 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-10-21T18:37:00Z (GMT). No. of bitstreams: 2 Dissertação - Lauro Cássio Martins de Paula - 2014.pdf: 2690755 bytes, checksum: 3f2c0a7c51abbf9cd88f38ffbe54bb67 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-07-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The problem of variable selection is the selection of attributes for a given sample that best contribute to the prediction of the property of interest. Traditional algorithms as Successive Projections Algorithm (APS) have been quite used for variable selection in multivariate calibration problems. Among the bio-inspired algorithms, we note that the Firefly Algorithm (AF) is a newly proposed method with potential application in several real world problems such as variable selection problem. The main drawback of these tasks lies in them computation burden, as they grow with the number of variables available. The recent improvements of Graphics Processing Units (GPU) provides to the algorithms a powerful processing platform. Thus, the use of GPUs often becomes necessary to reduce the computation time of the algorithms. In this context, this work proposes a GPU-based AF (AF-RLM) for variable selection using multiple linear regression models (RLM). Furthermore, we present two APS implementations, one using RLM (APSRLM) and the other sequential regressions (APS-RS). Such implementations are aimed at improving the computational efficiency of the algorithms. The advantages of the parallel implementations are demonstrated in an example involving a large number of variables. In such example, gains of speedup were obtained. Additionally we perform a comparison of AF-RLM with APS-RLM and APS-RS. Based on the results obtained we show that the AF-RLM may be a relevant contribution for the variable selection problem. / O problema de seleção de variáveis consiste na seleção de atributos de uma determinada amostra que melhor contribuem para a predição da propriedade de interesse. O Algoritmo das Projeções Sucessivas (APS) tem sido bastante utilizado para seleção de variáveis em problemas de calibração multivariada. Entre os algoritmos bioinspirados, nota-se que o Algoritmo Fire f ly (AF) é um novo método proposto com potencial de aplicação em vários problemas do mundo real, tais como problemas de seleção de variáveis. A principal desvantagem desses dois algoritmos encontra-se em suas cargas computacionais, conforme seu tamanho aumenta com o número de variáveis. Os avanços recentes das Graphics Processing Units (GPUs) têm fornecido para os algoritmos uma poderosa plataforma de processamento e, com isso, sua utilização torna-se muitas vezes indispensável para a redução do tempo computacional. Nesse contexto, este trabalho propõe uma implementação paralela em GPU de um AF (AF-RLM) para seleção de variáveis usando modelos de Regressão Linear Múltipla (RLM). Além disso, apresenta-se duas implementações do APS, uma utilizando RLM (APS-RLM) e uma outra que utiliza a estratégia de Regressões Sequenciais (APS-RS). Tais implementações visam melhorar a eficiência computacional dos algoritmos. As vantagens das implementações paralelas são demonstradas em um exemplo envolvendo um número relativamente grande de variáveis. Em tal exemplo, ganhos de speedup foram obtidos. Adicionalmente, realiza-se uma comparação do AF-RLM com o APS-RLM e APS-RS. Com base nos resultados obtidos, mostra-se que o AF-RLM pode ser uma contribuição relevante para o problema de seleção de variáveis.
64

Development of regional climate change projections for hydrological impact assessments in distrito federal, Brazil

Borges de Amorim, Pablo 10 March 2015 (has links)
Facing the urgency of taking actions to guarantee the water supply to Brazil's Capital, the project called IWAS/ÁguaDF aims to provide scientific knowledge for the development of an Integrated Water Resources Management (IWRM) concept. The project is organized in multiple working groups wherein climate is considered as one of the main drivers. The water supply system of Distrito Federal (DF) is mainly dependent on three major complexes: river basins, waste water and drinking water. Anthropogenic climate change has the potential to affect these water complexes in a number of ways such as by losing storage capacity due to erosion and sedimentation, through altered persistency of dry events and due to increasing water demand. As a contribution to the IWAS/ÁguaDF project, this study focuses on the development of climate change projections for hydrological impact assessments at local/regional scale. The development of proper climate information is a challenging task. The level of complexity corresponds directly to the issues that concern impact modellers as well as technical aspects such as available observational data, human and computational resources. The identification of the needs for water-related issues gives the foundation for deriving proper climate projections. Before making projections, it is necessary to assess the current climate conditions, or baseline climate. Despite a better understanding of the regional aspects of the climate and the ongoing changes, the baseline climate provides the foundation for calibrating and validating climate models and downscaling methods. The General Circulation Models (GCMs) are the most preferred tools in simulating the response of the climate system to anthropogenic activities, like increasing greenhouse gases and aerosol emissions. However, the climate information required for regional impact studies, such as water resources management in DF, is of a spatial scale much finer than that provided by GCMs and therefore often demands a downscaling procedure. Hydrological models are usually sensitive to the temporal variability of precipitation at scales that are not well represented by GCMs. Statistical downscaling methods have the potential to bridge the mismatch between GCMs and impact models by adding local variability that is consistent with both the large-scale signal and local observations. The tool used (i.e., Statistical DownScaling Model - SDSM) is described as a hybrid of regression-based and stochastic weather generator. The systematic calibration adopted provides the appropriated predictors and model parameterization. The validation procedure takes into account the metrics relevant to the requirements of hydrological studies. Moreover, the downscaling approach considers several climate models (i.e., 18 GCMs) and emission scenarios (i.e., SRES A1B, A2, B1) in order to sample the widest sources of uncertainties available. In spite of the elevated level of uncertainties in the magnitude of change, most of the downscaled projections agree with positive changes in temperature and precipitation for the period of 2046-2065 when compared to the reference period (i.e., 1980-1999). Large ensembles are preferable but are often associated with massive amount of data which have limited application in hydrological impact studies. An alternative is to identify subsets of projections that are most likely and projections that have lower likelihood but higher impact. A set of representative climate projections is suggested for hydrological impact assessments. Although high resolution information is preferable, it relies on limited assumptions inherent to observations and coarse-resolution projections and, therefore, its use alone is not recommended. The combination of the baseline climate with large- and local-scale projections achieved in this study provides a wide envelope of climate information for assessing the sensitivity of hydrological systems in DF. A better understanding of the vulnerability of hydrological systems through the application of multiple sources of climate information and appropriate sampling of known uncertainties is perhaps the best way to contribute to the development of robust adaptation strategies. / Starkes Bevölkerungswachstum sowie Landnutzungs- und Klimawandel gefährden die Wasserversorgung der Metropolregion Brasília. Vor diesem Hintergrund soll das Projekt IWAS/ÁguaDF die wissenschaftlichen Grundlagen für ein Integriertes Wasserressourcen-Management (IWRM) im Distrito Federal (DF) erarbeiten. Das Projekt gliedert sich in drei klimasensitive Bereiche: Einzugsgebietsmanagement, Abwasseraufbereitung und Trinkwasserversorgung. Klimaänderungen können die Wasserversorgung im DF vielfältig beeinflussen, durch Veränderung der speicherbaren Wassermenge (Wasserdargebot, Speicherkapazität von Talsperren durch Sedimentation), der Dauer von Dürreperioden und des Wasserbedarfs (z.B. für Bewässerung). Klimaprojektionen für regionale hydrologische Impaktstudien stellen jedoch eine große Heraus-forderung dar. Ihre Komplexität richtet sich nach dem Bedarf des Impaktmodellierers und hängt zudem von technischen Voraussetzungen ab, wie der Verfügbarkeit von Beobachtungsdaten sowie von Personal- und Rechenressourcen. Die Ableitung geeigneter Maßnahmen für ein nachhaltiges Wasserressourcenmanagement im DF stellt hohe Ansprüche an die Qualität der zu entwickelnden Klimaprojektionen. Noch vor der Projektion müssen die gegenwärtigen klimatischen Bedingungen (Referenzklima) analysiert und bewertet werden. Die Analyse des Referenzklimas ermöglicht ein besseres Verständnis regionaler Unterschiede und aktueller Tendenzen und bildet die Grundlage für die Kalibrierung und Validierung von Klimamodellen und Downscaling-Methoden. Globale Klimamodelle (GCM) simulieren die Reaktion des Klimasystems auf anthropogene Treibhausgas- und Aerosolemissionen. Ihre räumliche Auflösung ist jedoch meist zu grob für regionale Klimaimpaktstudien. Zudem reagieren hydrologische Modelle meist sehr sensitiv auf zeitlich variable Niederschläge, welche in hoher zeitlicher Auflösung (Tagesschritte) ebenfalls nur unzureichend in GCM abgebildet werden. Statistische Downscaling-Verfahren können diese Inkohärenz zwischen GCM und Impaktmodellen reduzieren, indem sie das projizierte Klimasignal um lokale Variabilität (konsistent gegenüber den Beobachtungen) erweitern. Das in der vorliegenden Arbeit verwendete Tool, Statistical DownScaling Model - SDSM, vereint regressionsbasierte und stochastische Methoden der Wettergenerierung. Geeignete Prädiktoren und Modelparameter wurden durch systematische Kalibrierung bestimmt und anschließend validiert, wobei unter anderem auch hydrologisch relevante Gütekriterien verwendet wurden. Der gewählte Downscaling-Ansatz berücksichtigt zudem eine Vielzahl verschiedener Globalmodelle (18 GCM) und Emissionsszenarien (SRES A1B, A2 und B1) um die mit Klimaprojektionen verbundene hohe Unsicherheit möglichst breit abzudecken. Die Mehrheit der regionalen Projektionen weist auf eine Zunahme von Temperatur und Niederschlag hin (Zeitraum 2046 bis 2065 gegenüber Referenz-zeitraum, 1980 bis 1999), wenngleich die Stärke des Änderungssignals stark über das Ensemble variiert. Große Modellensemble sind zwar von Vorteil, sie sind jedoch auch mit einer erheblichen Datenmenge verbunden, welche für hydrologische Impaktstudien nur begrenzt nutzbar ist. Alternativ können einzelne „wahrscheinliche“ Projektionen verwendet werden sowie Projektionen, die weniger wahrscheinlich, aber mit einem starken Impakt verbunden sind. Ein solcher Satz repräsentativer Klimaprojektionen wurde für weitergehende Impaktstudien ausgewählt. Auch wenn in der Regel hochaufgelöste Klimaprojektionen angestrebt werden, ihr alleiniger Einsatz in Impaktstudien ist nicht zu empfehlen, aufgrund der vereinfachten Annahmen über die statistische Beziehung zwischen Beobachtungsdaten und den Modellergebnissen grob aufgelöster Globalmodelle. Der Vergleich des Referenzklimas mit großräumigen und lokalen Projektionen, wie er in dieser Arbeit durchgeführt wurde, liefert ein breites Spektrum an Klimainformationen zur Bewertung der Vulnerabilität hydrologischer Systeme im DF. Die Einbeziehung einer Vielzahl vorhandener Klimamodelle und die gezielte, den ermittelten Unsicherheitsbereich vollständig abdeckende Auswahl an Projektionen sollte die Entwicklung robuster Anpassungsstrategien bestmöglich unterstützen. / Diante do desafio de garantir o abastecimento de água potável da capital federal do Brasil, o projeto denominado IWAS/ÁguaDF tem como objetivo prover conhecimento científico para o desenvolvimento de um conceito de Gestão Integrada dos Recursos Hídricos (PGIRH). Afim de atingir esta proposta, o projeto é organizado em multiplos grupos de trabalho entre os quais o clima é considerado um dos principais fatores de influência. O sistema de abastecimento de água do Distrito Federal (DF) depende praticamente de três complexos: bacias hidrográficas, águas residuais e água potável. Mudanças climáticas causadas por ações antropogênicas apresentam um enorme potencial de impacto a estes complexos, por exemplo através de alterações no regime de chuvas, perda de volume dos reservatórios por assoriamento e aumento na demanda de água. Como contribuição ao projeto IWAS/ÁguaDF, este estudo tem como foco o desenvolvimento de projeções de mudanças climáticas para estudo de impacto nos recursos hídricos na escala local/regional. O nível de complexidade corresponde diretamente às questões levantadas pelos modeladores de impacto, bem como aspecto técnicos como a disponibilidade de dados observados e recursos humanos e computacionais. A identificação das necessidades de questões relacionadas à água no DF dão a base para derivar projeções climáticas adequadas. Antes de qualquer projeção futura, é indispensável avaliar as condições atuais do clima, também chamado de linha de base do clima. Além de fornecer a compreenção dos aspectos regionais do clima e mudaças em curso, a linha de base provê dados para a calibração e validação de modelos globais de clima e técnicas de regionalização (downscaling). Os Modelos de Circulação Geral (GCM) são as ferramentas mais adotadas na simulação da resposta do sistema climático às atividades antropogênicas, tais como aumento de emissões de gases do efeito estufa e aerosóis. No entanto, a informação necessária para estudos regionais de impacto, tais como gestão de recursos hídricos, é de escala espacial mais refinada do que a resolução espacial fornecida pelos GCMs e, dessa forma, técnicas de regionalização são frequentemente demandadas. Modelos hidrológicos são geralmente sensitivos à variabilidade temporal de precipitação em escalas não representadas pelos modelos globais. Métodos estatísticos de ‘downscaling’ apresentam um potencial para auxiliar no descompasso entre GCMs e modelos de impacto através da adição de variabilidade local consistente com o sinal de larga escala e as observações locais. A ferramenta utilizada (Statistical DownScaling Model - SDSM) é descrita como um híbrido entre regressão linear e gerador de tempo estocástico. A calibração sistemática adotada fornece apropriados preditores e uma parameterização consistente. O procedimento de validação do modelo leva em conta as métricas relevantes aos requerimentos dos estudos hidrológicos. Ainda, a abordagem aqui utilizada considera diversos modelos globais (isto é, 18 GCMs) e cenários de emissões (isto é, SRES A1B, A2 e B1) afim de contemplar as mais abrangentes fontes de incertezas disponíveis. Embora o elevado nível de incertezas na magnitude das mudançãs de clima, a grande maioria das projeções regionalizadas concordam com o aumento de temperatura e precipiatação para o período de 2046-2065 quando comparado com o período de referência (isto é, 1980-1999). Grandes conjuntos de projeções são preferíveis, mas são frequentement associados com uma quantidade exorbitante de dados os quais são de aplicação limiatada nos estudos de impacto. Uma alternativa é identificar sub-conjuntos de projeções que são as mais prováveis e projeções que são menos prováveis, porém apresentam maior impacto. Embora altas resoluções são preferíveis, estas baseiam-se em hipóteses inerentes às observações e projeções de larga escala e, dessa forma, não é recomendável o seu uso sozinho. A combinação do clima de base com projeções de resoluções baixas e altas fornece um amplo envelope de imformações climáticas para avaliar a sensitividade dos sistemas hidrológicos no DF. Um compreendimento mais apurado da vunerabilidade dos sistemas hidrológicos através da aplicação de multiplas fontes de informação e apropriada abordagem das incertezas conhecidas é talvez a melhor maneira para contribuir para o desenvolvimento de estratégias robustas de adaptação.

Page generated in 0.235 seconds