Spelling suggestions: "subject:"algoritmo A*"" "subject:"lgoritmo A*""
151 |
Experimentação e testes para o desenvolvimento de novos produtos financeiros. / Tests and experimentation for development of new financial products.Abensur, Eder de Oliveira 18 October 2006 (has links)
A experimentação e testes com o uso de protótipos físicos ou simulação em computadores é uma prática utilizada para o desenvolvimento de diversos produtos industriais. As indústrias aeronáutica, automobilística, mecânica, naval, petrolífera e microeletrônica, entre outras, há muito empregam uma ou ambas as técnicas citadas. No entanto, inexistem referências ou estudos sobre a aplicação prática e conceitual desse assunto dentro do ambiente bancário mundial. O propósito desta pesquisa é descrever e interpretar os modos de experimentação empregados atualmente para a formação de fundos de investimento no mercado financeiro brasileiro e propor novos procedimentos para o seu desenvolvimento em analogia ao processo industrial. A metodologia proposta foi demonstrada com a utilização de dados reais levantados durante quatro anos no mercado financeiro para o desenvolvimento de um fundo aberto referenciado DI fictício simulados com o auxílio de técnicas de Dinâmica de Sistemas e de Inteligência Artificial. Os resultados reforçam as possibilidades de analogia entre o desenvolvimento de produtos industriais tangíveis e serviços intangíveis, quebrando paradigmas e propondo novos conceitos sob uma ótica renovadora para o desenvolvimento de produtos financeiros. O problema de otimização apresentado representa um novo campo de aplicação para o uso integrado de Dinâmica de Sistemas com algoritmos inteligentes, sendo que os algoritmos genéticos provaram ser uma ferramenta de suporte à decisão adequada para um ambiente competitivo e globalizado. / Experimentation and tests using physical prototypes or computer simulation are practices used in the development of various industrial products. The aeronautical, automobile, mechanical, naval, petroleum and micro-electronics industries have been using one or both of the mentioned techniques for a very long time. However, this issue has not been studied in detail in the banking area. The aim of this research is to describe and interpret the experimentation modes currently used in the Brazilian financial market in order to propose new procedures to develop investment funds akin to the industrial process. The proposed methodology was tested using 4 years of real data of the Brazilian financial market in order to develop a fictional investment fund based on Dynamic Systems and Artificial Intelligence (genetic algorithms) simulation principles. The results strengthen the possible analogy between the development of tangible industrial products and intangible services and propose new concepts according to an innovative development methodology for financial products. The related optimization problem represents a new field of application for Dynamic Systems combined with intelligent algorithms and, particularly, the Genetic Algorithms (GA) based model provided an efficient decision-making tool to be used in a competitive and globalized environment. Read more
|
152 |
Algoritmos exatos para problemas de spanner em grafos / Exact algorithms for spanner problems in graphsBraga, Hugo Vinicius Vaz 14 December 2018 (has links)
Seja (G,w,t) uma tripla formada por um grafo conexo G = (V,E), uma função peso não-negativa w definida em E e um número real t >= 1, chamado de fator de dilatação. Um t-spanner de G é um subgrafo gerador H de G tal que para cada par de vértices u, v, a distância entre u e v em H é no máximo t vezes a distância entre u e v em G. Quando H é uma árvore, dizemos que H é uma árvore t-spanner. Nesta tese focamos o problema da árvore t- spanner de peso mínimo (cuja sigla em inglês é MWTSP), definido a seguir. Dada uma tripla (G,w,t), encontrar uma árvore t-spanner em G de peso mínimo. É sabido que MWTSP é NP-difícil para cada t > 1 fixo. Propomos duas formulações lineares inteiras para MWTSP, baseadas em arborescência, de tamanho polinomial no tamanho de G. A formulação que possui variáveis representando distâncias entres os pares de vértices apresentou resultados melhores na prática. Também abordamos o problema de t-spanner de peso mínimo (cuja sigla em inglês é MWSP), cuja entrada é a mesma do MWTSP e cujo objetivo é encontrar um t-spanner de peso mínimo. Mesmo para grafos com peso unitário, MWSP é NP-difícil para cada t >= 2 fixo. Tratamos este problema de duas formas. Propomos uma formulação linear inteira para o MWSP que possui um número exponencial de restrições, mas cujo problema da separação para o programa linear relaxado correspondente é polinomial no tamanho de G. Apresentamos também uma implementação de um algoritmo de branch-and-price para o MWSP baseado numa formulação linear inteira proposta por Sigurd e Zachariasen (2004). Exibimos resultados de experimentos realizados com as duas formulações para o MWTSP e também com o algoritmo de branch-and-price para o MWSP. / Let (G, w, t) be a triplet consisting of a connected graph G = (V, E) with a nonnegative weight function w defined on E, and a real number t >= 1. A t-spanner of G is a spanning subgraph H of G such that for each pair of vertices u,v, the distance between u and v in H is at most t times the distance between u and v in G. If H is a tree then we call it a tree t-spanner of G. We address the Minimum Weight Tree Spanner Problem (MWTSP), defined as follows. Given a triplet (G, w, t), find a minimum weight tree t-spanner in G. It is known that MWTSP is NP-hard for every fixed t > 1. We propose two ILP formulations for MWTSP, based on arborescences, of polynomial size in the size of G. The formulation that has variables representing distances between pairs of vertices has shown to be better in practice. We also address the Minimum Weight t-Spanner Problem (MWSP) that has the same input as MWTSP and seeks for a minimum weight t-spanner in G. Even for unweighted graphs, it is known that MWSP is NP-hard for every fixed t >= 2. We approach this problem in two ways. We propose an ILP formulation for MWSP that has an an exponential number of restrictions but we show that the separation problem for the corresponding relaxed linear program can be solved in polynomial time in the size of G. We also present a branch-and-price algorithm for MWSP based on an ILP formulation proposed by Sigurd and Zachariasen (2004). We show results on the computational experiments with both formulations for MWTSP and also with the branch-and-price algorithm that we implemented for MWSP. Read more
|
153 |
O algoritmo de simulação estocástica para o estudo do comportamento da epidemia de dengue em sua fase inicial / The stochastic simulation algorithm for the study of the behavior of the dengue epidemic in its initial phaseNakashima, Anderson Tamotsu 24 August 2018 (has links)
O comportamento de sistemas epidêmicos é frequentemente descrito de maneira determinística, através do emprego de equações diferenciais ordinárias. Este trabalho visa fornecer uma visão estocástica do problema, traçando um paralelo entre o encontro de indivíduos em uma população e o choque entre partículas de uma reação química. Através dessa abordagem é apresentado o algoritmo de Gillespie, que fornece uma forma simples de simular a evolução de um sistema epidêmico. Fundamentos de processos estocásticos são apresentados para fundamentar uma técnica para a estimação de parâmetros através de dados reais. Apresentamos ainda o modelo de Tau-leaping e o modelo difusivo elaborados através de equações diferenciais estocásticas que são aproximações do modelo proposto por Gillespie. A aplicação dos modelos apresentados é exemplificada através do estudo de dados reais da epidemia de dengue ocorrida no estado do Rio de Janeiro entre os anos de 2012 e 2013. / The behavior of epidemic systems is often described in a deterministic way, through the use of ordinary differential equations. This paper aims to provide a stochastic view of the problem, drawing a parallel between the encounter between individuals in a population and the clash between particles of a chemical reaction. Through this approach is presented the Gillespie algorithm, which provides a simple way to simulate the evolution of an epidemic system. Fundamentals of stochastic process theory are presented to support a technique for estimating parameters through real data. We present the model of Tau-leaping and the diffusive model elaborated by stochastic differential equations that are approximations of the model proposed by Gillespie. The application of the presented models is exemplified through the study of real data of the dengue epidemic occurred in the state of Rio de Janeiro between the years of 2012 and 2013. Read more
|
154 |
Clustering EBEM: modelos de mezclas gausianas basados en maximización de entropíaPeñalver Benavent, Antonio 17 December 2007 (has links)
D.L. A 227-2008
|
155 |
Aplicación del muestreo bayesiano en robots móviles: estrategias para localización y estimación de mapas del entornoGallardo López, Domingo 11 June 1999 (has links)
No description available.
|
156 |
Algoritmo de otimização bayesiano com detecção de comunidades / Bayesian optimization algorithm with community detectionCrocomo, Márcio Kassouf 02 October 2012 (has links)
ALGORITMOS de Estimação de Distribuição (EDAs) compõem uma frente de pesquisa em Computação Evolutiva que tem apresentado resultados promissores para lidar com problemas complexos de larga escala. Nesse contexto, destaca-se o Algoritmo de Otimização Bayesiano (BOA) que usa um modelo probabilístico multivariado (representado por uma rede Bayesiana) para gerar novas soluções a cada iteração. Baseado no BOA e na investigação de algoritmos de detecção de estrutura de comunidades (para melhorar os modelos multivariados construídos), propõe-se dois novos algoritmos denominados CD-BOA e StrOp. Mostra-se que ambos apresentam vantagens significativas em relação ao BOA. O CD-BOA mostra-se mais flexível que o BOA, ao apresentar uma maior robustez a variações dos valores de parâmetros de entrada, facilitando o tratamento de uma maior diversidade de problemas do mundo real. Diferentemente do CD-BOA e BOA, o StrOp mostra que a detecção de comunidades a partir de uma rede Bayesiana pode modelar mais adequadamente problemas decomponíveis, reestruturando-os em subproblemas mais simples, que podem ser resolvidos por uma busca gulosa, resultando em uma solução para o problema original que pode ser ótima no caso de problemas perfeitamente decomponíveis, ou uma aproximação, caso contrário. Também é proposta uma nova técnica de reamostragens para EDAs (denominada REDA). Essa técnica possibilita a obtenção de modelos probabilísticos mais representativos, aumentando significativamente o desempenho do CD-BOA e StrOp. De uma forma geral, é demonstrado que, para os casos testados, CD-BOA e StrOp necessitam de um menor tempo de execução do que o BOA. Tal comprovação é feita tanto experimentalmente quanto por análise das complexidades dos algoritmos. As características principais desses algoritmos são avaliadas para a resolução de diferentes problemas, mapeando assim suas contribuições para a área de Computação Evolutiva / ESTIMATION of Distribution Algorithms represent a research area which is showing promising results, especially in dealing with complex large scale problems. In this context, the Bayesian Optimization Algorithm (BOA) uses a multivariate model (represented by a Bayesian network) to find new solutions at each iteration. Based on BOA and in the study of community detection algorithms (to improve the constructed multivariate models), two new algorithms are proposed, named CD-BOA and StrOp. This paper indicates that both algorithms have significant advantages when compared to BOA. The CD-BOA is shown to be more flexible, being more robust when using different input parameters, what makes it easier to deal with a greater diversity of real-world problems. Unlike CD-BOA and BOA, StrOp shows that the detection of communities on a Bayesian network more adequately models decomposable problems, resulting in simpler subproblems that can be solved by a greedy search, resulting in a solution to the original problem which may be optimal in the case of perfectly decomposable problems, or a fair approximation if not. Another proposal is a new resampling technique for EDAs (called REDA). This technique results in multivariate models that are more representative, significantly improving the performance of CD-BOA and StrOp. In general, it is shown that, for the scenarios tested, CD-BOA and StrOp require lower running time than BOA. This indication is done experimentally and by the analysis of the computational complexity of the algorithms. The main features of these algorithms are evaluated for solving various problems, thus identifying their contributions to the field of Evolutionary Computation Read more
|
157 |
Reconstrução de objetos simuladores segmentados aplicáveis à dosimetria de pele / Reconstruction of voxel phantoms for skin dosimetryAntunes, Paula Cristina Guimarães 09 December 2010 (has links)
A radioterapia é uma modalidade terapêutica que utiliza radiações ionizantes para erradicar as células neoplásicas do organismo humano. Um dos requisitos para o sucesso desta metodologia de tratamento está na utilização adequada dos sistemas de planejamento, os quais, dentre outras informações, estimam a dose a ser administrada aos pacientes. Atualmente, códigos de transporte de radiação têm proporcionado grandes subsídios a estes sistemas de planejamento, uma vez que viabilizam avaliações dosimétricas acuradas nos órgãos e tecidos específicos de um paciente. O modelo utilizado por estes códigos para descrever a anatomia humana de forma realista é denominado Objeto Simulador Segmentado (OSS), que consiste na representação das estruturas anatômicas do corpo em discretos elementos de volume (voxels), os quais são diretamente associados aos dados tomográficos. Atualmente, os OSS possíveis de serem inseridos e processados pelo código de transporte MCNP (Monte Carlo N-Particle), apresentam voxels com resoluções da ordem de 3-4 mm. No entanto, tal resolução compromete a discriminação de algumas estruturas finas do corpo, tais como a pele. Neste contexto, o presente estudo propõe a criação de uma rotina de cálculo que discrimine a região da pele, com espessura e localização próximas do real, nos OSS e os habilite para avaliações dosimétricas acuradas. A metodologia proposta consiste na manipulação dos elementos de volume dos OSS de forma a segmentá-los e subdividi-los em diferentes espessuras de pele. A fim de validar os dados obtidos por cálculos, foram realizadas avaliações experimentais de dosimetria de pele em objetos simuladores antropomórficos com dosímetros termoluminescentes. Verificou-se, ao longo deste estudo, a importância de discriminar a região da pele com localização e espessuras próximas do real, uma vez que foram encontradas diferenças significativas entre as estimativas de dose absorvida na região pelas diferentes representações. A metodologia proposta neste estudo far-se-á útil para avaliações dosimétricas acuradas da região de pele para diversos procedimentos radioterápicos, com particular interesse na radioterapia com feixe de elétrons, na qual se destaca a terapia de irradiação de corpo inteiro (TSET Total Skin Electron Therapy), procedimento radioterápico em implementação no Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP). / Radiotherapy is a therapeutic modality that utilizes ionizing radiation for the destruction of neoplastic human cells. One of the requirements for this treatment methodology success lays on the appropriate use of planning systems, which performs, among other information, the patients dose distribution estimate. Nowadays, transport codes have been providing huge subsidies to these planning systems, once it enables specific and accurate patient organ and tissue dosimetry. The model utilized by these codes to describe the human anatomy in a realistic way is known as voxel phantoms, which are represented by discrete volume elements (voxels) directly associated to tomographic data. Nowadays, voxel phantoms doable of being inserted and processed by the transport code MCNP (Monte Carlo N-Particle) presents a 3-4 mm image resolution; however, such resolution limits some thin body structure discrimination, such as skin. In this context, this work proposes a calculus routine that discriminates this region with thickness and localization in the voxel phantoms similar to the real, leading to an accurate dosimetric skin dose assessment by the MCNP code. Moreover, this methodology consists in manipulating the voxel phantoms volume elements by segmenting and subdividing it in different skin thickness. In addition to validate the skin dose calculated data, a set of experimental evaluations with thermoluminescent dosimeters were performed in an anthropomorphic phantom. Due to significant differences observed on the dose distribution of several skin representations, it was found that is important to discriminate the skin thickness similar to the real. The presented methodology is useful to obtain an accurate skin dosimetric evaluation for several radiotherapy procedures, with particular interest on the electron beam radiotherapy, in which highlights the whole body irradiation therapy (TSET), a procedure under implementation at the Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP). Read more
|
158 |
[en] RANKING OF WEB PAGES BY LEARNING MULTIPLE LATENT CATEGORIES / [pt] CLASSIFICAÇÃO DE PÁGINAS WEB POR APRENDIZAGEM DE MÚLTIPLAS CATEGORIAS LATENTESFRANCISCO BENJAMIM FILHO 17 May 2012 (has links)
[pt] O crescimento explosivo e a acessibilidade generalizada da World Wide
Web (WWW) levaram ao aumento da atividade de pesquisa na área da
recuperação de informação para páginas Web. A WWW é um rico e imenso
ambiente em que as páginas se assemelham a uma comunidade grande de
elementos conectada através de hiperlinks em razão da semelhança entre
o conteúdo das páginas, a popularidade da página, a autoridade sobre o
assunto e assim por diante, sabendo-se que, em verdade, quando um autor
de uma página a vincula à outra, está concebendo-a como importante
para si. Por isso, a estrutura de hiperlink da WWW é conhecida por
melhorar significativamente o desempenho das pesquisas para além do uso
de estatísticas de distribuição simples de texto. Nesse sentido, a abordagem
Hyperlink Induced Topic Search (HITS) introduz duas categorias básicas
de páginas Web, hubs e autoridades, que revelam algumas informações
semânticas ocultas a partir da estrutura de hiperlink. Em 2005, fizemos uma
primeira extensão do HITS, denominada de Extended Hyperlink Induced
Topic Search (XHITS), que inseriu duas novas categorias de páginas Web,
quais sejam, novidades e portais. Na presente tese, revisamos o XHITS,
transformando-o em uma generalização do HITS, ampliando o modelo
de duas categorias para várias e apresentando um algoritmo eficiente de
aprendizagem de máquina para calibrar o modelo proposto valendo-se de
múltiplas categorias latentes. As descobertas aqui expostas indicam que a
nova abordagem de aprendizagem fornece um modelo XHITS mais preciso.
É importante registrar, por fim, que os experimentos realizados com a coleção ClueWeb09 25TB de páginas da WWW, baixadas em 2009, mostram que o XHITS pode melhorar significativamente a eficácia da pesquisa Web e produzir resultados comparáveis aos do TREC 2009/2010 Web Track,
colocando-o na sexta posição, conforme os resultados publicados. / [en] The rapid growth and generalized accessibility of the World Wide Web
(WWW) have led to an increase in research in the field of the information
retrieval for Web pages. The WWW is an immense and prodigious environment
in which Web pages resemble a huge community of elements. These
elements are connected via hyperlinks on the basis of similarity between the
content of the pages, the popularity of a given page, the extent to which the
information provided is authoritative in relation to a given field etc. In fact,
when the author of a Web page links it to another, s/he is acknowledging
the importance of the linked page to his/her information. As such the hyperlink
structure of the WWW significantly improves research performance
beyond the use of simple text distribution statistics. To this effect, the HITS
approach introduces two basic categories of Web pages, hubs and authorities
which uncover certain hidden semantic information using the hyperlink
structure. In 2005, we made a first extension of HITS, called Extended Hyperlink
Induced Topic Search (XHITS), which inserted two new categories
of Web pages, which are novelties and portals. In this thesis, we revised the
XHITS, transforming it into a generalization of HITS, broadening the model
from two categories to various and presenting an efficient machine learning
algorithm to calibrate the proposed model using multiple latent categories.
The findings we set out here indicate that the new learning approach
provides a more precise XHITS model. It is important to note, in closing,
that experiments with the ClueWeb09 25TB collection of Web pages,
downloaded in 2009, demonstrated that the XHITS is capable of significantly
improving Web research efficiency and producing results comparable
to those of the TREC 2009/2010 Web Track. Read more
|
159 |
O uso do algoritmo genético na construção de mapas de perfusão cerebral e sua aplicação em pacientes com anemia falciforme / The use of genetic algorithm to calculate brain perfusion MRI maps and its application to sickle-cell disease.Nivia Aparecida da Silva 24 April 2008 (has links)
A imagem por ressonância magnética (IRM) tem se tornado uma poderosa ferramenta clínica na avaliação da anatomia cerebral. Recentemente, várias técnicas têm tornado possível a caracterização da função cerebral através da estimativa de alguns parâmetros metabólicos. Uma dessas técnicas é a perfusão cerebral, que descreve a passagem de sangue através da rede vascular cerebral, e permite estimar, não invasivamente, algumas características das funções hemodinâmicas tais como Volume de Sangue Cerebral (CBV), Fluxo de Sangue Cerebral (CBF) e Tempo de Trânsito Médio (MTT). Neste trabalho foi desenvolvido um programa computacional, baseado na plataforma Matlab, que analisa as imagens e cria mapas de perfusão. Primeiro foi comparado o desempenho do método de ajuste de curvas convencional Levenberg-Marquardt (LM) versus o Método que utiliza o Algoritmo Genético (AG). Os resultados mostraram que os AGS são muito mais estáveis, com relação aos seus parâmetros de controle, do que o método usual LM e, portanto, fornece evidencias da eficácia do AG em relação ao método convencional. Como um segundo e principal objetivo nós aplicamos o método para construir e examinar os mapas de perfusão em pacientes com anemia falciforme (sickle cell disease -SCD), particularmente em relação a complicações neurológicas e anormalidades vistas como uma técnica de imagem complementar. Além disso, os mapas de perfusão agregam informação a respeito de aspectos funcionais do sistema vascular, que é complementar a informação anatômica. Os nossos resultados com mostraram que esses mapas são uma ferramenta importante para auxiliar na avaliação clínica dos pacientes com anemia falciforme, como também podem ser aplicados para avaliar áreas em risco tão bem quanto ajudar no tratamento clínico de tais pacientes. / Magnetic Resonance Imaging (MRI) has become a powerful clinical tool for evaluation of brain anatomy. Several recently techniques have made possible the characterization of brain function via assessment of metabolic parameters. One of these techniques is the cerebral perfusion, which describes passage of blood through the brain\'s vascular network, and al- lows estimating, non-invasively, some characteristics of hemodynamic functions such as Cerebral Blood Volume (CBV), cerebral blood flow (CBF) and mean transit time (MTT). In this work a computational program was development, based on Matlab platform, which analyze perfusion images and create perfusion maps. First, the performance of conven- tional Levenberg-Marquardt Method (LM) versus a Genetic Algorithms (GAs) was com- pared. The results showed that the GAs are more stable than usual LM method with rela- tion to their control parameters and therefore provides evidence the effectiveness of the GAs with relation to a conventional method. As a second and principal objective we ap- plied the method to construct and examine perfusion maps of patients with sickle cell dis- ease (SCD), particularly in relation to the neurological complications and to abnormalities seen with complementary imaging techniques. Moreover, perfusion maps aggregate infor- mation about functional aspects of the vascular system, which is complementary to ana- tomical information. Our results show that these maps are an important tool to support clinical evaluation of sickle cell disease patients, as it may be applied to evaluate brain areas at risk as well as a help in the clinical treatment of such patients. Read more
|
160 |
Métodos para obtenção da altura da camada limite planetária a partir de dados de LIDAR / Methods to obtain heigth of Planetary Boundary Layer by LIDAR dataGregori de Arruda Moreira 10 September 2013 (has links)
Esta dissertação aborda um estudo sobre algoritmos matemáticos (Método da Variância, Método das Imagens, Método do Gradiente (MG), WCT - Wavelet Covariance Transform), os quais possibilitam a obtenção da altura máxima da Camada Limite Planetária (CLP) a partir de dados fornecidos por um sistema lidar. Em um primeiro momento será descrita a CLP e as suas principais variáveis, assim como também os métodos juntamente com os seus pontos positivos e negativos. Em seguida serão abordadas duas situações de medida: a primeira consiste em um estudo de casos realizado na cidade de Vitória-ES, para o qual foram escolhidas três situações típicas (calmaria, presença de subcamadas de aerossóis e/ou camadas de nuvens e turbulência) em que os métodos foram: testados, comparados entre si, com a análise visual do perfil e o BRN (Bulk Richardsons Number); a segunda situação aborda uma medida feita na cidade de São Paulo-SP durante um período de 12 horas contínuas, sendo o grande diferencial deste experimento, o lançamento de radiossondas dentro de intervalos de 3 horas, isso aliado a utilização de modelagem WRF (Weather Research Forecasting) permitiu uma maior comparação e validação dos dados. A partir dos estudos de casos foi possível observar que com o aumento da complexidade do perfil apresentado pela atmosfera, há um decréscimo na qualidade dos resultados apresentados pelos métodos e um aumento no tempo de processamento, já que há necessidade de um maior refinamento nos parâmetros que serão utilizados. Nas situações de \"calmaria\"o perfil da atmosfera se mostra mais simplificado, o que facilita a escolha de qual método utilizar, sendo que com exceção da Variância, todos os outros métodos forneceram resultados satisfatórios. Para o caso de \"presença de subcamadas de aerossóis e/ou nuvens\"a qualidade dos resultados apresentados pelos métodos decai sendo exceção da Variânci, uma vez que esta passa a apresentar resultados mais próximos do esperado devido ao aumento na complexidade do sinal lidar. Na situação caracterizada como \"turbulência\", todos os métodos passam a apresentar maiores dificuldades para detectar corretamente a CLP, sendo que o WCT se mostra o mais robusto, porém exige uma complexa escolha de parâmetros, demandando um alto tempo de processamento. Na medida de 12 horas contínuas todos os métodos conseguem representar satisfatoriamente a ascensão e o decaimento da CLP, ficando as maiores divergências para o meio do dia, principalmente quando há dispersão dos aerossóis gerando atenuação no sinal, com isso os métodos mais sensíveis (MG e Método das Imagens) passam a apresentar várias oscilações, dificultando a detecção do topo da CLP. As análises realizadas permitiram observar as vantagens e desvantagens de cada método, assim como descobrir qual possui o uso mais indicado para cada cenário meteorológico, sendo o algoritmo WCT o mais robusto em todas as situações apresentadas. / This dissertation discusses a study about mathematical algorithms (Variance Method, Method of Images, Gradient Method, WCT - Wavelet Covariance Transform) that allow obtaining the maximum height of the Planetary Boundary Layer (PBL) from data provided by the lidar system. Initially it will be described the PBL and their main variables, as well as methods along with their strengths and weaknesses. After, two situations of measurements will be discussed: the first one consists of a case study conducted in the city of Vitória-ES, where were chosen three typical situations (\"calm\", \"sublayers of aerosols and/or layers of cloud cover\"and \"turbulence\") and the methods were compared among themselves and here after validated qualitatively by a visual verify and quantitatively by obtain of the Bulk Richardson Number (BRN) extracted from radiosounding data; the second situation deals with a measurement made in the city of São Paulo - SP for a period of 12 continuous hours, and the great advantage of this experimen, launching radiosondes within 3 hour intervals, the use of this combined with WRF ( Weather Research Forecasting) model allowed a most accurate comparison and validation. Based on case studies it was observed with the increased of complexity of the profile presented by the atmosphere, there is a decrease in the quality of the results provided by the methods and an increase in processing time being necessary greater refinement of the parameters that are used. In situations of \"calm\"the profile of the atmosphere appears more simplified, which facilitates the choice of which method to use, and with exception of Variance, all other methods provided satisfactory results. For the situation of \"presence of sublayers of aerosols and/or clouds\"the quality of the results presented by the methods decays, with the exception of Variance, once this begins to show results closer than expected due to the increase in the complexity of the signal handling. In situations characterized as \"turbulence\", all methods have more difficulties to correctly detect the PBL, and the WCT shown the most robust than others, but requires a complex choice of parameters and a high processing time. The measurement of 12 hours continuous all methods can satisfactorily represent the rise and decay of PBL, the largest differences being for the middle of the day, especially when there is dispersion of aerosol generating attenuation in the signal, thus the most sensitive methods (Gradient Method and Method of Images) present several variations, making it difficult to detect the top of the PBL. The analyzes allowed to observe the advantages and disadvantages of each method, as well as find out which has the most appropriate use for each meteorological scenario, being the WCT the most robust algorithm in all situations presented. Read more
|
Page generated in 0.0502 seconds