Spelling suggestions: "subject:"nuvens"" "subject:"auvens""
111 |
Um problema inverso em dois passos para estimação de perfis de temperatura na atmosfera com nuvens a partir de medidas de radiância feitas por satélite / A two step inverse problem to retrieve vertical temperature profile in the atmosphere with clouds from radiance measurements made by satellitePatricia Oliva Soares 04 January 2013 (has links)
Esta tese tem por objetivo propor uma metodologia para recuperação de perfis verticais de temperatura na atmosfera com nuvens a partir de medidas de radiância feitas por satélite, usando redes neurais artificiais. Perfis verticais de temperatura são importantes condições iniciais para modelos de previsão de tempo, e são usualmente obtidos a partir de medidas de radiâncias feitas por satélites na faixa do infravermelho. No entanto, quando estas medidas são feitas na presença de nuvens, não é possível, com as técnicas atuais, efetuar a recuperação deste perfil. É uma perda significativa de informação, pois, em média, 20% dos pixels das imagens acusam presença de nuvens. Nesta tese, este problema é resolvido como um problema inverso em dois passos: o primeiro passo consiste na determinação da radiância que atinge a base da nuvem a partir da radiância medida pelos satélites; o segundo passo consiste na determinação do perfil vertical de temperaturas a partir da informação de radiância fornecida pelo primeiro passo. São apresentadas reconstruções do perfil de temperatura para quatro casos testes. Os resultados obtidos mostram que a metodologia adotada produz resultados satisfatórios e tem grande potencial de uso, permitindo incorporar informações sobre uma região mais ampla do globo e, consequentemente, melhorar os modelos de previsão do tempo. / This thesis presents a methodology for retrieving vertical temperature profiles in the atmosphere with clouds from radiance measurements made by satellite, using artificial neural networks. Vertical temperature profiles are important initial conditions for numerical weather prediction models, and are usually obtained from measurements of radiance using infrared channels. Though, when these measurements are performed in the atmosphere with clouds, it is not possible to retrieve the temperature profile with current techniques. It is a significant loss of information, since on average 20% of the pixels of the images have clouds. In this thesis, this problem is solved as a two-step inverse problem: the first step is an inverse problem of boundary condition estimation, where the radiance reaching the cloud basis is determined from radiance measured by satellite; the second step consists in determining the vertical temperature profile from the boundary condition estimated in the first step. Reconstructions of temperature profile are presented for four test cases. The results show that the proposed methodology produces satisfactory results and has great potential for use, allowing to incorporate information from a wider area of the planet and thus to improve numerical weather prediction models.
|
112 |
Monext: an accounting framework for federated cloudsSilva, Francisco Airton Pereira da 27 February 2013 (has links)
Cloud computing has become an established paradigm for running services on external
infrastructure that dynamically allocates virtually unlimited capacity. This paradigm
creates a new scenario for the deployment of applications and information technology
(IT) services. In this model, complete applications and machine infrastructure are offered
to users, who are charged only for the resources they consume. Thus, cloud resources are
offered through service abstractions classified into three main categories: Software as a
Service (SaaS), Platform as a Service (PaaS), and Infrastructure as a Service (IaaS).
In IaaS, computing resources are offered as virtual machines to the end user. The aim
to offer such unlimited resources necessitates distributing these virtual machines through
multiple data centers. This distribution makes harder to fulfill a number of requirements
including security, reliability, availability, and accounting. Accounting refers to how
resources are recorded, accounted for, and charged. Even for a single cloud provider
this task is hard, and it becomes more difficult for a federation of cloud computing, or
federated cloud, in which a cloud provider dynamically outsources resources to other
providers in response to demand variation. Thus, a cluster of clouds shares heterogeneous
resources, requiring greater effort to manage and accurately account for the distributed
resources.
Some earlier research has addressed the development of platforms for federated
clouds but without considering the accounting requirement. This dissertation presents
a framework for charging IaaS with a focus on federated cloud. In order to gather
information about this topic area and to generate guidelines for building the framework,
we applied a systematic mapping study. This dissertation also presents an initial validation
of the tool through a case study, showing evidence that the requirements generated
through the mapping study were fulfilled by the framework and presenting indications of
its feasibility in a real cloud service scenario / Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-10T18:37:17Z
No. of bitstreams: 2
Dissertação Francisco Airton da Silva.pdf: 5605679 bytes, checksum: 61aa2b6df102174ff2e190ab47678cbf (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-11T17:45:06Z (GMT). No. of bitstreams: 2
Dissertação Francisco Airton da Silva.pdf: 5605679 bytes, checksum: 61aa2b6df102174ff2e190ab47678cbf (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-02-27 / A Computação na Nuvem se tornou um paradigma consumado para executar serviços em
infraestruturas externas, onde de uma forma virtual a capacidade praticamente ilimitada
pode ser alocada dinamicamente. Este paradigma estabelece um novo cenário para a
implantação de aplicações e serviços de TI. Neste modelo, desde aplicações completas
até infraestrutura de máquinas são ofertadas a usuários, que são cobrados apenas pelo
uso dos recursos consumidos. Desta forma, os bens de consumo da nuvem são ofertados
através de abstrações de serviços, onde atualmente são citadas três principais categorias:
Software como Serviço (SaaS), Plataforma como Serviço (PaaS) e Infraestrutura como
Serviço (IaaS).
No caso do IaaS são oferecidos recursos computacionais na forma de Máquinas
Virtuais para o cliente final. Para atingir o aspecto ilimitado de recursos é necessário
distribuir estas Máquinas Virtuais por vários Data Centers. Esta distribuição dificulta
atender uma série de requisitos como Segurança, Confiabilidade, Disponibilidade e a
Tarifação pelos recursos consumidos. A Tarifação refere-se a como os recursos são
registrados, contabilizados e cobrados. Mesmo no caso de um único provedor esta tarefa
não é fácil e existe um contexto em que esta dificuldade se torna ainda maior, conhecida
como Federação de Computação na Nuvem ou também chamadas de Nuvens Federadas.
Nuvens Federadas ocorrem quando um provedor de Computação na Nuvem terceiriza
recursos dinamicamente para outros provedores em resposta à variação da demanda.
Desta forma ocorre um aglomerado de nuvens, porém seus recursos são heterogêneos,
acarretando num maior esforço para gerenciar os recursos distribuídos e por consequência
para a Tarifação. Neste contexto foram identificadas pesquisas nesta área sobre
plataformas para Nuvens Federadas, que não abordam o requisito de Tarifação.
Esta dissertação apresenta um framework voltado à tarifação de Infraestrutura como
Serviço com foco em Nuvens Federadas. Objetivando colher informações sobre esta
área e consequentemente gerar insumos para fundamentar as decisões na construção do
framework, foi aplicado um Estudo de Mapeamento Sistemático.
Esta dissertação também apresenta uma validação inicial da ferramenta, através de um
estudo experimental, mostrando indícios de que os requisitos gerados pelo Mapeamento
Sistemático foram atendidos, bem como será viável a aplicação da solução por provedores
de serviços de nuvem em um cenário real.
|
113 |
Um Algoritmo para Distribuição Balanceada de Carga Elétrica e Redução de Consumo de Energia em Centros de Dados e NuvensSILVA JÚNIOR, João Ferreira da 28 August 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-11T13:53:35Z
No. of bitstreams: 2
Dissertaçao Joao Ferreira da Silva Jr.pdf: 2184320 bytes, checksum: fb503909f5b1d57d923852e5dafce5b6 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T12:59:47Z (GMT) No. of bitstreams: 2
Dissertaçao Joao Ferreira da Silva Jr.pdf: 2184320 bytes, checksum: fb503909f5b1d57d923852e5dafce5b6 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T12:59:47Z (GMT). No. of bitstreams: 2
Dissertaçao Joao Ferreira da Silva Jr.pdf: 2184320 bytes, checksum: fb503909f5b1d57d923852e5dafce5b6 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-08-28 / Os avanços tecnológicos acontecem por intermédio de pesquisas e estudos, inclusive com
a criação de novos paradigmas, tais como a computação em nuvem, comércio eletrônico
e redes sociais. Em alguns casos, grandes centros de dados são utilizados para suportar
esses paradigmas. Com isso, estes grandes centros de dados tornaram-se elementos
críticos no desenvolvimento de tarefas diárias, o que sugere que, a cada dia, utilizamos
mais seus recursos, aumentando a demanda e, consequentemente, o consumo elétrico.
Hodiernamente, o consumo de energia é uma questão de interesse comum. Pesquisas
demonstram que, como consequência da constante evolução e expansão da tecnologia da
informação, os centros de dados e as nuvens (cloud computing) são grandes consumidores
de energia elétrica. Com esse alto consumo, destacam-se as questões de sustentabilidade
e custo. Neste contexto, a presente dissertação propõe um algoritmo de distribuição de
carga elétrica (ADCE) para otimizar a distribuição de energia em infraestruturas elétricas
de centros de dados e nuvens privadas. O ADCE é suportado pelo ambiente denominado
Mercury, que é capaz de realizar uma avaliação integrada das métricas de confiabilidade,
custo e sustentabilidade. O ADCE otimiza, mais especificamente, a distribuição da
corrente elétrica na modelagem de fluxo de energia (EFM - Energy Flow Model). A
modelagem em EFM é responsável por estimar as questões de sustentabilidade e de custo
das infraestruturas elétricas de centros de dados e nuvens, respeitando as restrições de
capacidade de energia que cada dispositivo é capaz de fornecer (considerando o sistema
elétrico) ou extrair (considerando o sistema de refrigeração). Ademais, dois estudos de
caso são apresentados, onde são analisadas sete infraestruturas elétricas de um centro
de dados e seis de uma nuvem privada. Para os centros de dados foi alcançada uma
redução no consumo de energia de até 15,5% e a métrica utilizada para avaliar a redução
do impacto ambiental (exergia) foi reduzida em mais da metade de seu valor. No que
concerne ao estudo das nuvens privadas a redução do consumo de energia foi de até 9,7%
e da exergia de para quase um terço de seu valor inicial. Os resultados obtidos foram
significativos, uma vez que as preocupações ambientais ganham destaque com o passar
dos anos e os recursos financeiros das empresas são finitos e muito valiosos.
|
114 |
Agrupamento e regressão linear de dados simbólicos intervalares baseados em novas representaçõesSOUZA, Leandro Carlos de 28 March 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-08-08T12:52:58Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
teseCinLeandro.pdf: 1316077 bytes, checksum: 61e762c7526a38a80ecab8f5c7769a47 (MD5) / Made available in DSpace on 2016-08-08T12:52:58Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
teseCinLeandro.pdf: 1316077 bytes, checksum: 61e762c7526a38a80ecab8f5c7769a47 (MD5)
Previous issue date: 2016-01-18 / Um intervalo é um tipo de dado complexo usado na agregação de informações ou na
representação de dados imprecisos. Este trabalho apresenta duas novas representações para
intervalos com o objetivo de se construir novos métodos de agrupamento e regressão linear para
este tipo de dado. O agrupamento por nuvens dinâmicas define partições nos dados e associa
protótipos a cada uma destas partições. Os protótipos resumem a informação das partições e são
usados na minimização de um critério que depende de uma distância, responsável por quantificar
a proximidade entre instâncias e protótipos. Neste sentido, propõe-se a formulação de uma nova
distância híbrida entre intervalos baseando-se em distâncias para pontos. Os pontos utilizados
são obtidos dos intervalos através de um mapeamento. Também são propostas duas versões com
pesos para a distância criada: uma com pesos no hibridismo e outra com pesos adaptativos. Na
regressão linear, propõe-se a representação dos intervalos através da equação paramétrica da reta.
Esta parametrização permite o ajuste dos pontos nas variáveis regressoras que dão as melhores
estimativas para os limites da variável resposta. Antes da realização da regressão, um critério é
calculado para a verificação da coerência matemática da predição, na qual o limite superior deve
ser maior ou igual ao inferior. Se o critério mostra que a coerência não é garantida, propõe-se a
aplicação de uma transformação sobre a variável resposta. Assim, este trabalho também propõe
algumas transformações que podem ser aplicadas a dados intervalares, no contexto de regressão.
Dados sintéticos e reais são utilizados para comparar os métodos provenientes das representações
propostas e aqueles presentes na literatura. / An interval is a complex data type used in the information aggregation or in the
representation of imprecise data. This work presents two new representations of intervals
in order to construct a new cluster method and a new linear regression method for this kind of
data. Dynamic clustering defines partitions into the data and it defines prototypes associated with
each one of these partitions. The prototypes summarize the information about the partitions and
they are used in a minimization criterion which depends on a distance, which is responsible for
quantifying the proximity between instances and prototypes. In this way, it is proposed a new hybrid
distance between intervals based on a family of distances between points. Points are obtained
from the interval through a mapping. Also, it is proposed two versions of the hybrid distance,
both with weights: one with weights in hybridism and other with adaptive weights. In linear
regression, it is proposed to represent the intervals through the parametric equation of the line.
This parametrization allows to find the set of points in the regression variables corresponding to
the best estimates for the response variable limits. Before the regression construction, a criterion
is computed to verify the mathematical consistency of prediction, where the upper limit must
be greater than or equal to the lower. If the test shows that consistency is not guaranteed, then
the application proposes a transformation of the response variable. Therefore, this work also
proposes some transformations that can be applied to interval data in the regression context.
Synthetic and real data are used to compare the proposed methods and those one proposed on
literature.
|
115 |
Simulações numéricas de tempestades severas na RMSP / Numerical simulations of severe thunderstorms in the MASPRicardo Hallak 29 June 2007 (has links)
Tempestades severas ocorrem na Região Metropolitana de São Paulo (RMSP) principalmente nos meses quentes e úmidos do ano. Nesta tese, os mecanismos de disparo da convecção profunda são estudados por meio de análises observacionais e simulações numéricas com o Advanced Regional Prediction System (ARPS). A metodologia proposta compreende o uso da parametrização microfísica fria na simulação dos processos físicos que levam à formação de nuvens cumulonimbus, sem o uso da parametrização de cúmulos nas grades de altíssima resolução espacial. Nos eventos estudados, as primeiras células de precipitação observadas e simuladas surgiram em razão da interação entre o escoamento atmosférico na camada limite planetária e a topografia local. As células secundárias foram geralmente mais intensas, uma vez que elas surgiram após o aquecimento diabático adicional. O mecanismo de disparo das células secundárias foi a corrente ascendente induzida pela propagação horizontal das frentes de rajada em baixos níveis da atmosfera das correntes descendentes das células primárias. As frentes de rajada tiveram velocidade de propagação horizontal típica de 6 m s-1. No evento de 02 de fevereiro de 2004, células convectivas profundas foram simuladas com alto grau de realismo no domínio da grade de 3 km de resolução espacial. Observou-se que, neste caso, a frente de brisa marítima pôde atuar como guia de ondas para a colisão entre duas frentes de rajada. A propagação da frente de brisa marítima para o interior do continente ocorreu em conjunção a um forte gradiente de vapor dágua nos níveis mais baixos da troposfera. As células convectivas profundas secundárias surgiram e se desenvolveram exatamente nesta zona de interface, a qual representa o contraste entre as diferentes massas de ar marítima e continental. No evento de 04 de fevereiro de 2004, na grade de 1 km de resolução, a análise objetiva com as medidas das estações de superfície na RMSP correspondente às 1800 UTC indicou a presença de uma ilha de calor urbana com até 4 oC de aquecimento diferencial entre a Capital e vizinhanças. O principal efeito da assimilação destas medidas foi a redução do NCL em até 80 hPa, o que favoreceu o disparo da convecção naquela área. / Severe thunderstorms occur in the Metropolitan Area of São Paulo (MASP) mainly in the warm and wet months of the year. In this work, the triggering mechanisms of deep convection are studied through observed data and numerical simulations with the Advanced Regional Prediction System (ARPS). The proposed methodology focuses in the use of microphysics parameterization of cold clouds to simulate physical process linked to the life cycle of thunderstorms. The cumulus cloud parameterization isnt used in high resolution numerical grids. In the real case studies, both observed and simulated, early convective cells developed as a consequence of the interaction between the planetary boundary layer atmospheric flow and the local topography. The secondary convective cells were generally strongest, once they developed after additional surface diabatic heating. The triggering mechanism of these secondary cells was the updraft induced by gust fronts generated by downdrafts of primary cells. The gust fronts had a typical horizontal propagation velocity of 6 m s-1. In the February 02 2004 event, deep convective cells were simulated with high degree of realism with a 3 km resolution grid. It was observed that, in this case, the sea-breeze front could act as a wave guide to the collision between two different gust fronts. In addition, the sea breeze front propagated to the continental area together with a strong low level water vapor gradient. The secondary deep convective cells arose and developed exactly on this interface zone, which represents the contrast between the oceanic and continental air masses. The interface zone was marked by a water vapor mixing rate of 14 g kg-1. In the February 04 2004 event, the objective analysis, made with some MASP´s surface stations measurements at 1800 UTC in the 1 km resolution grid, indicates the presence of an urban heat island with up to 4 oC of differential heating between São Paulo city and its neighboring area. The main effect in assimilating these surface measurements was the lowering of the lift condensation level up to 80 hPa, which favored the triggering of convection in that area.
|
116 |
Mapeamento 3-D para robôs / 3-D mapping for robotsAntonio Baptista Júnior 14 November 2013 (has links)
Na robótica, mapear o ambiente é tarefa importante, porque ela oferece informação para o planejamento e execução de movimentos do robô. Por este motivo, aqui são apresentados estudos que visam a construção de mapas 3-D e técnicas que auxiliam na tarefa de mapeamento. Quando são construídos mapas 3-D, é habilitado para outros pesquisadores e empresas de robótica a desenvolverem trabalhos de análise e planejamento de trajetórias em todos os seis graus de liberdade do corpo rígido que serve para modelar um robô móvel, robô manipulador ou robô móvel manipulador. Com uma representação do ambiente em 3-D, é aumentada a precisão do posicionamento do robô em relação ao ambiente e também o posicionamento de objetos que estão inseridos no campo de atuação do robô. Para solucionar o problema de mapeamento são apresentadas técnicas teóricas e suas aplicações em cada caso estudado. Nos experimentos realizados neste trabalho foi adotada a criação de mapas com grids (malhas) de ocupação. Vale lembrar, no entanto, que a construção de mapas por malhas de ocupação pressupõe o conhecimento do posicionamento do robô no ambiente. Neste trabalho foram conduzidos três experimentos e seus objetivos são redução de dados provenientes de falhas e redundâncias de informação com utilização de técnicas probabilísticas, detecção de movimento através da técnica de extração de fundo e mapeamento 3-D utilizando a técnica de ponto mais próximo. No experimento cujo o objetivo é reduzir os dados, foi possível reduzir para 4,43% a quantidade de pontos necessários para gerar a representação do ambiente com a utilização do algoritmo deste trabalho. O algoritmo de mapeamento 3-D feito com uso de modelos probabilísticos bem estabelecidos e disponíveis na literatura tem como base a probabilidade de eventos independentes e a proposta do trabalho envolvendo probabilidade a posteriori. O experimento de detecção de movimento foi gerado com a utilização da openCV e a tecnologia CUDA e utilizam a técnica do modelo de mistura gaussiana (GMM), foi analisado o tempo de processamento desempenhado por cada implementação e a qualidade do resultado obtido. Para obter uma representação precisa do ambiente foi conduzido o experimento que utiliza técnica iterativa do ponto mais próximo (ICP), para realização foi utilizado o sensor de movimento Kinect e os resultados apresentados não foram satisfatórios devido ao volume de dados adquiridos e a ausência de um sistema de estimativa da localização. / In robotics, map the environment is an important task, because it provides information for planning and executing movements of the robot. For this reason, studies presented here are aimed to build 3-D maps and techniques that aid in the task of mapping. When we build 3-D maps, we enable other researchers and robotics companies to develop analyzes and path planning in all six degrees of freedom rigid body that serves to model a mobile robot, manipulator or mobile robot manipulator.With a representation of the environment in 3-D, we increase the accuracy of the robot positioning in relation to the environment and also the positioning of objects that are inserted into the field of action of the robot. To solve the problem of mapping we presented theoretical techniques and their applications in each case studied.In the experiments in this work we adopted the creation of maps with grids of occupation. However, building grids of occupation assumes knowledge of the position of the robot on the environment.In this work we conducted three experiments and their aims are the reduction of data from failures and redundant information using probabilistic techniques, motion detection by background extraction technique and 3-D mapping technique using the closest point. In the experiment whose goal is to reduce the data has been further reduced to 4.43% the number of points required to generate the representation of the environment with the use of our algorithm.The algorithm of 3-D mapping done with probabilistic models available and well established in the literature is based on the probability of independent events and the proposed work involving the posterior probability.The motion detection experiment was performed with the use of openCV and CUDA technique using the Gaussian mixture model (GMM),and we analyzed the processing time and the quality of each implementation result.For an accurate representation of the environment was conducted the experiment using the technique of iterative closest point (ICP) was used to perform the motion sensor Kinect and the results were not satisfactory due to the volume of data acquired and the absence of a system location estimate.
|
117 |
Sobre coleções e aspectos de centralidade em dados multidimensionais / On collections and centrality aspects of multidimensional dataOliveira, Douglas Cedrim 14 June 2016 (has links)
A análise de dados multidimensionais tem sido por muitos anos tópico de contínua investigação e uma das razões se deve ao fato desse tipo de dados ser encontrado em diversas áreas da ciência. Uma tarefa comum ao se analisar esse tipo de dados é a investigação de padrões pela interação em projeções multidimensionais dos dados para o espaço visual. O entendimento da relação entre as características do conjunto de dados (dataset) e a técnica utilizada para se obter uma representação visual desse dataset é de fundamental importância uma vez que esse entendimento pode fornecer uma melhor intuição a respeito do que se esperar da projeção. Por isso motivado, no presente trabalho investiga-se alguns aspectos de centralidade dos dados em dois cenários distintos: coleções de documentos com grafos de coautoria; dados multidimensionais mais gerais. No primeiro cenário, o dado multidimensional que representa os documentos possui informações mais específicas, o que possibilita a combinação de diferentes aspectos para analisá-los de forma sumarizada, bem como a noção de centralidade e relevância dentro da coleção. Isso é levado em consideração para propor uma metáfora visual combinada que possibilite a exploração de toda a coleção, bem como de documentos individuais. No segundo cenário, de dados multidimensionais gerais, assume-se que tais informações não estão disponíveis. Ainda assim, utilizando um conceito de estatística não-paramétrica, deno- minado funções de profundidade de dados (data-depth functions), é feita a avaliação da ação de técnicas de projeção multidimensionais sobre os dados, possibilitando entender como suas medidas de profundidade (centralidade) foram alteradas ao longo do processo, definindo uma também medida de qualidade para projeções. / Analysis of multidimensional data has been for many years a topic of continuous research and one of the reasons is such kind of data can be found on several different areas of science. A common task analyzing such data is to investigate patterns by interacting with spatializations of the data onto the visual space. Understanding the relation between underlying dataset characteristics and the technique used to provide a visual representation of such dataset is of fundamental importance since it can provide a better intuition on what to expect from the spatialization. Motivated by this, in this work we investigate some aspects of centrality on the data in two different scenarios: document collection with co-authorship graphs; general multidimensional data. In the first scenario, the multidimensional data which encodes the documents is much more information specific, meaning it makes possible to combine different aspects such as a summarized analysis, as well as the centrality and relevance notions among the documents in the collection. In order to propose a combined visual metaphor, this is taken into account make possible the visual exploration of the whole document collection as well as individual document analysis. In the second case, of general multidimensional data, there is an assumption that such additional information is not available. Nevertheless, using the concept of data-depth functions from non-parametric statistics it is analyzed the action of multidimensional projection techniques on the data, during the projection process, in order to make possible to understand how depth measures computed in the data have been modified along the process, which also defines a quality measure for multidimensional projections.
|
118 |
Avaliação da contribuição das fontes poluentes para a assinatura isotópica de Pb, Zn e Cu do aerossol atmosférico da cidade de São Paulo / not availableSouto-Oliveira, Carlos Eduardo 12 May 2017 (has links)
As altas concentrações de aerossol fino e ultrafino observadas na atmosfera de áreas urbanas possuem um importante papel no clima local e global, devido sua interação com a radiação solar e também pela característica de formação dos núcleos de condensação de nuvens (CCN). Essas altas concentrações de partículas são responsáveis pela poluição do ar, atualmente considerada como o principal problema ambiental para a saúde pública no mundo, sendo relacionada ao câncer, doenças respiratórias, cardiovasculares e o mal de Alzheimer. Nesse contexto, o presente trabalho almejou a caracterização e discriminação de fontes poluentes para o aerossol atmosférico da cidade de São Paulo, utilizando os isótopos de Pb, Zn e Cu simultaneamente. Além disso, nesse estudo também foi realizada a avaliação do efeito das fontes locais e remotas para a ativação do CCN na atmosfera dessa região. São Paulo é a maior cidade da Região Metropolitana de São Paulo (RMSP), que por sua vez é a maior megacidade da América do Sul, e está entre as dez maiores do mundo. Amostras de aerossol urbano foram coletadas no inverno de 2013 e verão de 2014 na cidade de São Paulo. Ao mesmo tempo foram coletadas, em São Paulo e Cubatão, amostras de fontes poluentes importantes para a RMSP, como aquelas relacionadas ao tráfego veicular (combustíveis, pneu, poeira de rua e aerossol de túnel), construção civil (cimento) e à área industrial de Cubatão (aerossol). Adicionalmente, foram medidas no inverno de 2014 a concentrações de CCN, a distribuição por tamanho e a concentração em número das partículas. As determinações das composições isotópicas de Pb, Zn e Cu foram realizadas com um novo procedimento analítico, desenvolvido para a separação sequencial e purificação desses elementos, a partir de uma mesma solubilização de amostra, seguida pelas análises por espectrometria de massas empregando MC-ICP-MS e TIMS. A validação da exatidão e precisão desse procedimento foi realizada pela análise de amostras de materiais de referência, aerossol e fontes poluentes. Com base nos dados isotópicos das fontes poluentes, o tráfego veicular foi diferenciado da área industrial de Cubatão utilizando as assinaturas isotópicas de Pb dessas fontes, que demonstraram grande reprodutibilidade quando comparadas com estudos anteriores. Adicionalmente, as assinaturas isotópicas da poeira de rua e dos pneus foram discriminadas das emissões veiculares em um diagrama \'delta\'66ZnJMC vs 206Pb/207Pb. As assinaturas isotópicas de Zn e Cu da poeira de rua, emissões veiculares e cimento foram discriminadas em um diagrama \'delta\'65CuNIST vs \'delta\'66ZnJMC. As contribuições das fontes para as composições isotópicas de Pb e Zn, determinadas no aerossol da cidade de São Paulo, foram quantificadas utilizando modelos de mistura ternária. Nesses modelos o tráfego veicular (57 a 66%) foi predominante, seguido pela fonte não-caracterizada (25 a 32%), que mostrou uma assinatura isotópica de Pb e Zn específica observada nas duas campanhas. A área industrial de Cubatão apresentou contribuições de 11 a 17%, enquanto a poeira de rua contribuiu em até 18% para as assinaturas de Pb e Zn no aerossol. No inverno de 2014, o tráfego veicular local, o sal marinho e a queima de biomassa foram identificadas nas amostras de aerossol por análises de PMF, trajetórias de massas de ar e pelo sistema lidar. Também foram observados eventos de formação de aerossol secundário em 35% dos dias de medição. A ativação de CCN foi menor durante o dia em relação ao período noturno, sendo esse padrão associado principalmente as emissões do tráfego veicular local. Comparando os dias com contribuições das fontes remotas, pôde-se concluir que o material particulado proveniente do tráfego veicular durante o dia mostrou o maior efeito nos parâmetros de ativação de CCN em comparação com as fontes remotas de sal marinho e queima de biomassa. / Fine and ultrafine aerosol particles in high concentrations found in the atmosphere of urban areas, play an important role in local and global climate through interaction with solar radiation and cloud condensation nuclei (CCN) formation. These high concentrations of particles are related to the air pollution, which is the major environmental problem to the public health in the world, related with cancer, cardiovascular, respiratory and Alzheimer diseases. In this context, this study reports the simultaneous use of Pb, Zn and Cu to characterize and discriminate pollutant sources of the atmospheric aerosol from São Paulo City and evaluate the effect of local and remote sources to CCN activation in the atmosphere of this area. São Paulo is the main city of Metropolitan Area of São Paulo (MASP), which is the largest megacity in South America and rank among the ten most populous in the world. Urban aerosol samples were collected during winter of 2013 and summer of 2014 in the São Paulo city. At the same time, samples of the main pollutant sources of MASP, were sampled in São Paulo and Cubatão, such as vehicular traffic (fuels, tyres, road dust and tunnel aerosol), construction (cement) and aerosol from Cubatão industrial area. In addition, CCN concentrations, particle number concentrations and size distributions were measured during the winter of 2014 in the same sampling site. The Pb, Zn and Cu isotopic composition were determined by a new analytical procedure, developed to sequential separation of these elements, using a unique sample dissolution, followed by mass spectrometry analysis by MC-ICP-MS and TIMS. Analytical procedure validation of Accuracy and precision was carried with reference materials, aerosol and pollutant source samples. Based on isotopic data obtained on the pollutant sources, vehicular traffic was differentiated from Cubatão industrial area, using Pb isotopic fingerprints of this sources, which showed long term reproducibility when compared with previous studies. In addition, road dust and tyre isotopic signatures were discriminated from vehicular emissions in a \'delta\'66ZnJMC vs 206Pb/207Pb four isotope plot. Interestingly, Zn and Cu isotopic fingerprints of road dust, vehicular emission and cement was distinguished in a \'delta\'65CuNIST vs \'delta\'66ZnJMC four isotope plot. In order to quantify contributions of sources to Pb and Zn isotopic compositions determined in aerosol from São Paulo city, ternary mixing models were performed. In these models, vehicular traffic accounted to the main contribution (57 to 66%), followed by non-characterized source (25 to 32%), with a specific Pb and Zn isotopic signature identified in aerosol during the two campaigns. Cubatão industrial area showed contributions of 11 to 17%, whereas road dust contributed 18% to Pb and Zn isotopes in aerosol. In the winter of 2014, local vehicular traffic, sea salt and biomass burning were identified in aerosol by PMF, air masses trajectories and lidar analysis. Some new particle formation (NPF) events were identified on 35% of the sampling days. CCN activation was lower during the daytime compared to nightime periods, a pattern that was found to be associated mainly with local road-traffic emissions. Comparing the days with remote sources events, we concluded that particulate matter from local vehicular emissions during the daytime have a greater effect on CCN activation parameters than that from sea salt and biomass burning remote sources.
|
119 |
Segmentação da estrutura cerebral hipocampo por meio de nuvem de similaridade / Automatic hippocampus segmentation through similarity cloudAthó, Fredy Edgar Carranza 03 August 2011 (has links)
O hipocampo é uma estrutura cerebral que possui importância primordial para o sistema de memória humana. Alterações no seus tecidos levam a doenças neurodegenerativas, tais como: epilepsia, esclerose múltipla e demência, entre outras. Para medir a atrofia do hipocampo é necessário isolá-lo do restante do cérebro. A separação do hipocampo das demais partes do cérebro ajuda aos especialistas na análise e o entendimento da redução de seu volume e detecção de qualquer anomalia presente. A extração do hipocampo é principalmente realizada de modo manual, a qual é demorada, pois depende da interação do usuário. A segmentação automática do hipocampo é investigada como uma alternativa para contornar tais limitações. Esta dissertação de mestrado apresenta um novo método de segmentação automático, denominado Modelo de Nuvem de Similaridade (Similarity Cloud Model - SimCM). O processo de segmentação é dividido em duas etapas principais: i) localização por similaridade e ii) ajuste de nuvem. A primeira operação utiliza a nuvem para localizar a posição mais provável do hipocampo no volume destino. A segunda etapa utiliza a nuvem para corrigir o delineamento final baseada em um novo método de cálculo de readequação dos pesos das arestas. Nosso método foi testado em um conjunto de 235 MRI combinando imagens de controle e de pacientes com epilepsia. Os resultados alcançados indicam um rendimento superior tanto em efetividade (qualidade da segmentação) e eficiência (tempo de processamento), comparado com modelos baseados em grafos e com modelos Bayesianos. Como trabalho futuro, pretendemos utilizar seleção de características para melhorar a construção da nuvem e o delineamento dos tecidos / The hippocampus is a particular structure that plays a main role in human memory systems. Tissue modifications of the hippocampus lead to neurodegenerative diseases as epilepsy, multiple sclerosis, and dementia, among others. To measure hippocampus atrophy, it is crucial to get its isolated representation from the whole brain volume. Separating the hippocampus from the brain helps physicians in better analyzing and understanding its volume reduction, and detecting any abnormal behavior. The extraction of the hippocampus is dominated by manual segmentation, which is time consuming mainly because it depends on user interaction. Therefore, automatic segmentation of the hippocampus has being investigated as an alternative solution to overcome such limitations. This master dissertation presents a new automatic segmentation method called Similarity Cloud Model (SimCM) based on hippocampus feature extraction. The segmentation process consists of two main operations: i) localization by similarity, and ii) cloud adjustment. The first operation uses the cloud to localize the most probable position of the hippocampus in a target volume. The second process invokes the cloud to correct the final labeling, based on a new method for arc-weight re-adjustment. Our method has been tested in a dataset of 235 MRIs combining healthy and epileptic patients. Results indicate superior performance, in terms of effectiveness (segmentation quality) and efficiency (processing time), in comparison with similar graph-based and Bayesian-based models. As future work, we intend to use feature selection to improve cloud construction and tissue delineation
|
120 |
Sobre coleções e aspectos de centralidade em dados multidimensionais / On collections and centrality aspects of multidimensional dataDouglas Cedrim Oliveira 14 June 2016 (has links)
A análise de dados multidimensionais tem sido por muitos anos tópico de contínua investigação e uma das razões se deve ao fato desse tipo de dados ser encontrado em diversas áreas da ciência. Uma tarefa comum ao se analisar esse tipo de dados é a investigação de padrões pela interação em projeções multidimensionais dos dados para o espaço visual. O entendimento da relação entre as características do conjunto de dados (dataset) e a técnica utilizada para se obter uma representação visual desse dataset é de fundamental importância uma vez que esse entendimento pode fornecer uma melhor intuição a respeito do que se esperar da projeção. Por isso motivado, no presente trabalho investiga-se alguns aspectos de centralidade dos dados em dois cenários distintos: coleções de documentos com grafos de coautoria; dados multidimensionais mais gerais. No primeiro cenário, o dado multidimensional que representa os documentos possui informações mais específicas, o que possibilita a combinação de diferentes aspectos para analisá-los de forma sumarizada, bem como a noção de centralidade e relevância dentro da coleção. Isso é levado em consideração para propor uma metáfora visual combinada que possibilite a exploração de toda a coleção, bem como de documentos individuais. No segundo cenário, de dados multidimensionais gerais, assume-se que tais informações não estão disponíveis. Ainda assim, utilizando um conceito de estatística não-paramétrica, deno- minado funções de profundidade de dados (data-depth functions), é feita a avaliação da ação de técnicas de projeção multidimensionais sobre os dados, possibilitando entender como suas medidas de profundidade (centralidade) foram alteradas ao longo do processo, definindo uma também medida de qualidade para projeções. / Analysis of multidimensional data has been for many years a topic of continuous research and one of the reasons is such kind of data can be found on several different areas of science. A common task analyzing such data is to investigate patterns by interacting with spatializations of the data onto the visual space. Understanding the relation between underlying dataset characteristics and the technique used to provide a visual representation of such dataset is of fundamental importance since it can provide a better intuition on what to expect from the spatialization. Motivated by this, in this work we investigate some aspects of centrality on the data in two different scenarios: document collection with co-authorship graphs; general multidimensional data. In the first scenario, the multidimensional data which encodes the documents is much more information specific, meaning it makes possible to combine different aspects such as a summarized analysis, as well as the centrality and relevance notions among the documents in the collection. In order to propose a combined visual metaphor, this is taken into account make possible the visual exploration of the whole document collection as well as individual document analysis. In the second case, of general multidimensional data, there is an assumption that such additional information is not available. Nevertheless, using the concept of data-depth functions from non-parametric statistics it is analyzed the action of multidimensional projection techniques on the data, during the projection process, in order to make possible to understand how depth measures computed in the data have been modified along the process, which also defines a quality measure for multidimensional projections.
|
Page generated in 0.0592 seconds