1 |
O impacto da controladoria no tempo de julgamento dos processos disciplinares dos policiais militares do CearáSilva, Francinilson Mota da January 2013 (has links)
SILVA, Francinilson Mota da. O impacto da controladoria no tempo de julgamento dos processos disciplinares dos policiais militares do Ceará. 2012. 82 f. Dissertação (mestrado profissional) - Programa de Pós Graduação em Economia, CAEN, Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Mônica Correia Aquino (monicacorreiaaquino@gmail.com) on 2013-09-25T18:21:09Z
No. of bitstreams: 1
2013_dissert_fmsilva.pdf: 1054024 bytes, checksum: 2f2bdf4a5ddf2bc8a3cfec0b5fb5a011 (MD5) / Approved for entry into archive by Mônica Correia Aquino(monicacorreiaaquino@gmail.com) on 2013-09-25T18:21:20Z (GMT) No. of bitstreams: 1
2013_dissert_fmsilva.pdf: 1054024 bytes, checksum: 2f2bdf4a5ddf2bc8a3cfec0b5fb5a011 (MD5) / Made available in DSpace on 2013-09-25T18:21:20Z (GMT). No. of bitstreams: 1
2013_dissert_fmsilva.pdf: 1054024 bytes, checksum: 2f2bdf4a5ddf2bc8a3cfec0b5fb5a011 (MD5)
Previous issue date: 2013 / The present study tries to expose a statistical analysis of the data collected from the Comptroller General of Discipline relating to disciplinary procedures applied to military police. In this sense, aims to qualitatively evaluate the statistical results obtained. The work developed correição is critical to the performance of military police, considering, discouraging illicit acts by security agents and ensure a welcoming society and security against misconduct of security agents. In our study object the best option was a regression model censored tobit model that was the best fit to the study of variables collected. In the end it describes a qualitative analysis of the results for the variables found. / O presente estudo procura expor uma análise estatística dos dados coletados da Controladoria Geral de Disciplina, referente aos procedimentos disciplinares aplicados aos policiais militares. Neste sentido, visa avaliar qualitativamente os resultados estatísticos obtidos. O trabalho de correição desenvolvido é de fundamental importância para o desempenho dos policiais militares, haja vista, desencorajar a prática de atos ilícitos por agentes de segurança e garantir a sociedade um acolhimento e segurança contra desvios de conduta dos agentes de segurança. Na busca por alcançar o objetivo deste estudo, a melhor opção foi um modelo de regressão censurada, o modelo tobit, que foi o que melhor se adequou ao estudo das variáveis colhidas. No final buscou-se descrever uma análise qualitativa dos resultados referentes às variáveis encontradas.
|
2 |
Análise estátistica das variavéis aleatórias: RTT (Round-Trip Time), tempo de processamento no Stub e tempo de processamento no Skeleton do Middleware CORBACARBONE, Thiago Sávio January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:03Z (GMT). No. of bitstreams: 2
arquivo7149_1.pdf: 450097 bytes, checksum: 66f4c98834d738979f5d31da7764af6a (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2005 / O paradigma cliente-servidor tem sido usado na construção de aplicações para sistemas distribuídos. Adicionalmente, como os componentes implementados, usando-se de diferentes tecnologias, precisam interagir de forma colaborativa, isto torna os sistemas cliente-servidor heterogêneos; cabe então ao middleware prover, eficientemente, a interoperabilidade em tais sistemas. Este fato originou o surgimento de trabalhos de pesquisa na busca de uma modelagem matemática para analisar o comportamento de variáveis aleatórias presentes na comunicação cliente-servidor. Este trabalho apresenta, inicialmente, a análise estatística das variáveis RTT, T1 (tempo de processamento no stub) e T3 (tempo de processamento no skeleton). A seguir também é estudada a variável RTT utilizando o tipo primitivo char. Os resultados obtidos com o experimento mostraram que (i) o número de clientes e RTT são grandezas diretamente proporcionais, isto é, a medida que o número de clientes aumenta RTT também aumenta; (ii) a maior parte do tempo de processamento de RTT é gasto no tempo de processamento no stub. Constatou-se então que RTT e o tempo de processamento no stub são estatisticamente os mesmos; (iii) as variações do número de requisições (N) influenciam em RTT; (iv) RTT aumentou significativamente quando o tipo primitivo foi apenas char variando o tamanho da requisição
|
3 |
Escolha de variáveis em análises estatísticas multidimensionaisPreto, Maria Isabel Pinto January 2005 (has links)
Tese de mestrado. Estatística Aplicada e Modelação. 2005. Faculdade de Engenharia. Universidade do Porto
|
4 |
Aplicação do método de Davies para análise cinemática e estática de mecanismos com múltiplos graus de liberdadeCazangi, Humberto Reder January 2008 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia Mecânica / Made available in DSpace on 2012-10-23T16:42:37Z (GMT). No. of bitstreams: 1
258573.pdf: 3639366 bytes, checksum: 9dc327fd625f8717e10d37dfabe11b81 (MD5) / Esta dissertação propõe o estudo de uma sistemática para análise da cinemática instantânea e da estática de mecanismos para as etapas iniciais de projeto, visando auxiliar na seleção de soluções que melhor se adequam aos requisitos do problema. Para tanto, optou-se por focar o trabalho à ferramentas de análise baseadas em teoria de grafos para modelar mecanismos. Considerando que nas fases iniciais de projeto há um número elevado de soluções candidatas, entende-se que os grafos possibilitam padronizar a forma de modelar os mecanismos e, por conseqüência, a forma de entrada de dados. Uma revisão sobre a Teoria da Rede de Vetores (VNT) e o Método baseado em Teoria de Grafos (GTM) foram apresentados para exemplificar o uso de grafos para modelar a dinâmica de mecanismos. A seguir, é apresentada e discutida a ferramenta principal deste estudo, o Método de Davies, que emprega a teoria de grafos para modelar a topologia e a teoria de helicóides para representar o comportamento físico dos mecanismos. Como exemplo didático, é analisado o mecanismo de quatro barras. São apresentadas contribuições à aplicação do Método de Davies visando minimizar etapas manuais do processo no que se refere à padronização da entrada de dados, à inclusão da ortogonalidade e ao pós-processamento dos helicóides para obter dados como o fluxo de potência e a eficiência dos mecanismos. Como estudo de caso de um mecanismo com múltiplos graus de liberdade, é analisada a topologia de uma transmissão automotiva automática (PGT Ravigneaux) pelo Método de Davies, considerando as contribuições apresentadas e demonstrando passo a passo as etapas de solução. Os resultados são demonstrados através de mapas de movimentos dos corpos, de ações nos acoplamentos, além do fluxo de torque e a estimativa de eficiência em cada marcha do mecanismo. Os resultados são comprovados através de análises realizadas através de métodos clássicos, que estão apresentadas em anexo.
The subject of this dissertation is the study of a systematics for kinematics and statics analysis of mechanisms in initial phases of a project, aimed at selecting the best solutions. This work is focused in graph-theoretic techniques to model mechanisms. Given that in the beginning of a project there is a plentiful amount of candidate solutions, assumptions are that graphs allow to standardize the procedure for modeling mechanisms and data input. A revision about Vector-Network Theory (VNT) and Graph-Theoretic Method (GTM) is carried out to exemplify the use of graphs to model mechanisms. The main technique employed in this work, namely the Davies' Method, is presented and depicted. It uses graph theory to model the topology and screw theory in order to represent the physical behavior of mechanisms. As a didactic example, the four bar mechanism is analyzed. Recommendations and contributions to the application of Davies' Method are presented intending to minimize manually steps, related to the standardization of input data, to the inclusion of the orthogonality concept and the post-processing screw outputs to get relevant data like power flow and efficiency of mechanisms. A study case of a Ravigneaux planetary gear train is carried out through Davies' Method, considering it is a complex mechanism with multiple DOF. The results are presented through bodies motion maps, couplings action maps, power flow and efficiency of each gear ratio of the mechanism. Conventional methods are used to ratify the results.
|
5 |
Avaliaçäo do método geoestatístico no estudo da distribuiçäo espacial da hepatite A / Evaluation of the geostatistical method in the study of the spatial distribution of the hepatitis AMedronho, Roberto de Andrade January 1999 (has links)
Made available in DSpace on 2012-09-05T18:24:09Z (GMT). No. of bitstreams: 2
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
41.pdf: 1799338 bytes, checksum: 3dbdd3ddb80d10f74c07014db974f3c2 (MD5)
Previous issue date: 1999 / Avalia o uso das técnicas geoestatísticas para a análise, modelagem e estimativa espacial no campo da Epidemiologia. Para tal, foram analisadas 410 crianças menores de 10 anos residentes nos setores censitários 111 e 112 do segundo distrito do município de Duque de Caxias, Rio de Janeiro, Brasil, que participaram de um inquérito soroepidemiológico para hepatite A. A soroprevalência global de anticorpos contra o vírus da hepatite A foi de 24,6 por cento, sendo maior no setor 112 que no setor 111 (29,5 por cento vs. 18,1 por cento p menor ou igual a 0,008). A varioia mostrou de forma consistente eixos de maior continuidade espacial (anisotropia geométrica) da soroprevalência para cada um dos setores, que coincidiram com características geo-ambientais e urbanas propícias à propagaçäo da hepatite A, sugerindo formas distintas de propagaçäo nos setores. Além disso, detectou também o fenômeno de hole effect. Foram construídos três modelos para cada setor (omnnidirecional, com correçäo da anisotropia geométrica e com correçäo do hole effect). O procedimento de estimativa espacial usado foi o da krigagem indicadora, resultando em mapas distintos segundo o tipo de modelo aplicado, sendo que as correçöes da anisotropia geométrica e do hele effect produziram mapas mais consistentes com a distribuiçäo espacial do fenômeno. Os diferentes modelos foram avaliados através do procedimento de validaçäo cruzada. O resultado obtido pela validaçäo cruzada para cada modelo foi discretizado em diversos pontos de corte, construindo-se curvos ROC (Receiver Operator Characteristic) para cada modelo. Estas curvas näo mostraram diferença significativa entre os modelos. Identificou-se também o ponto de corte que continha um equilíbrio entre as melhores sensibilidades e especifidades conjuntas de cada módulo, mensurando-se a proporçäo de casos classificados corretamente neste ponto, para o qual observou-se que o ajuste dos modelos näo foi satisfatório.
|
6 |
Análise estatística de preços agrícolas do boi gordo / not availableKroll, Ana Cláudia Piedade Sodero 31 October 2001 (has links)
O presente estudo foi elaborado com a finalidade de analisar as distribuições dos conjuntos de preços do Boi Gordo, utilizados no cálculo do Indicador do Boi Gordo (IBG) em quatro municípios do estado de São Paulo. Para essas análises, ou seja, para o estudo das distribuições dos preços do Boi Gordo, foram utilizados três testes estatísticos: o teste W de Shapiro e Wilk, o teste de Kolmogorov-Smirnov e o teste de Lilliefors, além de um dispositivo gráfico conhecido como gráfico de caixa. Os dados utilizados na pesquisa são os preços do Boi Gordo referentes a janeiro de 1998 a janeiro de 2000, fornecidos pelo Centro de Pesquisa Avançada em Economia Aplicada (CEPEA), da ESALQ/USP. Através dos testes estatísticos e do gráfico de caixa, chega-se à conclusão de que realmente os preços não têm uma distribuição normal e, portanto, o uso da média como a medida de posição a representar os preços do boi gordo é incoerente. Acredita-se que a solução ideal, seja a utilização da mediana como a medida de posição a representar esse preços, uma vez que é uma medida que representa de forma eficiente uma distribuição assimétrica, que é o caso das distribuições dos preços. Apesar de diferentes alternativas como solução para a não normalidade dos preços, o uso da mediana é a melhor opção, uma vez que representa de forma precisa uma distribuição assimétrica, além de ser uma medida bastante conhecida e de fácil cálculo. / not available
|
7 |
Desenvolvimento de um sistema computacional para análise de experimentos em blocos incompletos / not availableSarríes, Gabriel Adrián 11 May 1989 (has links)
Neste trabalho é apresentado o desenvolvimento de um sistema computacional para análise estatística de experimentos com delineamentos em Blocos Incompletos Balanceados ou Desbalanceados. O SABI -"Sistema para Análise em Blocos Incompletos"fornece diversas informações estatísticas, Quadro de análise de Variância completo, Testes de Hipóteses, Intervalos de Confiança e Teste de Comparações Múltiplas de Tukey. No módulo"Blocos Incompletos Desbalanceados", incluem-se procedimentos para estudo da estrutura de conexão do delineamento utilizando-se o processo"R", econômico em memória e tempo de computador. Para resolução do sistema de equações normais, cálculo de somas de quadrados ajustados e ponto de matrizes utiliza-se o algoritmo SWEEP. Pelo fato do sistema estar documentado e ser desenvolvido utilizando-se técnicas de programação estruturada, com diversos procedimentos de uso geral, o presente trabalho pode servir como estrutura de base para outros sistemas com maiores recursos, para análise de experimentos com delineamento em Bloco (por exemplo Blocos Multivariados, Análise de Covariância e Regressão Polinomial) ou, inclusive, para outros delineamentos experimentais. Fica comprovada a necessidade de documentação adequada no desenvolvimento de sistemas, aspecto que não tem recebido muita atenção em"softwares"brasileiros. Essa documentação contribui efetivamente no desenvolvimento, manutenção e testes do sistema desenvolvido, bem como facilita a comunicação entre os integrantes da equipe, aspecto importante em projetos de natureza interdisciplinar / In this work is showed the development of a computation system to statistical analysis of experiments in Incomplete Balanced or Unbalanced Blocks designs. The SABI -"System for Analysis in Incomplete Blocks"gives different statistical informations, complete Analysis of Variance Table, hypothesis tests, confidence intervals and the Tukey method for multiple comparisions. In the"Unbalanced Incomplete Blocks"module was included procedures for study of the connection structure design, by using the"R"Process, economic in memory and time of computer. For the resolution of the normal equation system, sums of squares and the matrices rank, was used the SWEEP algorithm. Because the system is documented and developed making use of techniques of strutured programation, with various procedures of general use, the present work can serve as a base to others system with bigger recourses, to analysis of experiments in incomplete block designs (for example, multivariate blocks, covariance and Polynomial regression analysis or even for others experimental designs). It was confirmed the necessity of good documentation in system development, aspect that don't have been recieved atentation in Brazilian softwares. This documentation contributes effectively in the development, maintenance and tests of the developed system, as well facilitate the comunication between the integrants of a staff, important aspect in projects of interdisciplinar nature
|
8 |
Incorporação da incerteza nos mapas perceptuais obtidos via MDSMoacyr Machado Cardoso Junior 13 March 2014 (has links)
Os mapas perceptuais obtidos via escalonamento multidimensional representam uma poderosa ferramenta estatística para análise de dados multivariados. São aplicados em várias áreas do conhecimento humano por permitir ao pesquisador comprovar ou validar um modelo idealizado do comportamento humano frente a julgamentos subjetivos obtidos utilizando escalas ordinais. Sua utilização nas ciências sociais, marcadamente psicologia, sociologia, política e na percepção de riscos são destacadas pois estas ciências tomam por base a subjetividade do julgamento humano. Neste contexto, essa tese tem por objetivo incorporar a incerteza do posicionamento dos objetos após o escalonamento multidimensional, para que o modelo conceitual imposto possa ser testado levando em conta a variabilidade inerente a um grupo de julgadores. O modelo proposto parte da premissa de que as funções de distribuição de probabilidade não são conhecidas para as coordenadas dos objetos no mapa perceptual e que os julgadores e os objetos estudados são estatisticamente independentes entre si. A ferramenta explora uma característica do escalonamento multidimensional, que é a representação gráfica do conjunto de dados em baixa dimensão, e além disso, a análise dos diferentes objetos representados no mapa perceptual é realizada à luz da inferência estatística. O modelo para geração do mapa perceptual de 3-vias, denominado extbf{MDSvarext}, é obtido em 3 fases: i) Redução de dimensão e geração de agrupamentos; ii) Alinhamento das configurações, e iii) Obtenção das regiões de confiança. Como resultado verifica-se que a incorporação da geração de agrupamentos, utilizando o método extbf{K-médias} ao extbf{MDSvarext}, mostra-se viável pois permite produzir agrupamentos que reduzem a variabilidade e consequentemente as regiões de confiança nos mapas gerados, além da obtenção de mais de um mapa. Finalmente com a redução da variabilidade torna-se possível a representação das regiões de confiança que mostram visualmente nos mapas gerados quais objetos diferem estatisticamente entre si.
|
9 |
Métodos estatísticos na análise de experimentos de microarray / Method Statistics in Microarrays Experiment AnalisisCristo, Elier Broche 30 October 2003 (has links)
Neste trabalho é proposto um estudo comparativo de alguns métodos de Agrupamento (Hierárquico, K-médias e Self-Organizing Maps) e de Classificação (K-Vizinhos, Fisher, Máxima Verossimilhança, Aggregating e Regressão Local), os quais são apresentados teoricamente. Tais métodos são testados e comparados em conjuntos de dados reais, gerados com a técnica de Microarray. Esta técnica permite mensurar os níveis de expressão de milhares de genes simultaneamente, possibilitando comparações entre amostras de tecidos pelos perfis de expressão. É apresentada uma revisão de conceitos básicos relacionados ao processo de normalização, sendo este uma das primeiras etapas da análise deste tipo de conjunto de dados. Em particular, estivemos interessados em encontrar pequenos grupos de genes que fossem ?suficientes? para distinguir amostras em condições¸ biológicas diferentes. Por fim, é proposto um método de busca que, dado os resultados de um experimento envolvendo um grande número de genes, encontra de uma forma eficiente os melhores classificadores. / In this work we propose a comparative study of some clustering methods (Hierarchic, K -Means and Self-Organizing Maps) and some classification methods (K-Neighbours, Fisher, Maximum Likelihood, Aggregating and Local Regression), which are presented teoretically. The methods are tested and compared based on the analysis of some real data sets, generated from Microarray experiments. This technique allows for the measurement of expression levels from thousands of genes simultaneously, thus allowing the comparative analysis of sample of tissues in relation to their expression profile. We present a review of basic concepts regarding normalization of microarray data, one of the first steps in microarray analysis. In particular, we were interested in finding small groups of genes that were ?sufficient? to identify samples originating from different biological conditions. Finally, a search method is proposed, which will find efficiently the best classifiers from the results of an experiment involving a huge number of genes.
|
10 |
Aerossóis atmosféricos na Amazônia: composição orgânica e inorgânica em regiões com diferentes usos do solo.Arana, Andréa Araújo 01 May 2014 (has links)
Submitted by Gizele Lima (gizele.lima@inpa.gov.br) on 2017-05-22T15:00:55Z
No. of bitstreams: 2
Andréa Araújo Arana.pdf: 11629380 bytes, checksum: 6ed68bb35bb082b890cd7b6dc4c27f1b (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-05-22T15:00:55Z (GMT). No. of bitstreams: 2
Andréa Araújo Arana.pdf: 11629380 bytes, checksum: 6ed68bb35bb082b890cd7b6dc4c27f1b (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2014-05-01 / This work showed the complexity of the organic and inorganic composition of aerosol from
Amazônia e its interactions with biogenic processes in the forest. We investigated the sources
and processes that regulate the organic and inorganic components of aerosol particles from
Amazônia based on long term continuous measurements in two regions: one perturbed by
land use change, in Porto Velho/RO, and one of pristine tropical rainforest, Rebio
Cuieiras/AM. For the first time, the elemental concentration of the aerosol from Amazônia
was obtained using energy dispersive x-ray fluorescence – EDRF. A careful calibration and
optimization of the EDXRF Epsilon 5, PANalytical, was performed. This task involved the
production of calibration standards for element P, besides the use of commercially available
standards from MicroMatter. A new methodology was developed to calculate the detection
limit for each element based on a non-linear fit of the standard deviation for different masses,
and was compared to the usual method using the background noise in blank filter
measurements. Both methods gave similar detection limits, with higher values around 45 ng
cm -2 (Na, Mg e Cd), most values below 10 ng cm -2 , and some very low values as 3 ng cm -2 (P,
S, Cl, K, Ca, Cr, Fe e Cu). A detailed and extensive comparison with other EDXRF
spectrometers, one from Antwerp University and another from CETESB, and other analytical
methods, PIXE and Ion Chromatography, was performed. The comparison between PIXE
and EDXRF showed statistically significant regressions for most elements, as well as the
comparison with the other EDXRF, thus indicating that the calibration and fine-tuning of the
LFA EDXRF were appropriate. The comparison with the Ion Chromatography from PUC-Rio
was used to quantify the particle self-attenuation corrections necessary for light elements.
About the seasonal variation of aerosol mass concentration at Rebio Cuieiras, the average
concentration was very low, 9.5 ± 4.7 μg m -3 (wet season) and 13.4 ± 4.9 μg m -3 (dry season),
with a very clear seasonal cycle. The equivalent BC showed a stronger seasonality with high
concentrations in the fine mode, 0.57 ± 0.38 μg m -3 , during the dry season, and very low, 0.05
± 0.02 μg m -3 , during the wet season. In Porto Velho, average PM10 was 8.8 ± 4.2 μg m -3
(wet) and 45 ± 42 μg m -3 (dry), but with mean values reaching as high as 200 μg m -3 as during
the dry season of 2010, when EBC reached values of 3.6 ± 3.6 μg m -3 . During the wet season,
the EBC average concentration was 0.5 ± 0.4 μg m -3 . That means that, even in the absence of
large scale biomass burning, land use change and local pollution interfere on the
concentration of aerosol in anthropogenic impacted Amazon regions, as observed by Artaxo
et al. (2013). For measuring the carbonaceous aerosols, the EUSAAR_2 was chosen after an
comparison exercise. For validating the measurements, a comparison with the University of
Ghent, Belgium, was performed and showed that our calibration with sucrose, the
determination of the transit time and the data processing is correct. The average concentration
of OC at Rebio Cuieiras was 6.3 ± 3.1
μ g m -3 (dry) e 1.8 ± 0.7
μ g m -3 (wet), and for EC it was
0.6 ± 0.3
μg m -3 (dry) and 0.18 ± 0.08
μg m -3 (wet). In general, our results indicate that this
area is still pristine but with some impact of long range biomass burning transport during the
dry season. At Porto Velho, the average OC concentration was 12 ± 5
μg m -3 (dry) and 5.0 ±
0.5
μg m -3 (wet), and for EC was 0.9 ± 0.5
μg m -3 (dry) e de 0.5 ± 0.3
μg m -3 (wet). The
presence of anomalous brown carbon absorption was analyzed but it was not possible to
quantify its presence in the atmospheric aerosol in the Amazon region. The increase in mean
atmospheric concentrations of OC and EC from the wet to the dry season was studied for each
volatility level. Results showed a higher increase of the OC2, OC3, EC2 and EC3
(intermediate volatility) at Rebio Cuieiras, while at Porto Velho there was a higher increase of
OC1 and EC1, as it is more subject to fresh biomass burning. Using positive matrix
factorization and absolute principal factor analysis, a source apportionment of particulate
matter was performed. The novelty in this study was the inclusion of the organic and
inorganic components (and not only the elemental composition). The PMF analysis did not
show self-consistent results and, indeed, there is a scientific debate nowadays on the source
apportionment tools by the European Comission / Joint Research Centre. / Este trabalho mostrou a complexidade da composição orgânica e inorgânica do aerossol da
Amazônia e sua interação com processos biogênicos da floresta. Investigamos as fontes e
processos que regulam as componentes orgânica e inorgânica dos aerossóis atmosféricos na
Amazônia, a partir de medidas contínuas e de longo prazo em duas regiões: uma área
perturbada por mudanças no uso do solo, Porto Velho/RO e uma área com floresta tropical
não perturbada, Rebio Cuieiras/AM. Pela primeira vez, a concentração elementar do aerossol
da Amazônia foi determinada utilizando a técnica de fluorescência de raios X por dispersão
de energia – EDXRF. Foi realizado um trabalho de calibração e otimização do instrumento de
EDXRF Epsilon 5, da PANalytical, que envolveu a produção própria de padrões de calibração
para o elemento P, além da utilização de padrões comerciais da MicroMatter. Um novo
procedimento foi desenvolvido para calcular os limites de detecção para cada elemento
utilizando o ruído de fundo em medidas amostradas com método alternativo de regressão não
linear. Os resultados da comparação entre as concentrações medidas pelos sistemas PIXE e
EDXRF se mostraram estatisticamente significantes para a maioria dos elementos, assim
como a comparação com a CETESB e Universidade de Antuérpia, Bélgica, indicando que a
preparação dos padrões e o procedimento de calibração desenvolvidos neste trabalho foram
apropriados. A comparação entre as medidas do LFA EDXRF e Cromatografia Iônica da
PUC-Rio foi utilizada para a derivação das correções de autoabsorção de partículas para
elementos leves. Sobre os ciclos sazonais e interanuais das concentrações em massa do
aerossol na região Amazônica, na Rebio Cuieiras, a concentração média de PM 10 foi muito
pequena, 9,5 ± 4,7 μg m -3 durante a estação chuvosa e 13,4 ± 4,9 μg m -3 na estação seca. O
EBC (black carbon equivalente) apresentou uma forte sazonalidade, com elevadas
concentrações na fração fina de 0,57 ± 0,38 μg m -3 (seca) e de 0,05 ± 0,02 μg m -3 (chuvosa).
Em Porto Velho, o PM 10 foi de 8,8 ± 4,2 μg m -3 (chuvosa) e 45 ± 42 μg m -3 (seca), podendo
chegar a 200 μg m -3 , como na estação seca de 2010. A presença de EBC chegou a valores de
3,6 ± 3,6 μg m -3 . Na estação chuvosa a concentração média foi 0,5 ± 0,4 μg m -3 . Mesmo na
ausência das queimadas em larga escala, as mudanças no uso do solo e a polução local
interferem nas concentrações do aerossol em regiões impactadas antropicamente na
Amazônia, como observado na literatura. Para medidas do aerossol carbonáceo, o protocolo
escolhido foi o EUSAAR_2, por ser mais indicado ao estudo de aerossóis remotos. A
intercomparação com o instrumento da Universidade de Ghent, Bélgica, conclui que nosso
processo de calibração externo com sacarose, determinação do transit time e o processamento
dos dados estão corretos. A concentração média de OC (carbono orgânico) na Rebio Cuieiras
foi de 6,3 ± 3,1
μg m -3 (seca) e 1,8 ± 0,7
μg m -3 (chuvosa), para EC (carbono elementar) foi
de 0,6 ± 0,3
μg m -3 (seca) e 0,18 ± 0,08
μg m -3 (chuvosa). De maneira geral, os resultados
demonstram que esta é uma área ainda sob condições preservadas, porém com algum impacto
de transporte a longa distância de emissões de queimadas durante a estação seca. Em Porto
Velho, a concentração média de OC foi de 12 ± 5
μ g m -3 (seca) e 5,0 ± 0,5
μ g m -3 (chuvosa), e
EC foi de 0,9 ± 0,5
μg m -3 (seca) e de 0,5 ± 0,3
μg m -3 (chuvosa). Analisou-se a questão da
presença de absorção de radiação anômala por brown carbon, mas não foi possível quantificar
a sua presença no aerossol atmosférico da região amazônica, em parte devido às incertezas
inerentes nas medidas. Avaliou-se o aumento da concentração atmosférica média durante a
estação seca para cada nível de volatilidade do carbono e os resultados mostraram um
aumento maior das componentes OC2, OC3, EC2 e EC3 (volatilidade medida) na Rebio
Cuieiras enquanto em Porto Velho a estação de queimadas trouxe um aumento das
componentes OC1 e EC1, caracterizando queima de biomassa fresca, pela sua baixa
volatilidade. Por meio da PMF (fatorização de matriz positiva) e APFA (análise de fatores
principais absoluta) foram identificadas as fontes do material particulado. A diferença deste
estudo está no fato de que o carbono orgânico e carbono elementar (e não apenas a
composição química elementar) foram incluídos. O modelo PMF não atendeu às expectativas
de ser um modelo de fácil utilização e robusto, ao contrário do APFA. Na Rebio Cuieiras
foram identificados três fatores: fator (1) emissão de queimadas, com os elementos traçadores
S, K, Br associados ao PM10, EBC, OC e EC; fator (2) poeira do solo proveniente do deserto
do Saara, devido aos elementos traçadores, Al, Si, Ca, Ti, Fe e fator (3) indicou uma mistura
de aerossol biogênico, elementos P, e sal marinho, elemento Cl. Em Porto Velho, o fator (1)
com a emissão de solo associado ao EC, o fator (2) traçadores característicos de queimada, e o
fator (3) emissão biogênica.
|
Page generated in 0.0858 seconds