271 |
Avaliação da qualidade do diagnóstico do meio biótico de EIAs do Estado de São Paulo / Assessment of biotic baseline studies of EISs of São Paulo stateLamonica, Laura de Castro 19 September 2016 (has links)
A Política Nacional do Meio Ambiente visa compatibilizar o desenvolvimento socioeconômico com a qualidade ambiental. A Avaliação de Impacto Ambiental, um de seus instrumentos, utiliza-se do Estudo de Impacto Ambiental (EIA) na sua aplicação em projetos ou empreendimentos. A elaboração do EIA envolve a etapa de diagnóstico para análise da qualidade ambiental da área. A qualidade do EIA e do diagnóstico tem sido objeto de críticas e descrédito junto à sociedade, principalmente à comunidade científica e às associações ambientalistas. Sabe-se que a qualidade do diagnóstico influencia diretamente a efetividade processual do EIA e seu papel como influenciador da tomada de decisão; assim, uma avaliação da qualidade dessa etapa do EIA contribui com a aplicação mais efetiva desse instrumento. A pesquisa visou avaliar a qualidade do diagnóstico biótico dos EIAs do Estado de São Paulo elaborados entre 2005 e 2014. Para isso, proposições ao diagnóstico biótico foram reunidas em uma lista de verificação, utilizada para a avaliação de 55 diagnósticos bióticos e 35 termos de referência de EIAs. Os resultados foram analisados qualitativamente e em comparação com as recomendações dos termos de referência (TRs) analisados. Posteriormente, a qualidade dos diagnósticos foi analisada sob três perspectivas: aprovação dos estudos, tipo de empreendimento e ano de elaboração do EIA. Por fim, foi realizada análise de componentes principais não-linear (NLPCA) para os dados de diagnóstico, no intuito de testar a sugestão de aplicação dessa ferramenta para a identificação dos critérios determinantes para a qualidade dos diagnósticos e possíveis relações entre esses critérios e entre os estudos. A qualidade dos diagnósticos bióticos analisados foi mais satisfatória para aspectos descritivos do que analíticos. Foram determinantes para a qualidade dos estudos critérios relativos à coleta de dados quantitativos e levantamentos para espécies raras, segundo a NLPCA. Tempo de levantamento e sazonalidade foram considerados insatisfatórios, e apresentaram relação estatística com a identificação do grau de vulnerabilidade da área. Os resultados realçaram a importância da sistematização de dados de biodiversidade em fontes confiáveis e atualizadas para elaboração e análise de diagnósticos, e para TRs mais específicos, uma vez que, apesar de estarem sendo cumpridos pelos estudos, os TRs são genéricos e apresentam mais recomendações descritivas do que analíticas. Não houve diferença representativa entre a qualidade dos diagnósticos referentes a estudos aprovados e não aprovados, o setor de Obras Hidráulicas apresentou avaliações mais satisfatórias, o que foi salientado pela NLPCA e pode estar relacionado ao porte do projeto, e a análise temporal evidenciou uma tendência de melhora dos estudos e TRs. Tanto a lista de verificação quanto a NLPCA se mostraram ferramentas adequadas para a investigação da qualidade de diagnósticos biológicos de EIA / The Brazilian National Environmental Policy established Environmental Impact Assessment (EIA) as one of the 13 tools to reconcile socio-economic development with environmental quality. EIA involves the Environmental Impact Statements (EIS) in its application to development projects. EIS drafting involves a baseline step for analysis of environmental quality of the area. The quality of the EIS and the baseline process has been criticized by society, especially by scientific community and environmental groups, and this quality directly influences the effectiveness of the EIA procedure and its role as a decision making tool. Thus, an evaluation of the quality of this EIS step contributes to a more effective application of this instrument. The research aimed to evaluate the quality of biotic baseline studies of EIS drawn up between 2005 and 2014 in the state of São Paulo. We assessed 55 biotic baseline studies and 35 terms of reference (TRs) of EISs by a checklist which consists of a set of recommendations from literature and regulations to biotic baseline studies. The results of baseline and TRs were analyzed qualitatively and compared to one another. Then, we looked at the baseline quality under three approaches: license emission, sector and project type of activity, and year of EIS preparation. Finally, multivariate analysis was performed by Nonlinear Principal Component Analysis (NLPCA) for the baseline quality data in order to test the application of this analysis for the identification of critical and determinant criteria for the quality of baseline and the investigation of how these criteria and the EISs are related to one another. Results point to more satisfactory descriptive than analytical issues. Criteria of quantitative data collecting and surveys of rare species were determinants for baseline quality. Time of survey and seasonality was an unsatisfactory criterion, and statistically related to the vulnerability degree of the area. Results highlighted the importance of systematization of biodiversity data in reliable and updated sources useful for EISs preparation and analysis and for the draft of TRs in a more specific way. TRs were satisfactorily complied by the baseline content, but they are generic and present more descriptive than analytical recommendations. There was no representative difference between the quality of baseline of approved and not approved EISs. Hydraulic project showed more satisfactory evaluations, emphasized by NLPCA, and it may be related to the size of the project. Temporal analysis highlighted an improvement trend of studies and TRs. Thus, both the checklist as NLPCA proved to be suitable tools to the assessment of biological baseline studies of EIS
|
272 |
Transformações em dados composicionais para a aplicação da análise de componentes principais / Transformations in compositional data for application of principal components analysisMessias, Ricardo Matioli 29 April 2016 (has links)
A análise de dados composicionais está sendo amplamente utilizada nas diversas áreas do conhecimento como por exemplo na análise de sedimentos rochosos, na comparação de diferentes células e até na análise criminalística na comparação de evidências de crimes. Durante a história da análise deste tipo de dados existiram muitos tipos de ajustes utilizados para contornar o problema da soma constante das variáveis e ainda hoje não temos um consenso de qual a melhor solução a ser utilizada. Neste trabalho, temos como objetivo a enunciação das 7 transformações que mais foram utilizadas ao longo do tempo e suas vantagens e desvantagens. A análise de componentes principais foi escolhida para o comparativo destas transformações. Fizemos a aplicação destas transformações em três bancos de dados reais com características diferentes entre si, comparamos os resultados e analisamos qual das transformações apresentou o melhor desempenho em cada base de dados. Os critérios de comparação foram o percentual da variância explicada, as variáveis que foram mais importantes para a primeira componente principal, cargas das variáveis nas componentes principais mais importantes assim como suas correlações com as variáveis. Também, simulamos quatro estruturas de bases de dados composicionais para avaliar o desempenho das transformações. Para essas comparações e simulações, foram desenvolvidas algumas funções, utilizando o \\textit estatístico R, que visam facilitar a comparação entre as sete transformações, assim auxiliando na escolha de qual das transformações melhor se adapta aos dados. Pelos resultados obtidos notamos que: nas bases de dados reais, os resultados das explicações da variância das transformações são similares e as transformações Ref e Alr mostram melhores desempenhos que as demais; nas quatro estruturas simuladas as transformações Ref e Alr também possuem os melhores resultados na explicação da variância e a interpretação de suas componentes principais são parecidas, assim como as transformações Trad, Log e Clr. Com isso notamos que independentemente da aplicação do logaritmo nas transformações Alr e Log elas apresentaram resultados muitos similares às transformações Ref e Trad, respectivamente, tanto na explicação da variância como na interpretação das componentes principais. / The compositional data analysis is being widely used in several areas of knowledge such as the analysis of rocky sediments, to compare different biological cells and even in forensic analysis to compare crimes evidences. During the history of the analysis of such data, to circumvent the problem of variable\'s constant sum were used many types of adjustments. Until now, we do not have a consensus in which is the best solution to be used in this cases. In this paper, we aim to enunciate seven transformations that most were used over time and their advantages and disadvantages. The principal component analysis was chosen for the comparison of these transformations. We applied this transformations in three real databases with different characteristics, we hope to compare the results and analyze which transformation have the best performance in each database. The comparison criteria were the percentage of explained variance, the variables that were most important to the first principal component,variable\'s loads in the most important principal components as well their correlation with the variables. We also simulated four compositional data bases structures to evaluate the performance of the transformations. For these comparisons and simulations were developed some functions, using the statistical software R, to facilitate comparison between the seven transformations, thus assisting in choosing which of the best transformation fits to the data. From the results we note that: for the real databases, the results of the variance explanation of all transformations are similar, thus Ref and Alr transformations show better performances than the others; in the four simulated structures the Ref and Alr transformations also have the best results in the variance explanation and interpretation of its main components are similar, as well as the transformations Trad, Log and Clr. Thus we note that independently of applying logarithm in and Log and Alr transformations they present very similar results as Ref and Trad transformations, respectively, both in variance explanation and in the interpretation of the principal components.
|
273 |
O impacto das fontes de poluição na distribuição de tamanho em número e massa do material particulado atmosférico em São Paulo / The Impact of Pollution Sources on Number and Mass Size Distribution of Atmospheric Particulate Matter in São PauloLuís Henrique Mendes dos Santos 06 August 2018 (has links)
Diversos estudos tiveram como objetivo determinar e caracterizar o aerossol atmosférico na cidade de São Paulo, quanto a seu tamanho e composição química, bem como encontrar as suas fontes emissoras e contribuições em massa para a região estudada. A coleta dos constituintes atmosféricos foi realizada na estação de amostragem do Laboratório de Análises dos Processos Atmosféricos (LAPAt) do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da Universidade de São Paulo (USP), localizada na zona oeste da cidade de São Paulo, geograficamente em 23°3334 S e 46°4400 O. O experimento foi realizado de 15 de agosto a 16 de setembro de 2016. Foram realizadas coletas de material particulado para análise da concentração em massa de sua fração fina inalável e composição química. A distribuição de tamanho para massa de material particulado foi determinada através da coleta com um impactador em cascata. A distribuição de tamanho para número foi obtida a partir de medidas com um Scanning Mobility Particle Sampler (SMPS) com o cálculo da concentração número de partículas (PNC) para o intervalo de 9 a 450 nm de diâmetro. Para estudar as relações entre os gases presentes na região amostrada com a radiação ultravioleta e com o PNC utilizamos os valores horários de concentrações dos gases (O3, NO, NO2 e NOX) e UV medidos na Rede Telemétrica da CETESB (Companhia de Tecnologia Ambiental do Estado de São Paulo). Os filtros coletados foram analisados pela técnica de Fluorescência de Raios-X dispersivo em energia (EDX). As concentrações de Black Carbon (BC) foram obtidas por refletância. Para a determinação das fontes de material particulado fino (MP2,5) foram utilizados os seguintes modelos receptores: Análise de Componentes Principais (ACP) e Fatoração de Matriz Positiva (FMP). Para análise de dispersão do poluente, utilizamos dados meteorológicos da estação climatológica do IAG situada no Parque do Estado. A concentração média de MP2,5 foi de 18,6 (±12,5) g/m³ e a concentração média de BC foi de 1,9 (±1,5) g/m³. As principais fontes encontradas, por ambos modelos receptores ACP e FMP, foram: veículos pesados (a diesel), veículos leves, queima de biomassa, ressuspensão de poeira de solo, pavimentos e construção, processos secundários e misturas de fontes. Os elementos-traço foram definidos em diferentes modas de tamanho: Al, Ca, Si e Ti com picos nas modas de acumulação, traçadores de ressuspensão de pavimento; Fe, Mn, P, K e Cr com picos na fração mais grossa da moda de acumulação, traçadores de emissões veiculares e queima de biomassa. Cu, Zn, Br, Pb, S e BC apresentam picos na fração mais fina da moda de acumulação, traçadores de emissões veiculares e queima de biomassa. / Several studies aimed to determine and characterize the atmospheric aerosol in the city of São Paulo, not only to its size and chemical composition, but as well as to find its emitting sources and mass contributions in the studied area. The atmospheric constituents were collected at the Laboratório de Análise dos Processos Atmosféricos (LAPAt) of the Institute of Astronomy, Geophysics and Atmospheric Sciences (IAG) of the University of São Paulo (USP), located in the western zone of the city of São Paulo Paulo, geographically at 23°33\'34\"S and 46°44\'00\" W. The experiment was conducted from August 15 to September 16 of 2016. Samples of particulate matter were collected to analyze the mass concentration and chemical composition of its inhalable fine fraction. The particulate mass size distribution was determined through the collection with a cascade impactor. The number size distribution was obtained from measurements with a Scanning Mobility Particle Sampler (SMPS) with the calculated number of particle concentration (PNC) for the range of 9 to 450 nm of the diameter. In order to study the relationships among the compounds present in the region and the PNC, we used the hourly values of the gaseous concentrations (O3, NO, NO2 and NOx) and UV measured in CETESB\'s Air Quality Telemetric Network in the State of São Paulo. The sampled filters were analyzed by the energy dispersive X-ray Fluorescence (EDX) technique to determine the elemental composition. The concentrations of Black Carbon (BC) were obtained by reflectance analysis. In order to determine the sources of fine particulate matter (PM2.5), the following Receptors Models were used: Principal Component Analysis (PCA) and Positive Matrix Factorization (PMF). For air pollution dispersion analysis, we used meteorological data from the IAG climatological station located in the Southeast of the city. The mean MP2.5 concentration was 18.6 (± 12.5) g/m³ and the mean concentration of BC was 1.9 (± 1.5) g/m³ for the sampling period. The main sources found by both ACP and PMF models were heavy-duty vehicles (diesel), light-duty vehicles, biomass burning, resuspension of soil dust, pavements and construction, secondary processes and mixed sources. The trace elements were defined at different size distributions: Al, Ca, Si and Ti with peaks in accumulation fraction (related to pavement resuspension tracers); Fe, Mn, P, K and Cr with peaks in the largest fraction of accumulation mode, characteristic of vehicular emissions tracer and biomass burning. Cu, Zn, Br, Pb, S and BC presented peaks in the finer fraction of the accumulation mode, related to vehicle emissions tracer and biomass burning.
|
274 |
Ordenação evolutiva de anúncios em publicidade computacional / Evolutionary ad ranking for computational advertisingBroinizi, Marcos Eduardo Bolelli 15 June 2015 (has links)
Otimizar simultaneamente os interesses dos usuários, anunciantes e publicadores é um grande desafio na área de publicidade computacional. Mais precisamente, a ordenação de anúncios, ou ad ranking, desempenha um papel central nesse desafio. Por outro lado, nem mesmo as melhores fórmulas ou algoritmos de ordenação são capazes de manter seu status por um longo tempo em um ambiente que está em constante mudança. Neste trabalho, apresentamos uma análise orientada a dados que mostra a importância de combinar diferentes dimensões de publicidade computacional por meio de uma abordagem evolutiva para ordenação de anúncios afim de responder a mudanças de forma mais eficaz. Nós avaliamos as dimensões de valor comercial, desempenho histórico de cliques, interesses dos usuários e a similaridade textual entre o anúncio e a página. Nessa avaliação, nós averiguamos o desempenho e a correlação das diferentes dimensões. Como consequência, nós desenvolvemos uma abordagem evolucionária para combinar essas dimensões. Essa abordagem é composta por três partes: um repositório de configurações para facilitar a implantação e avaliação de experimentos de ordenação; um componente evolucionário de avaliação orientado a dados; e um motor de programação genética para evoluir fórmulas de ordenação de anúncios. Nossa abordagem foi implementada com sucesso em um sistema real de publicidade computacional responsável por processar mais de quatorze bilhões de requisições de anúncio por mês. De acordo com nossos resultados, essas dimensões se complementam e nenhuma delas deve ser neglicenciada. Além disso, nós mostramos que a combinação evolucionária dessas dimensões não só é capaz de superar cada uma individualmente, como também conseguiu alcançar melhores resultados do que métodos estáticos de ordenação de anúncios. / Simultaneous optimization of users, advertisers and publishers\' interests has been a formidable challenge in online advertising. More concretely, ranking of advertising, or more simply ad ranking, has a central role in this challenge. However, even the best ranking formula or algorithm cannot withstand the ever-changing environment of online advertising for a long time. In this work, we present a data-driven analysis that shows the importance of combining different aspects of online advertising through an evolutionary approach for ad ranking in order to effectively respond to changes. We evaluated aspects ranging from bid values and previous click performance to user behavior and interests, including the textual similarity between ad and page. In this evaluation, we assessed commercial performance along with the correlation between different aspects. Therefore, we proposed an evolutionary approach for combining these aspects. This approach was composed of three parts: a configuration repository to facilitate deployment and evaluation of ranking experiments; an evolutionary data-based evaluation component; and a genetic programming engine to evolve ad ranking formulae. Our approach was successfully implemented in a real online advertising system that processes more than fourteen billion ad requests per month. According to our results, these aspects complement each other and none of them should be neglected. Moreover, we showed that the evolutionary combination of these aspects not only outperformed each of them individually, but was also able to achieve better overall results than static ad ranking methods.
|
275 |
Análise envoltória de dados e análise de componentes principais: uma proposta de medição do desempenho de organizações hospitalares sob a perspectiva de Hospitais Universitários Federais do Brasil / Data envelopment analysis and principal component analysis: a performance measurement proposal in hospital organizations from the perspective of the Federal University Hospitals of BrazilPeixoto, Maria Gabriela Mendonça 27 June 2016 (has links)
A presença de hospitais de ensino representa papel estratégico à melhoria da qualidade de vida de pacientes da rede SUS, a partir da formação qualificada de profissionais das áreas de saúde, médica e complementares, que signifiquem eficiência na produção hospitalar. Frente a este cenário marcado pela escassez de recursos infraestruturais, humanos e materiais surgem os Hospitais Universitários Federais (HUFs), apoiados pelo Programa Nacional de Reestruturação dos Hospitais Universitários Federais (REHUF), desde 2010. Neste sentido, o objetivo deste trabalho foi medir o desempenho de HUFs brasileiros participantes do REHUF, por meio do auxílio de técnicas de estatística multivariada e do uso da análise envoltória de dados, abrangendo contribuições teóricas e práticas para a academia e organizações hospitalares. Este trabalho apresentou caráter descritivo e quantitativo; possuiu propósito exploratório e lógica indutiva, estando empiricamente estruturado em cinco estágios. De maneira geral, pode-se inferir, portanto, que os hospitais caracterizados como ineficientes, assim foram no que diz respeito à produção de residentes médicos (RM), por área de especialidade, para o ano de 2014. Logo, apresentaram um contexto constituído por elevado consumo de insumos, para uma produção média não tão elevada de RM, entre as especialidades. Contudo, pôde-se comprovar, ao longo da realização de todo o trabalho, que os hospitais eficientes também obtiveram resultados similares, porém às custas de um menor consumo dos inputs. A partir da análise de componentes principais, considerando-se principalmente a componente I, com o dobro do poder de explicação da segunda (CP2) e terceira componentes (CP3), evidenciou-se ainda mais o comportamento eficiente ou ineficiente dos HUFs avaliados pela DEA, mediante a produção de residência médica, por área de especialidade. Diante disso, pode-se considerar que o comparativo realizado entre os resultados inerentes a análise de componentes principais (PCA) e a análise envoltória de dados (DEA) foi satisfatório, visto que a primeira técnica permite maior liberdade de decisão e análise para o pesquisador, uma vez que não necessariamente os maiores escores em PCA representam os melhores desempenhos. Por fim, deve-se ressaltar, enquanto importante contribuição, o processo de construção de índices de desempenho global ou macroindicadores de desempenho, tendo como base as variáveis originais participantes da análise. / The presence of teaching hospitals represents an strategic role to improve life quality of SUS patients, from the qualified training of health care, involving both medical and complementary áreas, which mean efficiency in hospital production. Given this scenario marked by the lack of infrastructure, human and material resources emerge the Federal University Hospitals (HUFS), supported by the Restructuring National Program of Federal University Hospitals (REHUF), since 2010. In this sense, the objective of this study was to measure the performance of Brazilian HUFs participating in the REHUF, through the help of multivariate statistical techniques and the use of the data envelopment analysis, thus covering theoretical and practical contributions to academy and hospital organizations. This paper presented descriptive and quantitative character; had exploratory purpose and inductive logic, being empirically divided into five stages. In general, it can be inferred that the hospitals were characterized as inefficient as a result of the production of medical residentes (RM), by specialty, for the year 2014. Therefore, they presented a context composed of high inputs consumption, for a not very high RM average production, between the specialties. However, it was possible to prove over the completion of the whole thesis, that the efficient hospitals also presented similar results, but at the expense of less inputs consumption. From the principal component analysis, considering mainly the component I, with twice the explanation power of the second (CP2) and the third componentes (CP3), it was even more evidente the efficient or inefficient behavior of HUFs evaluated by the DEA, considering residency production, by specialty area. Thus, it can be considered that the comparison stablished between the results inherent to the principal component analysis (PCA), and the data envelopment analysis (DEA), was satisfactory, once the first technique allows greater freedom of decision and analysis for the researcher, as not necessarily the highest scores in PCA represent the best performances. Finally, it should be noted, as another important contribution, the construction process of global performance indexes or macro indicators, based on the original variables involved in the analysis.
|
276 |
Métodos multivariados para agrupamento de bovinos de raça Hereford em função dos parâmetros de curvas de crescimento / Multivariate methods for grouping Hereford cattle breed against the parameters of growth curvesNakamura, Luiz Ricardo 23 January 2012 (has links)
Após o ajuste individual das 55 vacas estudadas pelo modelo Gompertz difá- sico com estrutura de erros autorregressiva de ordem 1 (totalizando 7 parâmetros), notou-se que apenas 6 vacas tinham problemas nas estimativas de seus parâmetros (não convergentes ou não signicativos), dessa forma continuou-se o trabalho proposto com 49 animais. Com as estimativas de cada um dos parâmetros (variáveis nessa etapa) foi realizada a análise de componentes principais e observação do gráco biplot, sendo possível a constatação de que 2 dos parâmetros do modelo continham informações ambíguas com pelo menos um dos demais parâmetros e estes foram retirados da análise, restando 5 parâmetros para o estudo. A análise de componentes principais foi realizada novamente apenas com os 5 parâmetros restantes e os três primeiros componentes principais (escolhidos pelo critério da percentagem de variância original explicada) foram utilizados como variáveis em um processo de agrupamento hierárquico. Após a realização da análise de agrupamentos, observou-se que 5 grupos homogêneos de animais foram formados, cada um com caraterísticas distintas. Desta forma, foi possível identicar animais que se destacavam, positiva ou negativamente, no que tange ao seu peso assintótico e taxa de crescimento. / After individual adjustment of the 55 cows studied using the diphasic Gompertz model with autoregressive structure of errors (totalizing 7 parameters), it was noted that only 6 cows had problems on estimates of the parameters (not converged or not signicant), then the proposed work continued with 49 animals. With each of the parameters estimates (variables at this stage) was performed a principal component analysis and observation of the biplot, and it was possible to nd that two of the model parameters contained ambiguous information with at least one of the other parameters, then these 2 parameters were removed from the analysis, leaving 5 parameters for the study. The principal component analysis was performed again with only ve remaining parameters and the rst three principal components (chosen by the criterion of percentage of original explained variance) were used as variables in a process of hierarchical clustering. After performing the cluster analysis, we found that ve homogeneous groups of animals were formed, each with distinct characteristics. Thus, it was possible to identify animals that stood out, positively or negatively, in terms of their asymptotic weight and growth rate.
|
277 |
Um método para análise e visualização de dados georreferenciados relacionados ao trânsito de veículosMachado, Jonathan 30 March 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-06-13T15:57:01Z
No. of bitstreams: 1
Jonathan Machado_.pdf: 1018280 bytes, checksum: ac428b5c72c1ef24649cb96a3a778512 (MD5) / Made available in DSpace on 2017-06-13T15:57:01Z (GMT). No. of bitstreams: 1
Jonathan Machado_.pdf: 1018280 bytes, checksum: ac428b5c72c1ef24649cb96a3a778512 (MD5)
Previous issue date: 2017-03-30 / Nenhuma / Os acidentes de trânsito de veículos são uma das maiores causas de mortes na população jovem mundial, e existe uma tendência ao crescimento no número de casos dos mesmos nos próximos anos. A ocorrência dos acidentes é influenciada por diversos fatores, tais como condições das vias, condições climáticas, fiscalização de leis por órgãos governamentais, dentre outros. Seria interessante conhecer de maneira mais detalhada quais destes fatores detém maior influência. Na internet, existe uma quantidade imensa de dados gerados pelos mais diversos órgãos e empresas, porém grande parte desta informação não é analisada por ninguém, seja por falta de acesso, ou porque os dados não estão estruturados de uma maneira que permita seu entendimento. A disponibilização de dados vem aumentando, seja por conta de políticas de dados abertos implantadas pelo governo ou através de ferramentas colaborativas da web, que possibilitam o registro de informações por parte da população, e que posteriormente disponibilizam seus dados. Este trabalho propõe um método de agrupamento de dados georreferenciados oriundos de diversas fontes, para realização de uma análise estatística utilizando a técnica de Análise de Componentes Principais, que poderá identificar de forma georreferenciada quais características influenciam mais na ocorrência de acidentes de trânsito de veículos. Após a análise, é explorada uma nova metodologia de visualização dos resultados, plotados sobre mapas, que podem servir de auxílio para órgãos do governo e tomadores de decisão que realizam ações para diminuir os acidentes de trânsito. / Traffic accidents of vehicles are one of the biggest causes of deaths in the world's young population, and there is a tendency to increase this number in the next years. The occurrence of accidents is influenced by several factors, such as road conditions, climatic conditions, law enforcement by government agencies, among others. It would be interesting to know in more detail which of these factors has the greatest influence. On the internet, there is an immense amount of data generated by diverse agencies and companies, but much of this information is not analyzed, either because of lack of access, or because the data is not structured in a way that allows its understanding. The availability of data is increasing, either through open data policies implemented by the government, or through collaborative web tools, which make it possible record information by population, and subsequently make their data available. This work proposes a method of grouping georeferenced data from several sources, to perform a statistical analysis using the technique of Principal Components Analysis, which can identify in a georeferenced way which characteristics influence more in the occurrence of traffic acidentes of vehicles. After the analysis, a new methodology for visualizing results, plotted on maps, is explored, which can serve as an aid to government agencies and decision makers who take actions to reduce traffic accidents.
|
278 |
Vis-Scholar: uma metodologia de visualização e análise de dados na educaçãoCosta, Jean Carlos Araújo 01 March 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-05-25T12:28:08Z
No. of bitstreams: 1
Jean Carlos Araújo Costa_.pdf: 1155126 bytes, checksum: 15210c31e7d20bb22cb98f8732173d6d (MD5) / Made available in DSpace on 2016-05-25T12:28:09Z (GMT). No. of bitstreams: 1
Jean Carlos Araújo Costa_.pdf: 1155126 bytes, checksum: 15210c31e7d20bb22cb98f8732173d6d (MD5)
Previous issue date: 2016-03-01 / Nenhuma / Técnicas de visualização de dados podem auxiliar nas mais diversas áreas de atuação humana, em especial na compreensão de dados e informações de diferentes fenômenos que se quer estudar. Quanto mais variáveis estão relacionadas com esse fenômeno, mais desafiador se torna seu tratamento e representação visual. Pensando em educação no Brasil e suas bases de dados abertas, bem como em bases de dados acadêmicas existentes nas instituições, o uso de técnicas matemáticas para correlacionar conjuntos de dados e métodos de visualização para apresentar essas correlações, disponíveis em uma ferramenta de fácil acesso e operação, podem tornar públicas informações sobre a qualidade da educação de determinada região, estado, município e instituição de ensino. Outro benefício pode ser a indicação de fatores que antes eram ignorados, como alvos de investimento e ainda ajudar na elaboração de políticas públicas, nacionais ou regionais, que tornem a educação mais eficiente, abrangente e inclusiva. Iniciativas de organizações não governamentais e algumas vinculadas ao governo brasileiro tem elaborado ferramentas de filtragem de informações e divulgação de dados sobre qualidade e investimento de recursos na educação. O governo brasileiro usa índices de desempenho para avaliar suas Instituições de Ensino Superior. O Conceito Preliminar de Curso é um desses. Este trabalho apresenta uma solução, visando elaborar uma metodologia de visualização de dados através de uma aplicação web, com tecnologias open source, utilizando o método de análise de componentes principais (ACP) como técnica matemática de correlação de variáveis, e distribuindo resultados sobre um mapa com a utilização da API do Google Maps, porém, tendo como foco, a busca do nível de influência de diferentes fatores, inclusive de alguns não ligados diretamente à educação, na performance de instituições de ensino e no rendimento acadêmico de alunos, tendo como estudo de caso, a análise de um índice de desempenho na educação superior. / Data visualization techniques can help in several areas of human activity, especially in understanding data and information from different phenomena to be studied. The more variables are related to this phenomenon, the more challenging it becomes their treatment and visual representation. Thinking about education in Brazil and its open databases, as well as in existing academic databases in institutions, using mathematical techniques to correlate data sets and visualization methods to present these correlations available in an easy tool access and operation may disclose information on the quality of education in a region, state, county and educational institution. Another benefit coud be the indication of factors that were ignored, as investment targets and also help in the development of public policies, national or regional, that make more efficient, comprehensive and inclusive education. Initiatives of non-governmental organizations and some linked to the Brazilian government has prepared information filtering tools and dissemination of data on quality and investment of resources in education. Brazilian government uses performance indicators to assess their undergraduation institutions. Course Preliminar Concept (CPC) is one of those. This paper presents a solution to this profile, aiming to develop a data visualization methodology through a web application with open source technologies, using principal component analysis method (PCA) as mathematical technique of variable correlation, and distributing results on a map using the Google Maps API, however, focusing on the search for the level of influence of different factors, including some not directly related to education, performance of educational institutions and the academic performance of students, taking as a case study, the analysis of a performance index in undergraduation.
|
279 |
Integrabilidade de G-Estruturas / Integrability of G-structuresDuarte, Gustavo Ignácio 28 May 2018 (has links)
Esta dissertação tem como objetivo discutir sob quais condições uma G- estrutura é integrável. Primeiro apresentam-se fibrados principais, vetoriais e outras estruturas a elas associados como torção, espaços verticais, espaços horizontais e conexões. Depois apresentam-se a definição de G-estrutura, de integrabilidade de G-estruturas, com exemplos e as respectivas versões de integrabilidade e equivalência de G-estruturas. Finalmente, são descritas condições mais gerais que garantem a integrabilidade de G-estruturas. / This dissertation aims to discuss what are the conditions for the inte- grability of a G-structure. We begin presenting principal bundles, vectoer bundles, associated bundles and other structures related to them like torsion, vertical spaces, horizontal spaces and connections. After this, we present the definition of G-structure, integrability os G-structures with examples ans respectives versions of integrabilities and the equivalence of G-estructures. Finally, we describe more general conditions that ensure the integrability of G-structures.
|
280 |
Análise de componentes principais aplicada a ruído eletroquímico / Principal component analysis applied to electrochemical noiseTadeu Aguiar Lisboa 02 March 2015 (has links)
Neste trabalho foi utilizado um método matemático para classificar registros
de potencial e corrente de ensaios de corrosão na técnica de amperimetria de
resistência nula (ZRA). Foi aplicado o método estatístico de múltiplas variáveis
simples chamado Análise dos Componentes Principais (PCA), cujo objetivo principal
foi identificar padrões nestes dados de ruído eletroquímico. Foram testados o aço
carbono UNS G10200, os aços inoxidáveis austenítico UNS S31600 e o superduplex
UNS S32750 em meios de ácido sulfúrico (5% H2SO4), cloreto férrico (0,1 mol/L
FeCl3) e hidróxido de sódio (0,1% NaOH). Os ensaios foram replicados com oito
repetições para se ter reprodutibilidade e conhecimento dos aspectos estatísticos
envolvidos. Os resultados mostraram que a análise de componentes principais pode
ser utilizada como uma ferramenta para analisar sinais de ruído eletroquímico,
identificando os clusters dos comportamentos potencial-tempo, corrente-tempo e
acessoriamente identificar os outliersdos registros temporais. / In this study, a mathematical method was used to classify potential and
current records of electrochemical noise tests in zero resistance ammeter (ZRA)
configuration. The statistical method of multiple simple variables called Principal
Components Analysis (PCA) was applied to identify patterns in these electrochemical
noise data. The carbon steel UNS G10200, the austenitic stainless steels UNS
S31600 and the super duplex UNS S32750 were tested in the solutions of sulfuric
acid (5% H2SO4), ferric chloride (0.1 mol/L FeCl3) and sodium hydroxide
(0.1% NaOH). The tests were replicated with eight repetitions to obtain reproducibility
of the relatedstatistical aspects. The results showed that the principal components
analysis could be used as a tool to analyze electrochemical noise signals, identifying
behavior clusters of potential-time, current-time and also identifying the outliers in
time domain.
|
Page generated in 0.1044 seconds