41 |
Bayesian Model Selection and Parameter Estimation for Gravitational Wave Signals from Binary Black Hole CoalescencesLombardi, Alexander L 23 November 2015 (has links)
In his theory of General Relativity, Einstein describes gravity as a geometric property of spacetime, which deforms in the presence of mass and energy. The accelerated motion of masses produces deformations, which propagate outward from their source at the speed of light. We refer to these radiated deformations as gravitational waves. Over the past several decades, the goal of the Laser Interferometer Gravitational-wave Observatory (LIGO) has been the search for direct evidence of gravitational waves from astrophysical sources, using ground based laser interferometers. As LIGO moves into its Advanced era (aLIGO), the direct detection of gravitational waves is inevitable. With the technology at hand, it is imperative that we have the tools to analyze the detector signal and examine the interesting astrophysical properties of the source. Some of the main targets of this search are coalescing compact binaries. In this thesis, I describe and evaluate bhextractor, a data analysis algorithm that uses Principal Component Analysis (PCA) to identify the main features of a set of gravitational waveforms produced by the coalescence of two black holes. Binary Black Hole (BBH) systems are expected to be among the most common sources of gravitational waves in the sensitivity band of aLIGO. However, the gravitational waveforms emitted by BBH systems are not well modeled and require computationally expensive Numerical Relativity (NR) simulations. bhextractor uses PCA to decompose a catalog of available NR waveforms into a set of orthogonal Principal Components (PCs), which efficiently select the major common features of the waveforms in the catalog and represent a portion of the BBH parameter space. From these PCs, we can reconstruct any waveform in the catalog, and construct new waveforms with similar properties. Using Bayesian analysis and Nested Sampling, one can use bhextractor to classify an arbitrary BBH waveform into one of the available catalogs and estimate the parameters of the gravitational wave source.
|
42 |
POPULATION STRUCTURE INFERENCE USING PCA AND CLUSTERING ALGORITHMSRimal, Suraj 01 September 2021 (has links)
Genotype data, consisting large numbers of markers, is used as demographic and association studies to determine genes related to specific traits or diseases. Handling of these datasets usually takes a significant amount of time in its application of population structure inference. Therefore, we suggested applying PCA on genotyped data and then clustering algorithms to specify the individuals to their particular subpopulations. We collected both real and simulated datasets in this study. We studied PCA and selected significant features, then applied five different clustering techniques to obtain better results. Furthermore, we studied three different methods for predicting the optimal number of subpopulations in a collected dataset. The results of four different simulated datasets and two real human genotype datasets show that our approach performs well in the inference of population structure. NbClust is more effective to infer subpopulations in the population. In this study, we showed that centroid-based clustering: such as k-means and PAM, performs better than model-based, spectral, and hierarchical clustering algorithms. This approach also has the benefit of being fast and flexible in the inference of population structure.
|
43 |
Comparison of Automotive Structures Using Transmissibility Functions and Principal Component AnalysisAllemang, Matthew R. 09 October 2013 (has links)
No description available.
|
44 |
Prestressed PCBT Girders Made Continuous and Composite with a Cast-in-place Deck and DiaphragmKoch, Stephanie 14 May 2008 (has links)
This research document focuses on prestressed PCBT girders made composite with a cast-in-place concrete deck and continuous over several spans through the use of continuity diaphragms. The current design procedure in AASHTO states that a continuity diaphragm is considered to be fully effective if a compressive stress develops in the bottom of the diaphragm when the superimposed permanent load, settlement, creep, shrinkage, 50 percent live load, and temperature gradient are summed, or if the girders are stored at least 90 days when continuity is established. It is more economical to store girders for fewer days, so it is important to know the minimum number of days that girders must be stored to satisfy AASHTO requirements.
In 2005, Charles Newhouse developed the positive moment diaphragm reinforcement detail that is currently being adopted by VDOT. This thesis concludes that Newhouse's detail, four No. 6 bars bent 180° and extended into the diaphragm, is adequate for all girders except for the PCBT-77, PCBT-85, and the PCBT-93 when the girders are stored for a minimum of 90 days. It is recommended that two additional bent strands be extended into the continuity diaphragm for these three girder sizes.
It was also concluded that about half of the cases result in a significant reduction in the minimum number of storage days if the designer is willing to perform a detailed analysis. The other half of the cases must be stored for 90 days because the total moment in the diaphragm will never become negative and satisfy the AASHTO requirement. In general, narrower girder spacing and higher concrete compressive strength results in shorter required storage duration. The PCA Method was used in this analysis with the updated AASHTO LRFD creep, shrinkage, and prestress loss models. A recommended quick check is to sum the thermal, composite dead load, and half of the live load restraint moments. The girder must be stored 90 days if that sum is positive, and a more detailed time-dependent analysis would result in a shorter than 90 day storage period if that sum is negative. / Master of Science
|
45 |
Avaliação da contaminação nos principais corpos d\'água do município de São Carlos/SP / Assessment of the contamination of the main water bodies in São Carlos/SPBaio, José Augusto Fragale 18 November 2009 (has links)
Os corpos d\'água do município de São Carlos/SP recebem esgotos domésticos, efluentes industriais e agrícolas, de tal forma que se propôs neste trabalho a identificação de possíveis correlações entre a contaminação antropogênica dos cursos d\'água com as fontes poluidoras. Escolheram-se 27 pontos de amostragem - localizados de maneira estratégica - para analisarem-se os parâmetros: pH, condutividade, oxigênio dissolvido, temperatura e sólidos totais dissolvidos, na água; nutrientes (nitrogênio total Kjeldahl, fósforo total e carbono orgânico) e metais (Cr, Cu, Mn, Fe, Co, Ni, Cd, Pb, Zn e Al) na água e nos sedimentos; além de ânions (F-, Cl-, Br-, NO2-, NO3-, SO42- e PO43-) e cátions (Li+, Na+, K+, NH4+, Mg2+ e Ca2+) na água. A partir do conjunto de dados obtidos das análises, propôs-se o cálculo de um índice de qualidade (IQASC), de modo que pudesse ser feita a quantificação da qualidade da água destes cursos d\'água nos períodos das chuvas (verão) e das secas (inverno). Observou-se através dos valores dos índices que a sazonalidade é muito importante na qualidade dos cursos d\'água do município, de modo que no período das chuvas a qualidade da água é melhor do que no período das secas na maioria dos pontos de coleta. Utilizou-se a correlação de Spearman para distinguir se nutrientes, íons e metais poderiam vir da mesma fonte de poluição ou se os mesmo são devidos a contribuições naturais dos solos. Fizeram-se análises quimiométricas (HCA e PCA) com intenção de uma melhor interpretação dos resultados, pois o grande conjunto de dados dificultava a visualização dos mesmos. O método do \"refolding\" da matriz aumentada foi importante para, a partir dos parâmetros analisados, separarem-se os escores geográficos dos temporais. Através da HCA, obteve-se a separação da maioria dos grupos segundo as campanhas de amostragem, de tal forma que apenas em um ou dois dos grupos, no máximo, ocorreu à mistura de pontos de diferentes épocas de coleta. Na PCA, diferenciaram-se alguns grupos de amostras, a partir dos quais se pôde descobrir quais dos parâmetros analisados eram devidos a contaminação antropogênica ou contribuição natural dos solos. Através da análise dos resultados, pôde-se concluir que os pontos do Córrego do Gregório dentro do perímetro urbano, do Córrego do Tijuco Preto próximos da nascente, do Córrego Água Quente após receber o esgoto do bairro Cidade Araci e alguns pontos do Rio Monjolinho estão impactados pela presença de esgoto doméstico. / The water bodies of São Carlos/SP receive domestic sewage besides industrial and agricultural wastewaters, so that it was proposed in this work the identification of possible correlations between the waterways anthropogenic contamination and the pollution sources. Twenty-seven sampling points were chosen - strategically located - in order to analyze the following parameters: pH, conductivity, dissolved oxygen, temperature, and total dissolved solids in the water; nutrients (total Kjeldahl nitrogen, total phosphorus, and organic carbon) and metals (Cr, Cu, Mn, Fe, Co, Ni, Cd, Pb, Zn, and Al) in the water and sediments; anions (F-, Cl-, Br-, NO2-, NO3-, SO42- e PO43-) and cations (Li+, Na+, K+, NH4+, Mg2+ e Ca2+) in the water. From the set of data obtained in the analyses, it has been proposed the calculation of a quality index (IQASC), so that the quantification of the water quality could be performed, during the summer (rainy weather) and the winter (dry weather). It was observed through the values of the indices that the seasonality is very important for the quality of watercourses in the city, so that during the rainy season the water quality is better than in the dry one in the majority of the sampling points. The Spearman correlation was used in order to distinguish if nutrients, ions, and metals could come from the same source of pollution or if the contributions are of naturally origin. Chemometric analyses (HCA and PCA) were also performed for better interpreting the results, due to the large amount of data. The method of refolding the augmented matrix was important for, through the analyzed data, separating geographical and temporal scores. Through the HCA, the separation of the majority of the groups according to the sampling campaigns was achieved. In one or two groups only the mixture of sampling campaigns were observed. The PCA differentiated some groups of samples, allowing the association of the parameters to anthropogenic or natural sources. By analyzing the obtained results, it could be concluded that the Gregório Stream (inside the urban perimeter), the Tijuco Preto Stream (near its spring), the Água Quente Stream after receiving the sewage of Cidade Araci Suburb, and some points of Monjolinho River are impacted by the presence of domestic sewage.
|
46 |
Análise de componentes principais em data warehouses / Principal components analysis in data warehousesRossi, Rafael Germano 07 November 2017 (has links)
A técnica de Análise de Componentes Principais (PCA) tem como objetivo principal a descrição da variância e covariância entre um conjunto de variáveis. Essa técnica é utilizada para mitigar redundâncias no conjunto de variáveis e para redução de dimensionalidade em várias aplicações nas áreas científica, tecnológica e administrativa. Por outro lado, o modelo de dados multidimensionais é composto por relações de fato e dimensões (tabelas) que descrevem um evento usando métricas e a relação entre suas dimensões. No entanto, o volume de dados armazenados e a complexidade de suas dimensões geralmente envolvidas neste modelo, especialmente no ambiente de data warehouse, tornam a tarefa de interpretar a correlação entre dimensões muito difícil e às vezes impraticável. Neste trabalho, propomos o desenvolvimento de uma Interface de Programação de Aplicação (API) para a aplicação da PCA no modelo de dados multidimensionais para facilitar a tarefa de caracterização e redução de dimensionalidade, integrando essa técnica com ambientes de Data Warehouses. Para verificar a eficácia desta API, um estudo de caso foi realizado utilizando dados de produção científica e suas citações obtidas das Plataformas Lattes, Web of Science, Google Scholar e Scopus, fornecidas pela Superintendência de Tecnologia da Informação da Universidade de São Paulo. / The Principal Component Analysis (PCA) technique has as the main goal the description of the variance and covariance between a set of variables. This technique is used to mitigate redundancies in the set of variables and as a mean of achieving dimensional reduction in various applications in the scientific, technological and administrative areas. On the other hand, the multidimensional data model is composed by fact and dimension relations (tables) that describe an event using metrics and the relationship between their dimensions. However, the volume of data stored and the complexity of their dimensions usually involved in this model, specially in data warehouse environment, makes the correlation analyses between dimensions very difficult and sometimes impracticable. In this work, we propose the development of an Application Programming Interface (API) for the application of PCA on multidimensional data model in order to facilitate the characterization task and dimension reduction, integrating the technique with Data Warehouses environments. For verifying the effectiveness of this API, a case study was carried out using the scientific production data obtained from the Lattes Platform, the Web of Science, Google Scholar and Scopus, provided by the IT Superintendence at University of São Paulo.
|
47 |
Infrared microspectroscopy of inflammatory process and colon tumors. / Microespectroscopia infravermelha de processos inflamatórios e tumores de cólonLima, Fabricio Augusto de 17 March 2016 (has links)
According to the last global burden of disease published by the World Health Organization, tumors were the third leading cause of death worldwide in 2004. Among the different types of tumors, colorectal cancer ranks as the fourth most lethal. To date, tumor diagnosis is based mainly on the identification of morphological changes in tissues. Considering that these changes appears after many biochemical reactions, the development of vibrational techniques may contribute to the early detection of tumors, since they are able to detect such reactions. The present study aimed to develop a methodology based on infrared microspectroscopy to characterize colon samples, providing complementary information to the pathologist and facilitating the early diagnosis of tumors. The study groups were composed by human colon samples obtained from paraffin-embedded biopsies. The groups are divided in normal (n=20), inflammation (n=17) and tumor (n=18). Two adjacent slices were acquired from each block. The first one was subjected to chemical dewaxing and H&E staining. The infrared imaging was performed on the second slice, which was not dewaxed or stained. A computational preprocessing methodology was employed to identify the paraffin in the images and to perform spectral baseline correction. Such methodology was adapted to include two types of spectral quality control. Afterwards the preprocessing step, spectra belonging to the same image were analyzed and grouped according to their biochemical similarities. One pathologist associated each obtained group with some histological structure based on the H&E stained slice. Such analysis highlighted the biochemical differences between the three studied groups. Results showed that severe inflammation presents biochemical features similar to the tumors ones, indicating that tumors can develop from inflammatory process. A spectral database was constructed containing the biochemical information identified in the previous step. Spectra obtained from new samples were confronted with the database information, leading to their classification into one of the three groups: normal, inflammation or tumor. Internal and external validation were performed based on the classification sensitivity, specificity and accuracy. Comparison between the classification results and H&E stained sections revealed some discrepancies. Some regions histologically normal were identified as inflammation by the classification algorithm. Similarly, some regions presenting inflammatory lesions in the stained section were classified into the tumor group. Such differences were considered as misclassification, but they may actually evidence that biochemical changes are in course in the analyzed sample. In the latter case, the method developed throughout this thesis would have proved able to identify early stages of inflammatory and tumor lesions. It is necessary to perform additional experiments to elucidate this discrepancy between the classification results and the morphological features. One solution would be the use of immunohistochemistry techniques with specific markers for tumor and inflammation. Another option includes the recovering of the medical records of patients who participated in this study in order to check, in later times to the biopsy collection, whether they actually developed the lesions supposedly detected in this research. / De acordo com o último compêndio de doenças publicado pela Organização Mundial da Saúde, tumores foram a terceira principal causa de morte mundial em 2004, sendo o câncer colorretal o quarto mais letal. O diagnóstico de tumores baseia-se, principalmente, na identificação de alterações morfológicas dos tecidos. Considerando-se que estas surgem após alterações bioquímicas, o desenvolvimento de técnicas espectroscópicas pode contribuir para a identificação de tumores em estágios iniciais, já que estas são capazes de caracterizar bioquimicamente as amostras em estudo. Esta pesquisa teve por objetivo desenvolver uma metodologia baseada em microespectroscopia infravermelha para caracterização de amostras de cólon, visando fornecer informações complementares ao médico patologista. Foram estudados três grupos de amostras obtidas de biópsias humanas incluídas em parafina: tecido normal (n=20), lesões inflamatórias (n=17) e tumores (n=18). Dois cortes histológicos adjacentes foram coletados de cada bloco. O primeiro corte foi submetido à remoção química de parafina e coloração H&E. O segundo corte foi utilizado para aquisição de imagens espectrais, não sendo submetido à remoção de parafina ou à coloração química. Foi implementada uma técnica computacional para pré-processamento dos espectros coletados, visando identificar a parafina nas imagens e corrigir variações na linha de base espectral. Tal metodologia foi adaptada para incluir dois tipos de controle de qualidade espectral. Após o pré-processamento, espectros pertencentes a uma mesma imagem foram comparados e agrupados de acordo com suas semelhanças bioquímicas. Os grupos obtidos foram submetidos à análise de um médico patologista que associou cada grupo a uma estrutura histológica, tendo como base o corte corado com H&E. Esta análise revelou as diferenças bioquímicas entre os três grupos estudados. Os resultados mostraram que inflamações severas tem propriedades bioquímicas semelhantes às dos tumores, sugerindo que estes podem evoluir a partir de tais inflamações. Foi construído um banco de dados espectral contendo as informações bioquímicas identificadas em cada grupo na etapa anterior. Espectros de novas amostras foram comparados com a informação contida no banco de dados, possibilitando a sua classificação em um dos três grupos: normal, inflamação ou tumor. O banco de dados foi validado interna e externamente por meio da sensibilidade, especificidade e acurácia de classificação. Discrepâncias foram encontradas ao comparar os resultados da classificação com os cortes histológicos corados com H&E. Algumas regiões que se mostram histologicamente normais foram identificadas como inflamação pelo algoritmo de classificação, assim como regiões histologicamente inflamadas foram classificadas no grupo tumoral. Tais discrepâncias foram consideradas como erros de classificação, ainda que possam ser indícios de que alterações bioquímicas estejam ocorrendo nos tecidos analisados. Neste caso, a metodologia desenvolvida teria se mostrado capaz de identificar precocemente lesões inflamatórias e tumorais. É necessário realizar experimentos adicionais para elucidar esta discrepância entre o algoritmo de classificação e a morfologia do tecidual. Uma solução seria o emprego de técnicas de imunohistoquímica com marcadores específicos para câncer e inflamação. Outra opção seria recuperar os registros médicos dos pacientes que participaram deste estudo para verificar se, em períodos posteriores à coleta da biópsia, houve realmente o desenvolvimento das lesões supostamente identificadas neste estudo.
|
48 |
Classificação de gasolinas comerciais através de métodos estatísticos multivariáveis. / Classification of commercial gasoline through multivariable statistical methods.Mendonça, Marcelo Aparecido 29 March 2005 (has links)
Neste trabalho estuda-se a aplicação de métodos estatísticos multivariáveis para a classificação de gasolinas comerciais em conformidade à legislação vigente. Atualmente, a ANP baseia a classificação em limites máximos e mínimos para uma série de diferentes propriedades físico-químicas. O objetivo do trabalho é propor uma metodologia para fazer uma triagem das amostras coletadas durante o Programa de Monitoramento da Qualidade dos Combustíveis através de um método de classificação. Ela utiliza a espectroscopia NIR, que é uma técnica rápida e não destrutiva, como método analítico. Com isto será possível reduzir o número de ensaios físico-químicos que não necessariamente seriam realizados sistematicamente em todas as amostras, reduzindo-se os custos e aumentando-se a quantidade de postos monitorados. As análises NIR produzem grandes quantidades de dados, o que leva à utilização de técnicas estatísticas multivariáveis para estabelecer as metodologias de classificação. Neste trabalho utilizam-se técnicas já consagradas, como a PCA e a PLS para a compressão dos dados e a LDA e QDA para a classificação das amostras. Os dados analisados correspondem às propriedades físico-químicas e aos espectros NIR de um conjunto de 216 amostras de gasolinas comerciais, utilizado para a concepção dos modelos de classificação, e de outro de 50 amostras, utilizado para a validação dos modelos. Os modelos testados no trabalho foram as combinações da PCA-LDA, PCA-QDA, PLS-LDA, PLS-QDA, PLS (regressão) e a análise dos gráficos de scores (biplot). Os melhores desempenhos foram obtidos pelos gráficos dos scores, em seguida pela regressão PLS, PLS-QDA, PCA-QDA e PLS-QDA. Existem ainda algumas etapas a serem alcançadas para tornar prática a utilização da classificação de gasolinas comerciais através de NIR, no entanto, a contribuição deste estudo é importante pois permitiu demonstrar a sua viabilidade técnica. / In this work, the application of multivariable statistical methods for the classification of commercial gasoline in accordance to applicable laws in Brazil is studied. In the present, the ANP bases the classification of gasoline on lower and upper bounds defined for a number of physico-chemical properties. The objective of this work is to propose an alternative analysis methodology, that is adequate for making a pre-sorting of the samples collected by the Fuel Quality Monitoring Program through a classification method. This method is based on NIR spectroscopy, that is a fast and non-destructive technique, as the analytical method. In this way, it would be possible to reduce the number of physico-chemical analyses, as it would be possible not to perform them on every sample, reducing costs and increasing the quantity and frequency of gas stations that could be monitored. NIR analyses produce a great quantity of data, that makes the use of multivariable statistical techniques necessary in order to set up classification methodologies. In this work the well-known PCA and PLS techniques are used for data compression, and LDA and QDA analyses for sample classification. The data studied correspond to the physico-chemical properties and NIR spectra of a total of 216 commercial gasoline samples, used for model design, and of a 50 samples, used for validation. The classification methods that are tested are combinations of PCA-LDA, PCA-QDA, PLS-LDA, PLS-QDA, PLS (regression) and data compression scores graphical analysis (biplot). Best performance was obtained with compression scores graphical analysis, followed by PLS regression, PLS-QDA, PCA-QDA and PLS-QDA. There are still some steps to be fulfilled before the usage of commercial gasoline classification through NIR could be practical. However, this study has shown that this methodology is technically feasible.
|
49 |
Considerações sobre analgesia controlada pelo paciente (PCA) em hospital universitárioBarros, Guilherme Antonio Moreira de [UNESP] January 2001 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:21Z (GMT). No. of bitstreams: 0
Previous issue date: 2001Bitstream added on 2014-06-13T20:28:37Z : No. of bitstreams: 1
barros_gam_me_botfm.pdf: 228323 bytes, checksum: 6466d10f0d4eb9a3ff79e8f785fea941 (MD5) / Com o rápido avanço que foi observado nos últimos anos nas técnicas cirúrgicas e anestésicas, os procedimentos se tornaram cada vez mais invasivos. Como houve progressivo envelhecimento da população, o período mais delicado de recuperação, ou seja, o pós-operatório, passou a receber maior atenção. O surgimento de novas técnicas de analgesia, como a Analgesia Controlada pelo Paciente (PCA), vem preencher as necessidades da comunidade médica, cada vez mais atenta à qualidade dos serviços prestados. O Hospital de Clínicas da Faculdade de Medicina da UNESP, Botucatu, atento a essa nova realidade constituiu o Serviço de Dor Aguda (SEDA) para que esta lacuna fosse também preenchida em nosso meio. No intuito de identificar a atuação do SEDA, realizou-se levantamento, de fevereiro de 1995 a dezembro de 1997, com a pesquisa das evoluções de 679 pacientes seguidos pelo SEDA e que fizeram uso do método PCA de analgesia. Observou-se que os resultados obtidos pelo Serviço estavam acima da média relatada pela literatura internacional, com excelentes níveis de analgesia atingidos, baixa ocorrência de efeitos colaterais, e nenhuma complicação fatal no período do estudo. / In the past years a fast developing has been observed in the surgery and anesthetic technique, with more invasive procedures being performed. As the general population has becoming older, the critical recovery period, it means the post surgery period, became focus of attention. The developing of new analgesia techniques, such as Patient Controlled Analgesia (PCA), has the intention of fulfill the needs of the medical community, day by day more aware about the quality of the services. The Hospital of the Sao Paulo State Medical School, Botucatu, aware of this new reality had decided to form the Acute Pain Management Service (SEDA). With the goal of identify the way the SEDA acts this research was realized in period between February, 1995, to December, 1997. Data of 679 patients who used the PCA device were evaluated. The results in this study were as good as the international literature shows, with high quality analgesia, low side effects and no fatal complications on the period observed.
|
50 |
Análise de componentes principais em data warehouses / Principal components analysis in data warehousesRafael Germano Rossi 07 November 2017 (has links)
A técnica de Análise de Componentes Principais (PCA) tem como objetivo principal a descrição da variância e covariância entre um conjunto de variáveis. Essa técnica é utilizada para mitigar redundâncias no conjunto de variáveis e para redução de dimensionalidade em várias aplicações nas áreas científica, tecnológica e administrativa. Por outro lado, o modelo de dados multidimensionais é composto por relações de fato e dimensões (tabelas) que descrevem um evento usando métricas e a relação entre suas dimensões. No entanto, o volume de dados armazenados e a complexidade de suas dimensões geralmente envolvidas neste modelo, especialmente no ambiente de data warehouse, tornam a tarefa de interpretar a correlação entre dimensões muito difícil e às vezes impraticável. Neste trabalho, propomos o desenvolvimento de uma Interface de Programação de Aplicação (API) para a aplicação da PCA no modelo de dados multidimensionais para facilitar a tarefa de caracterização e redução de dimensionalidade, integrando essa técnica com ambientes de Data Warehouses. Para verificar a eficácia desta API, um estudo de caso foi realizado utilizando dados de produção científica e suas citações obtidas das Plataformas Lattes, Web of Science, Google Scholar e Scopus, fornecidas pela Superintendência de Tecnologia da Informação da Universidade de São Paulo. / The Principal Component Analysis (PCA) technique has as the main goal the description of the variance and covariance between a set of variables. This technique is used to mitigate redundancies in the set of variables and as a mean of achieving dimensional reduction in various applications in the scientific, technological and administrative areas. On the other hand, the multidimensional data model is composed by fact and dimension relations (tables) that describe an event using metrics and the relationship between their dimensions. However, the volume of data stored and the complexity of their dimensions usually involved in this model, specially in data warehouse environment, makes the correlation analyses between dimensions very difficult and sometimes impracticable. In this work, we propose the development of an Application Programming Interface (API) for the application of PCA on multidimensional data model in order to facilitate the characterization task and dimension reduction, integrating the technique with Data Warehouses environments. For verifying the effectiveness of this API, a case study was carried out using the scientific production data obtained from the Lattes Platform, the Web of Science, Google Scholar and Scopus, provided by the IT Superintendence at University of São Paulo.
|
Page generated in 0.0357 seconds