31 |
Analýza access logu s využitím nástrojů RIABžatek, Aleš January 2012 (has links)
No description available.
|
32 |
Analise de correspondencia e modelos log-lineares : um enfoque integrado para a analise exploratoria de dados categoricosVillalobos Aguayo, Maria Teresa 10 September 1993 (has links)
Orientador: Regina Celia Carvalho Pinto Moran / Dissertação (mestrado) - Universidade Estadual de Campinas, Intituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-18T09:24:33Z (GMT). No. of bitstreams: 1
Aguayo_MariaTeresaVillalobos_M.pdf: 3836065 bytes, checksum: 26e932de463d0371ce29d60f25bf6d9a (MD5)
Previous issue date: 1993 / Resumo: Na literatura, a Análise de Correspondência (AC), é proposta como uma técnica para a análise exploratória de dados, mas pouco se fala de como ela pode integrar-se a um modelo log-linear, e servir como ferramenta para a interpretação das interações ou dos resíduos. Neste trabalho, a AC e uma das suas generalizações, Análise de Correspondência Generalizada (ACG), são desenvolvidas amplamente. A AC e ACG, são apresentadas como uma ferramenta que pode ser usada para a análise de resíduos de um modelo log-linear. Isto é possível reconhecendo as relações entre a AC e modelos log-lineares. Mais ainda, é mostrado como estas relações podem ser usadas para chegar a uma abordagem combinada para a análise de tabelas de contingência usando ambas as análises. No caso de tabelas multi-entradas, estas são recodificadas como tabelas de duas entradas, e logo analisadas com AC; neste caso, a AC pode ser interpretada como a decomposição de resíduos de um modelo log-linear específico de independência. A AC, também pode ser usada para decompor resíduos do modelo de quase-independência. A ACG, pode ser usada para decompor resíduos de modelos log-lineares menos restritos que o modelo de independência, como o modelo de simetria / Mestrado / Mestre em Estatística
|
33 |
Statistique des processus stables et des processus à longue mémoire / Statistics of stable processes and long memory processesRobet, Caroline 20 September 2019 (has links)
Ce manuscrit, séparé en deux parties, débute par l’étude des lois et processus -stables et des processus multistables. Après avoir construit et étudié un estimateur basé sur les log-moments de lois stables, on améliore ses performances en le combinant avec l’estimateur de Koutrouvelis. Puis, nous donnons une méthode approchée afin de simuler rapidement un processus multistable et nous construisons un estimateur de la fonction d’intensité de ce processus à l’aide du rapport de moments empiriques. La deuxième partie est consacrée à l’étude des processus stationnaires du second ordre à longue mémoire en temps continu. Ce processus est échantillonné à des instants d’observations aléatoires tels que les inter-arrivées soient i.i.d. Le comportement du processus échantillonné est alors étudié dans les domaines temporel et fréquentiel. Une étude plus précise dans le cas d’une fonction d’autocovariance à variation régulière permet de montrer l’évolution de la mémoire après échantillonnage. De plus, pour un processus initialement gaussien, on étudie le périodogramme, les sommes partielles et la convergence de l’estimateur local Whittle pour le paramètre de mémoire. / This manuscript is divided into two parts. The first one is devoted to the study of - stable distributions and processes and multistable processes. After having built and studied an estimator based on log-moments of the stable distribution, an improvement is obtained by combining it with the Koutrouvelis estimator. Then, we give a nonexact method to simulate efficiently a multistable process, and we construct an estimator of its intensity function using an empirical moments ratio. The second part is devoted to the study of continuous time second order stationary processes with long memory. This process is sampled at random observation times such that inter-arrivals are i.i.d. The behaviour of the sampled process is then studied in time and frequency domains. For autocovariance functions with regular variation, we study the evolution of the memory after sampling. In addition, for an initially Gaussian process, the periodogram, partial sums and convergence of the local Whittle estimator for the memory parameter are studied.
|
34 |
A SRAM-Based Log Buffer Flash Translation Layer for Solid State Disk using Fully-Associative Sector TranslationHeng, Li 17 April 2009 (has links)
No description available.
|
35 |
Category-theoretic Reconstruction of Log Schemes from Categories of Reduced fs Log Schemes / 被約 fs Log スキームの圏からの Log スキームの圏論的復元Yuji, Tomoki 25 March 2024 (has links)
京都大学 / 新制・課程博士 / 博士(理学) / 甲第25097号 / 理博第5004号 / 新制||理||1714(附属図書館) / 京都大学大学院理学研究科数学・数理解析専攻 / (主査)教授 望月 新一, 教授 大木谷 耕司, 准教授 星 裕一郎 / 学位規則第4条第1項該当 / Doctor of Agricultural Science / Kyoto University / DGAM
|
36 |
Transformações em dados composicionais para a aplicação da análise de componentes principais / Transformations in compositional data for application of principal components analysisMessias, Ricardo Matioli 29 April 2016 (has links)
A análise de dados composicionais está sendo amplamente utilizada nas diversas áreas do conhecimento como por exemplo na análise de sedimentos rochosos, na comparação de diferentes células e até na análise criminalística na comparação de evidências de crimes. Durante a história da análise deste tipo de dados existiram muitos tipos de ajustes utilizados para contornar o problema da soma constante das variáveis e ainda hoje não temos um consenso de qual a melhor solução a ser utilizada. Neste trabalho, temos como objetivo a enunciação das 7 transformações que mais foram utilizadas ao longo do tempo e suas vantagens e desvantagens. A análise de componentes principais foi escolhida para o comparativo destas transformações. Fizemos a aplicação destas transformações em três bancos de dados reais com características diferentes entre si, comparamos os resultados e analisamos qual das transformações apresentou o melhor desempenho em cada base de dados. Os critérios de comparação foram o percentual da variância explicada, as variáveis que foram mais importantes para a primeira componente principal, cargas das variáveis nas componentes principais mais importantes assim como suas correlações com as variáveis. Também, simulamos quatro estruturas de bases de dados composicionais para avaliar o desempenho das transformações. Para essas comparações e simulações, foram desenvolvidas algumas funções, utilizando o \\textit estatístico R, que visam facilitar a comparação entre as sete transformações, assim auxiliando na escolha de qual das transformações melhor se adapta aos dados. Pelos resultados obtidos notamos que: nas bases de dados reais, os resultados das explicações da variância das transformações são similares e as transformações Ref e Alr mostram melhores desempenhos que as demais; nas quatro estruturas simuladas as transformações Ref e Alr também possuem os melhores resultados na explicação da variância e a interpretação de suas componentes principais são parecidas, assim como as transformações Trad, Log e Clr. Com isso notamos que independentemente da aplicação do logaritmo nas transformações Alr e Log elas apresentaram resultados muitos similares às transformações Ref e Trad, respectivamente, tanto na explicação da variância como na interpretação das componentes principais. / The compositional data analysis is being widely used in several areas of knowledge such as the analysis of rocky sediments, to compare different biological cells and even in forensic analysis to compare crimes evidences. During the history of the analysis of such data, to circumvent the problem of variable\'s constant sum were used many types of adjustments. Until now, we do not have a consensus in which is the best solution to be used in this cases. In this paper, we aim to enunciate seven transformations that most were used over time and their advantages and disadvantages. The principal component analysis was chosen for the comparison of these transformations. We applied this transformations in three real databases with different characteristics, we hope to compare the results and analyze which transformation have the best performance in each database. The comparison criteria were the percentage of explained variance, the variables that were most important to the first principal component,variable\'s loads in the most important principal components as well their correlation with the variables. We also simulated four compositional data bases structures to evaluate the performance of the transformations. For these comparisons and simulations were developed some functions, using the statistical software R, to facilitate comparison between the seven transformations, thus assisting in choosing which of the best transformation fits to the data. From the results we note that: for the real databases, the results of the variance explanation of all transformations are similar, thus Ref and Alr transformations show better performances than the others; in the four simulated structures the Ref and Alr transformations also have the best results in the variance explanation and interpretation of its main components are similar, as well as the transformations Trad, Log and Clr. Thus we note that independently of applying logarithm in and Log and Alr transformations they present very similar results as Ref and Trad transformations, respectively, both in variance explanation and in the interpretation of the principal components.
|
37 |
Transformações em dados composicionais para a aplicação da análise de componentes principais / Transformations in compositional data for application of principal components analysisRicardo Matioli Messias 29 April 2016 (has links)
A análise de dados composicionais está sendo amplamente utilizada nas diversas áreas do conhecimento como por exemplo na análise de sedimentos rochosos, na comparação de diferentes células e até na análise criminalística na comparação de evidências de crimes. Durante a história da análise deste tipo de dados existiram muitos tipos de ajustes utilizados para contornar o problema da soma constante das variáveis e ainda hoje não temos um consenso de qual a melhor solução a ser utilizada. Neste trabalho, temos como objetivo a enunciação das 7 transformações que mais foram utilizadas ao longo do tempo e suas vantagens e desvantagens. A análise de componentes principais foi escolhida para o comparativo destas transformações. Fizemos a aplicação destas transformações em três bancos de dados reais com características diferentes entre si, comparamos os resultados e analisamos qual das transformações apresentou o melhor desempenho em cada base de dados. Os critérios de comparação foram o percentual da variância explicada, as variáveis que foram mais importantes para a primeira componente principal, cargas das variáveis nas componentes principais mais importantes assim como suas correlações com as variáveis. Também, simulamos quatro estruturas de bases de dados composicionais para avaliar o desempenho das transformações. Para essas comparações e simulações, foram desenvolvidas algumas funções, utilizando o \\textit estatístico R, que visam facilitar a comparação entre as sete transformações, assim auxiliando na escolha de qual das transformações melhor se adapta aos dados. Pelos resultados obtidos notamos que: nas bases de dados reais, os resultados das explicações da variância das transformações são similares e as transformações Ref e Alr mostram melhores desempenhos que as demais; nas quatro estruturas simuladas as transformações Ref e Alr também possuem os melhores resultados na explicação da variância e a interpretação de suas componentes principais são parecidas, assim como as transformações Trad, Log e Clr. Com isso notamos que independentemente da aplicação do logaritmo nas transformações Alr e Log elas apresentaram resultados muitos similares às transformações Ref e Trad, respectivamente, tanto na explicação da variância como na interpretação das componentes principais. / The compositional data analysis is being widely used in several areas of knowledge such as the analysis of rocky sediments, to compare different biological cells and even in forensic analysis to compare crimes evidences. During the history of the analysis of such data, to circumvent the problem of variable\'s constant sum were used many types of adjustments. Until now, we do not have a consensus in which is the best solution to be used in this cases. In this paper, we aim to enunciate seven transformations that most were used over time and their advantages and disadvantages. The principal component analysis was chosen for the comparison of these transformations. We applied this transformations in three real databases with different characteristics, we hope to compare the results and analyze which transformation have the best performance in each database. The comparison criteria were the percentage of explained variance, the variables that were most important to the first principal component,variable\'s loads in the most important principal components as well their correlation with the variables. We also simulated four compositional data bases structures to evaluate the performance of the transformations. For these comparisons and simulations were developed some functions, using the statistical software R, to facilitate comparison between the seven transformations, thus assisting in choosing which of the best transformation fits to the data. From the results we note that: for the real databases, the results of the variance explanation of all transformations are similar, thus Ref and Alr transformations show better performances than the others; in the four simulated structures the Ref and Alr transformations also have the best results in the variance explanation and interpretation of its main components are similar, as well as the transformations Trad, Log and Clr. Thus we note that independently of applying logarithm in and Log and Alr transformations they present very similar results as Ref and Trad transformations, respectively, both in variance explanation and in the interpretation of the principal components.
|
38 |
Log File Categorization and Anomaly Analysis Using Grammar InferenceMemon, Ahmed Umar 28 May 2008 (has links)
In the information age of today, vast amounts of sensitive and confidential data is exchanged over an array of different mediums. Accompanied with this phenomenon is a comparable increase in the number and types of attacks to acquire this information. Information security and data consistency have hence, become quintessentially important. Log file analysis has proven to be a good defense mechanism as logs provide an accessible record of network activities in the form of server generated messages. However, manual analysis is tedious and prohibitively time consuming. Traditional log analysis techniques, based on pattern matching and data mining approaches, are ad hoc and cannot readily adapt to different kinds of log files.
The goal of this research is to explore the use of grammar inference for log file analysis in order to build a more adaptive, flexible and generic method for message categorization, anomaly detection and reporting. The grammar inference process employs robust parsing, islands grammars and source transformation techniques.
We test the system by using three different kinds of log file training sets as input and infer a grammar and generate message categories for each set. We detect anomalous messages in new log files using the inferred grammar as a catalog of valid traces and present a reporting program to extract the instances of specified message categories from the log files. / Thesis (Master, Computing) -- Queen's University, 2008-05-22 14:12:30.199
|
39 |
Deployment failure analysis using machine learningAlviste, Joosep Franz Moorits January 2020 (has links)
Manually diagnosing recurrent faults in software systems can be an inefficient use of time for engineers. Manual diagnosis of faults is commonly performed by inspecting system logs during the failure time. The DevOps engineers in Pipedrive, a SaaS business offering a sales CRM platform, have developed a simple regular-expression-based service for automatically classifying failed deployments. However, such a solution is not scalable, and a more sophisticated solution isrequired. In this thesis, log mining was used to automatically diagnose Pipedrive's failed deployments based on the deployment logs. Multiple log parsing and machine learning algorithms were compared based on the resulting log mining pipeline's F1 score. A proof of concept log mining pipeline was created that consisted of log parsing with the Drain algorithm, transforming the log files into event count vectors and finally training a random forest machine learning model to classify the deployment logs. The pipeline gave an F1 score of 0.75 when classifying testing data and a lower score of 0.65 when classifying the evaluation dataset.
|
40 |
Del Pezzo surfaces with Du Val singularitiesKosta, Dimitra January 2009 (has links)
A lot of attention has been drawn recently to global log canonical thresholds of Fano varieties, which are algebraic counterparts of the α-invariant of Tian for smooth Fano varieties. In particular, global log canonical thresholds are related to the existence of Kahler-Einstein metrics on Fano varieties. The purpose of this thesis is to apply techniques from singularity theory in order to compute the global log canonical thresholds of all Del Pezzo surfaces of degree 1 with Du Val singularities, as well as the global log canonical thresholds of all Del Pezzo surfaces of Picard rank 1 with Du Val singularities. As a consequence, it is proven that Del Pezzo surfaces of degree 1 with Du Val singularities admit a Kahler-Einstein metric if the singular locus consists of only A1, or A3, or A4 type Du Val singular points.
|
Page generated in 0.2567 seconds