Spelling suggestions: "subject:"istatistical data analysis"" "subject:"bystatistical data analysis""
1 |
A systems approach to computational protein identificationRamakrishnan, Smriti Rajan 21 October 2010 (has links)
Proteomics is the science of understanding the dynamic protein content of an organism's cells (its proteome), which is one of the largest current challenges in biology. Computational proteomics is an active research area that involves in-silico methods for the analysis of high-throughput protein identification data. Current methods are based on a technology called tandem mass spectrometry (MS/MS) and suffer from low coverage and accuracy, reliably identifying only 20-40% of the
proteome. This dissertation addresses recall, precision, speed and scalability of computational proteomics experiments.
This research goes beyond the traditional paradigm of analyzing MS/MS experiments in isolation, instead learning priors of protein presence from the joint analysis of various systems biology data sources. This integrative `systems' approach to protein identification is very effective, as demonstrated by two new methods. The first, MSNet, introduces a social model for protein identification and leverages functional dependencies from genome-scale, probabilistic, gene functional networks. The second, MSPresso, learns a gene expression prior from a joint analysis of mRNA and proteomics experiments on similar samples.
These two sources of prior information result in more accurate estimates of protein presence, and increase protein recall by as much as 30% in complex samples, while also increasing precision. A comprehensive suite of benchmarking datasets is
introduced for evaluation in yeast. Methods to assess statistical significance in the absence of ground truth are also introduced and employed whenever applicable.
This dissertation also describes a database indexing solution to improve speed and scalability of protein identification experiments. The method, MSFound, customizes a metric-space database index and its associated approximate k-nearest-neighbor search algorithm with a semi-metric distance designed to match noisy spectra. MSFound achieves an order of magnitude speedup over traditional spectra database searches while maintaining scalability. / text
|
2 |
Détection, localisation et étude des propriétés spectrales de sursauts gamma observés à haute énergie avec l'expérience Fermi. / Detection, localization and spectral analyses of gamma-ray bursts observed at high energies with the Fermi space telescope.Pelassa, Véronique 13 December 2010 (has links)
Les sursauts gamma sont des sources astrophysiques parmi les plus brillantes du ciel. Dans le modèle standard actuel, leur émission prompte (X et gamma) est due à des particules chargées accélérées au sein de jets relativistes émis à la formation de trous noirs de masses stellaire. L'émission rémanente observée de la radio aux X serait due à l'interaction de ces jets avec le milieu interstellaire. Le LAT, détecteur à création de paire du télescope spatial Fermi, permet depuis juin 2008 l'étude du ciel gamma de 20 MeV à plus de 300 GeV avec des performances inégalées. Le GBM, détecteur de sources transitoires de Fermi (8 keV à 40 MeV) a observé ~450 sursauts gamma, dont ~18 ont été observés jusqu'au domaine du GeV. Une localisation précise de ces sursauts et la synergie de Fermi avec les autres observatoires permettent l'étude des rémanences associées et une meilleure interprétation des observations. L'étude de sursauts gamma de 8 keV au domaine du GeV est présentée. Les localisations obtenues avec le LAT sont étudiées ainsi que leurs erreurs. Des analyses spectrales des émissions promptes combinant les données du GBM et du LAT sont exposées, ainsi que leur interprétation. Une analyse alternative basée sur une sélection relâchée des données LAT est présentée et caractérisée. L'utilisation des événements d'énergies inférieures à 100 MeV améliore l'analyse temporelle et spectrale des émissions promptes. La recherche d'émission gamma prolongée est présentée, ainsi que l'étude de l'émission rémanente de GRB 090510 observé des UV au GeV par Fermi et Swift. Enfin, un modèle d'émission prompte par les chocs internes, développé à l'IAP, est comparé aux observations de Fermi. / Gamma-Ray Bursts (GRB) are among the brightest gamma-ray sources in the sky. The current standard framework associates their prompt gamma-ray emission to charged particles accelerated in relativistic jets issued by newly-formed stellar-mass black holes. The radio to X-ray afterglow emission is due to the interaction between these jets and the interstellar medium.The LAT, pair-creation instrument onboard Fermi gamma-ray space telescope, performs unprecedented observation of the gamma-ray sky at energies of 20 MeV to over 300 GeV since its launch in june 2008. Fermi's transient sources detector, GBM, observed prompt emissions of ~450 GRB between 8 keV and 40 MeV. ~18 of these GRB were also studied up to GeV energies with the LAT. Accurate GRB localizations and Fermi's synergy with other observatories allows the study of GRB afterglows, and therefore a better interpretation of these observations.The analyses of GRB emissions between 8 keV to GeV energies is presented here. Localizations based on LAT data and their biases are studied. Spectral analyses of combined GBM and LAT data are shown, and their theoretical interpretations explained.An alternative analysis based on a relaxed selection of LAT data is presented and fully characterized. It allows to recover and use low-energy LAT statistics in temporal and spectral analyses of GRB prompt emission.Searches for long-lived high-energy emission from GRB are presented. The analysis of GRB 090510 afterglow emission from eV to GeV energies is described.Finally, Fermi bright GRB prompt emissions are compared to an internal shock model developed at IAP.
|
3 |
Atmospheric boundary layer characterizations over Highveld Region South AfricaLuhunga, P.M. (Philbert Modest) 16 May 2013 (has links)
Atmospheric Boundary Layer (ABL) characteristics can be highly complex; the links between spatial and temporal variability of ABL meteorological quantities and existing land use patterns are still poorly understood due to the non-linearity of air-land interaction processes. This study describes the results from Monin Obukhov similarity theory and statistical analysis of meteorological observations collected by a network of ten Automatic Weather Stations (AWSs). The stations were in operation in the Highveld Priority Area (HPA) of the Republic of South Africa during 2008 – 2010. The spatial distribution of stability regimes as presented by both bulk Richardson number (BRN) and Obukhov length (L) indicates that HPA is dominated by strong stability regime. The momentum and heat fluxes show no significant spatial variation between stations. Statistical analysis revealed localization, enhancement and homogenization in the inter-station variability of observed meteorological quantities (temperature, relative humidity and wind speed) over diurnal and seasonal cycles. Enhancement of the meteorological spatial variability was found on a broad range of scales from 20 to 50 km during morning hours and in the dry winter season. These spatial scales are comparable to scales of observed land use heterogeneity, which suggests links between atmospheric variability and land use patterns through excitation of horizontal meso-scale circulations. Convective motions homogenized and synchronized meteorological variability during afternoon hours in the winter seasons, and during large parts of the day during the moist summer season. The analysis also revealed that turbulent convection overwhelms horizontal meso-scale circulations in the study area during extensive parts of the annual cycle / Dissertation (MSc)--University of Pretoria, 2013. / Geography, Geoinformatics and Meteorology / Unrestricted
|
4 |
Modelos de regressão simplex: resíduos de Pearson corrigidos e aplicações / Simplex regression models:corrected Pearson residuals and applicationsSantos, Lucimary Afonso dos 02 September 2011 (has links)
A distribuição simplex, proposta por Barndor-Nielsen e Jørgensen (1991) é útil para a modelagem de dados contínuos no intervalo (0,1). Nesse trabalho, desenvolve-se o modelo de regressão simplex considerando-se ´ = h(X; ¯), sendo h(:; :) uma função arbitr ária. Denem-se os resíduos para o modelo considerado e obtêm-se correções assintóticas para resíduos do tipo Ri. A primeira correção proposta baseou-se na obtenção da expressão assintótica para a densidade dos resíduos de Pearson, corrigidos até ordem O(n¡1). Esses resíduos foram denidos de forma a terem a mesma distribuição dos resíduos verdadeiros de Pearson. Estudos de simulação mostraram que a distribuição empírica dos resíduos corrigidos pela densidade encontra-se mais próxima da distribuição dos verdadeiros resíduos de Pearson do que para o resíduo não corrigido de Pearson. A segunda correção proposta considera o método dos momentos. Geralmente, E(Ri) e Var(Ri) são diferentes de zero e um, respectivamente, por termos de ordem O(n¡1). Usando-se os resultados de Cox e Snell (1968), obtiveram-se as expressões aproximadas de ordem O(n¡1) para E(Ri) e Var(Ri). Um estudo de simulação está sendo realizado para avaliação da técnica proposta. A técnica desenvolvida no primeiro estudo, foi aplicada a dois conjuntos de dados, sendo o primeiro deles, dados sobre oxidação de amônia, considerando-se preditor linear e o outro sobre porcentagem de massa seca (MS) em grãos de milho, considerando-se preditor linear e não linear. Os resultados obtidos para os dados de oxidação de amônia, indicaram que o modelo com preditor linear está bem ajustado aos dados, considerando-se a exclusão de alguns possíveis pontos inuentes, sendo que a correção proposta, para a densidade dos resíduos, apresenta os melhores resultados. Observando-se os resultados para os dados de massa seca, os melhores resultados foram obtidos, considerando-se um dos modelos com preditor não linear. / The simplex distribution, proposed by Barndor-Nielsen e Jørgensen (1991) is useful for modeling continuous data in the (0,1) interval. In this work, we developed the simplex regression model, considering ´ = h(X; ¯), where h(:; :) is an arbitrary function. We dened the residuals to this model and obtained asymptotic corrections to residuals of the type Ri. The rst correction proposed, was based in obtaining the asymptotic expression for the density of Pearson residuals, corrected to order O(n¡1). These residuals were dened in order to have the same distribution of true Pearson residuals. Simulation studies showed that the empirical distribution of the modied residuals is closer to the distribution of the true Pearson residuals than the unmodied Pearson residuals. The second one, considers the method of moments. Generally E(Ri) and Var(Ri) are dierent from zero and one, respectively, by terms of order O(n¡1). Using the results of Cox and Snell (1968), we obtained the approximate expressions of order O(n¡1) for E(Ri) and Var(Ri). A simulation study is being conducted to evaluate the proposed technique. We applied the techniques in two data sets, the rst one, is a dataset of ammonia oxidation, considering linear predictor and the other one was the percentage of dry matter in maize, considering linear predictor and nonlinear. The results obtained for the oxidation ammonia data indicated that the model considering linear predictor, tted well to the data, if we consider the exclusion of some possible inuential points. The proposed correction for the density of Pearson residuals, showed better results. Observing the results for the dry matter data, the best results were obtained for a model with a specied nonlinear predictor.
|
5 |
Descoberta e discernimento de supersimetria versus dimensões extras universais no CERN LHC / Discovery and Discrimination of Supersymmetry versus Universal Extra Dimensions at CERN LHCSilva, Rafael Marcelino do Carmo 21 September 2015 (has links)
Estimar de forma realista o alcance de descoberta de um experimento de colisão de altas energias, como o realizado no Large Hadron Collider (LHC) do CERN, é uma tarefa complexa, principalmente em vista das técnicas de simulação de eventos e dos métodos de estatística multivariada utilizadas pelas colaborações experimentais na comparação dos dados com as predições teóricas. Descobrir uma nova partícula, contudo, é apenas o primeiro passo na investigação experimental. De modo a estabelecer qual dos eventuais modelos teóricos concorrentes é favorecido pelos dados, torna-se imprescindível o estudo das propriedades desta nova partícula e de suas interações com o restante do espectro. Informações como os números quânticos de spin, conjugação de carga ($C$) e paridade ($P$), podem ser obtidas através do estudo das correlações entre os momentos das partículas produzidas codificadas nas distribuições cinemáticas. O discernimento entre os vários modelos, portanto, passa a ser um problema de combinar todas estas informações de forma eficiente e compará-las aos dados experimentais através de um teste estatístico e decidindo, assim, pela confirmação ou não de um novo sinal e sobre o modelo que melhor explica aqueles dados. No trabalho realizado nesta tese, investigamos o limite do LHC, operando a uma energia de centro-de-massa de 14 TeV, para a descoberta de um modelo supersimétrico (SUSY) simplificado e de seu discernimento em relação a um modelo de dimensões extras universais mínimas (MUED), usando eventos de produção de novas partículas coloridas decaindo, através de cadeias curtas, em jatos e missing energy. Nossa abordagem avança em diversos aspectos em comparação a fenomenologias mais simplificadas: utilizando uma análise estatística multivariada, levando em conta incertezas sistemáticas nas normalizações das seções de choque e no formato das distribuições, empregando técnicas de identificação de jatos de quarks e glúons para uma melhor separação dos backgrounds do Modelo padrão (MP), escaneando e otimizando os cortes retangulares, simulando eventos de forma cuidadosa e com correções de ordem superior da cromodinâmica quântica (QCD). Eventos de SUSY e MUED foram simulados para 150 diferentes espectros de massa, ainda não excluídos pelo LHC, e estimamos o potencial de descoberta e de discernimento SUSY versus MUED no plano de massas de squarks e gluinos utilizando as técnicas acima mencionadas. Mostramos, em primeiro lugar, que mesmo de forma simplificada, inserir incertezas sistemáticas é essencial para uma estimativa mais realista do potencial do acelerador, principalmente no que diz respeito ao aumento de luminosidade integrada. Para incertezas nas normalizações da ordem de 20%, o ganho no potencial de busca torna-se mais limitado. Por exemplo, passando de 100 a 3000 fb$^{-1}$, o alcance na massa dos squarks aumenta de 2.8 para ~ 3.1$ TeV, ao passo que, sem levar em conta estas incertezas, a estimativa é mais otimista, indo de 3.0 a ~ 3.5 TeV para as mesmas luminosidades. Performance similar é observada no discernimento SUSY versus MUED, onde é possível obter uma significância de $5\\sigma$ para massas de squarks de até ~ 2.7 TeV e gluinos ~ 5 TeV, mantendo-se as incertezas sistemáticas a um nível menor do que 10% aproximadamente. De forma geral, concluímos que um modelo supersimétrico simplificado, como o estudado aqui, pode ser descoberto e confirmado (em relação a um dos seus mais populares concorrentes, MUED) para um espectro com squarks, gluinos e neutralinos de aproximadamente 2.5, 5.0 e 0.3 TeV, respectivamente, se as incertezas sistemáticas puderem ser controladas a um nível de 10 % ou menos, após 3 ab$^{-1}$ de luminosidade integrada. / The problem of estimating, in a realistic way, the reach of an experiment in high energy physics, such as the CERN Large Hadron Collider (LHC), is a difficult task. Specially due to the simulations techniques and the multivariate statistics for data and theory comparisons, used by experimental collaborations. The discovery of a new particle is just the first step in the experimental exploration. The properties of this particle, like parity, spin and charge are conditions to assert which physics model is favored by the collected data. It is possible to measure these properties with the analyses of the particle momentum correlations through the kinematical distributions. The discriminations among different models turns into a problem of combining all this informations, in a efficient way, and compare with experimental data through a statistical test, and choosing for the confirmation or exclusion of a signal and which model best describes the data. In this work, we investigate the limits of the LHC, working in a center of mass energy of 14 TeV, for the discovery of a simplified model of supersymmetry (SUSY) and the discrimination with a model of minimal universal extra dimensions (MUED), using productions of heavy colored particles decaying, through short decays chains, in jets and missing energy. Our approach progresses in different aspects compared with simplified phenomenological analyses: we used a multivariate statistical analysis, considered systematical uncertainties in the rate and shape of distributions, implemented techniques of quarks and gluons jet tagging identification for a good separation between signal and backgrounds, scanning for the best rectangular cuts and simulating events in a careful way with 1-loop corrections from quantum chromodynamics. Our events were simulated for 150 different mass spectrums, not excluded by the LHC, and we estimate the potencial for discovery and discrimination of SUSY versus MUED in a squarks-gluinos mass plane, using the techniques mentioned above. We proved, in first place, that even in a simplified way, inserting systematical uncertainties it\'s essential for an estimative more realistic of the collider\'s reach, mainly with the increasing of integrated luminosity. For systematical rate uncertainties in the distribution of 20%, the gain in the discovery potencial is very limited. For example, increasing from 100 to 3000 fb$^{-1}$, the reach in the squark mass increase from ~ 2.8 to 3.1 TeV. On the other hand, without systematical uncertainties in rate distributions, the reach is more optimistic, from 3.0 TeV to ~ 3.5 TeV, for the same luminosities. Similar performance was observed in the discrimination of Susy versus MUED, where it\'s possible to obtain significance of $5\\sigma$ for squark masses up to ~ 2.7$ TeV and gluinos of ~ 5 TeV, keeping systematical uncertainties at a level about 10%. In general, we conclude that a supersymmetryc model, like we studied here, can be discovered and confirmed (compared to one of its more popular competitors, MUED) for a mass spectrum of squarks, gluinos and neutalinos about 2.5, 5.0 and 0.3 TeV, respectively, if it\'s possible to control the systematical uncertainties at a level about 10%, after 3 ab$^{-1}$ of integrated luminosity.
|
6 |
Responsabilidade social empresarial e desempenho financeiro das empresas: evidências do Brasil / Social corporate responsibility and financial performance: evidence from BrazilKitahara, José Renato 27 August 2012 (has links)
Enquanto a Administração de Empresas evoluiu muito no último século e trouxe vasto ferramental aos gestores de empresas, o tema da Responsabilidade Social Empresarial (RSE) não acompanhou essa evolução e ainda não dispõe de conceitos sólidos e ferramental de apoio aos gestores. Isso justifica o presente estudo, que objetiva identificar, empiricamente, o comportamento das empresas que operam no Brasil, referente aos seus investimentos em ações de RSE e suas relações com o Desempenho Financeiro (DF), com base na Receita Líquida (RL) e no Resultado Operacional (RO). A partir de uma amostra de 2064 Balanços Sociais padrão IBASE (BS) de 378 empresas, no período entre 1996 e 2010, o estudo buscou resposta a oito perguntas de pesquisa e encontrou comportamentos estatisticamente significativos em todas elas. Os resultados indicam que existe relacionamento direto entre a RL e os investimentos em RSE. Existe também um relacionamento direto entre o RO-Positivo e os investimentos em RSE. Nos casos em que o RO é negativo, o relacionamento com os investimentos em RSE está associado ao valor absoluto do RO-Negativo, o que pode ser uma relação dependente da RL ou do porte da empresa. O setor de atuação das empresas é um fator que segmenta comportamentos característicos das empresas e nem todas as turbulências conjunturais nacionais e internacionais impactam e influenciam as decisões de investimentos em RSE e o DF das empresas de forma semelhante. Os modelos matemáticos que relacionam a RL com os investimentos em RSE têm melhor capacidade explicativa que os modelos correspondentes que relacionam o RO a esses mesmos investimentos, sendo que o setor de atuação é um diferenciador significativo. Não foram encontradas diferenças significativas na qualidade explicativa dos modelos matemáticos que consideraram o DF do ano-base e do ano anterior em relação às decisões de investimentos em RSE e, mais, a composição do portfólio de investimento em RSE varia em função do setor e do ano de publicação dos BSs. / While Business Management was much developed during the last hundred years and accumulated a lot of management tools to managers of companies, the theme of Corporate Social Responsibility (CSR) has only received tangential attention and does not yet have solid concepts and tools to support managers. This lack of similar evolution justifies the present study, which aims to identify, empirically, the behavior of companies operating in Brazil, related to their investments in activities of CSR and its relations with Financial Performance (FP), based on Net Income (NI) and Operational Results (OR). From a sample of 2064 IBASE Social Accounting Balances (SAB) of 378 companies between 1996 and 2010, the study sought to answer eight research questions and found statistically significant behavior in all of them. The results indicate that there is direct relationship between the NI and investments in CSR. There is also a direct relationship between the ORPositive and investments in CSR. When OR is negative, the relationship between CSR investment is associated with the absolute value of OR-negative, which may be a dependent relationship of NI or size of the company. The business sector is a factor that segments the characteristic behaviors of companies, and not all national and international economic turmoil impact and influence investment decisions in CSR and FP of firms with the same magnitude. The mathematical models that relate the NI with investments in CSR have better explanatory power than models that relate the OR corresponding to such investments, and the sector of activity is a significant differentiator. There were no significant differences in the explanatory quality of mathematical models that considered the FP for the base year and the year before, in relation to decisions on investments in CSR,, and the composition of the investment in CSR portfolio varies by sector and year of publication of SABs.
|
7 |
Modelos de regressão simplex: resíduos de Pearson corrigidos e aplicações / Simplex regression models:corrected Pearson residuals and applicationsLucimary Afonso dos Santos 02 September 2011 (has links)
A distribuição simplex, proposta por Barndor-Nielsen e Jørgensen (1991) é útil para a modelagem de dados contínuos no intervalo (0,1). Nesse trabalho, desenvolve-se o modelo de regressão simplex considerando-se ´ = h(X; ¯), sendo h(:; :) uma função arbitr ária. Denem-se os resíduos para o modelo considerado e obtêm-se correções assintóticas para resíduos do tipo Ri. A primeira correção proposta baseou-se na obtenção da expressão assintótica para a densidade dos resíduos de Pearson, corrigidos até ordem O(n¡1). Esses resíduos foram denidos de forma a terem a mesma distribuição dos resíduos verdadeiros de Pearson. Estudos de simulação mostraram que a distribuição empírica dos resíduos corrigidos pela densidade encontra-se mais próxima da distribuição dos verdadeiros resíduos de Pearson do que para o resíduo não corrigido de Pearson. A segunda correção proposta considera o método dos momentos. Geralmente, E(Ri) e Var(Ri) são diferentes de zero e um, respectivamente, por termos de ordem O(n¡1). Usando-se os resultados de Cox e Snell (1968), obtiveram-se as expressões aproximadas de ordem O(n¡1) para E(Ri) e Var(Ri). Um estudo de simulação está sendo realizado para avaliação da técnica proposta. A técnica desenvolvida no primeiro estudo, foi aplicada a dois conjuntos de dados, sendo o primeiro deles, dados sobre oxidação de amônia, considerando-se preditor linear e o outro sobre porcentagem de massa seca (MS) em grãos de milho, considerando-se preditor linear e não linear. Os resultados obtidos para os dados de oxidação de amônia, indicaram que o modelo com preditor linear está bem ajustado aos dados, considerando-se a exclusão de alguns possíveis pontos inuentes, sendo que a correção proposta, para a densidade dos resíduos, apresenta os melhores resultados. Observando-se os resultados para os dados de massa seca, os melhores resultados foram obtidos, considerando-se um dos modelos com preditor não linear. / The simplex distribution, proposed by Barndor-Nielsen e Jørgensen (1991) is useful for modeling continuous data in the (0,1) interval. In this work, we developed the simplex regression model, considering ´ = h(X; ¯), where h(:; :) is an arbitrary function. We dened the residuals to this model and obtained asymptotic corrections to residuals of the type Ri. The rst correction proposed, was based in obtaining the asymptotic expression for the density of Pearson residuals, corrected to order O(n¡1). These residuals were dened in order to have the same distribution of true Pearson residuals. Simulation studies showed that the empirical distribution of the modied residuals is closer to the distribution of the true Pearson residuals than the unmodied Pearson residuals. The second one, considers the method of moments. Generally E(Ri) and Var(Ri) are dierent from zero and one, respectively, by terms of order O(n¡1). Using the results of Cox and Snell (1968), we obtained the approximate expressions of order O(n¡1) for E(Ri) and Var(Ri). A simulation study is being conducted to evaluate the proposed technique. We applied the techniques in two data sets, the rst one, is a dataset of ammonia oxidation, considering linear predictor and the other one was the percentage of dry matter in maize, considering linear predictor and nonlinear. The results obtained for the oxidation ammonia data indicated that the model considering linear predictor, tted well to the data, if we consider the exclusion of some possible inuential points. The proposed correction for the density of Pearson residuals, showed better results. Observing the results for the dry matter data, the best results were obtained for a model with a specied nonlinear predictor.
|
8 |
Descoberta e discernimento de supersimetria versus dimensões extras universais no CERN LHC / Discovery and Discrimination of Supersymmetry versus Universal Extra Dimensions at CERN LHCRafael Marcelino do Carmo Silva 21 September 2015 (has links)
Estimar de forma realista o alcance de descoberta de um experimento de colisão de altas energias, como o realizado no Large Hadron Collider (LHC) do CERN, é uma tarefa complexa, principalmente em vista das técnicas de simulação de eventos e dos métodos de estatística multivariada utilizadas pelas colaborações experimentais na comparação dos dados com as predições teóricas. Descobrir uma nova partícula, contudo, é apenas o primeiro passo na investigação experimental. De modo a estabelecer qual dos eventuais modelos teóricos concorrentes é favorecido pelos dados, torna-se imprescindível o estudo das propriedades desta nova partícula e de suas interações com o restante do espectro. Informações como os números quânticos de spin, conjugação de carga ($C$) e paridade ($P$), podem ser obtidas através do estudo das correlações entre os momentos das partículas produzidas codificadas nas distribuições cinemáticas. O discernimento entre os vários modelos, portanto, passa a ser um problema de combinar todas estas informações de forma eficiente e compará-las aos dados experimentais através de um teste estatístico e decidindo, assim, pela confirmação ou não de um novo sinal e sobre o modelo que melhor explica aqueles dados. No trabalho realizado nesta tese, investigamos o limite do LHC, operando a uma energia de centro-de-massa de 14 TeV, para a descoberta de um modelo supersimétrico (SUSY) simplificado e de seu discernimento em relação a um modelo de dimensões extras universais mínimas (MUED), usando eventos de produção de novas partículas coloridas decaindo, através de cadeias curtas, em jatos e missing energy. Nossa abordagem avança em diversos aspectos em comparação a fenomenologias mais simplificadas: utilizando uma análise estatística multivariada, levando em conta incertezas sistemáticas nas normalizações das seções de choque e no formato das distribuições, empregando técnicas de identificação de jatos de quarks e glúons para uma melhor separação dos backgrounds do Modelo padrão (MP), escaneando e otimizando os cortes retangulares, simulando eventos de forma cuidadosa e com correções de ordem superior da cromodinâmica quântica (QCD). Eventos de SUSY e MUED foram simulados para 150 diferentes espectros de massa, ainda não excluídos pelo LHC, e estimamos o potencial de descoberta e de discernimento SUSY versus MUED no plano de massas de squarks e gluinos utilizando as técnicas acima mencionadas. Mostramos, em primeiro lugar, que mesmo de forma simplificada, inserir incertezas sistemáticas é essencial para uma estimativa mais realista do potencial do acelerador, principalmente no que diz respeito ao aumento de luminosidade integrada. Para incertezas nas normalizações da ordem de 20%, o ganho no potencial de busca torna-se mais limitado. Por exemplo, passando de 100 a 3000 fb$^{-1}$, o alcance na massa dos squarks aumenta de 2.8 para ~ 3.1$ TeV, ao passo que, sem levar em conta estas incertezas, a estimativa é mais otimista, indo de 3.0 a ~ 3.5 TeV para as mesmas luminosidades. Performance similar é observada no discernimento SUSY versus MUED, onde é possível obter uma significância de $5\\sigma$ para massas de squarks de até ~ 2.7 TeV e gluinos ~ 5 TeV, mantendo-se as incertezas sistemáticas a um nível menor do que 10% aproximadamente. De forma geral, concluímos que um modelo supersimétrico simplificado, como o estudado aqui, pode ser descoberto e confirmado (em relação a um dos seus mais populares concorrentes, MUED) para um espectro com squarks, gluinos e neutralinos de aproximadamente 2.5, 5.0 e 0.3 TeV, respectivamente, se as incertezas sistemáticas puderem ser controladas a um nível de 10 % ou menos, após 3 ab$^{-1}$ de luminosidade integrada. / The problem of estimating, in a realistic way, the reach of an experiment in high energy physics, such as the CERN Large Hadron Collider (LHC), is a difficult task. Specially due to the simulations techniques and the multivariate statistics for data and theory comparisons, used by experimental collaborations. The discovery of a new particle is just the first step in the experimental exploration. The properties of this particle, like parity, spin and charge are conditions to assert which physics model is favored by the collected data. It is possible to measure these properties with the analyses of the particle momentum correlations through the kinematical distributions. The discriminations among different models turns into a problem of combining all this informations, in a efficient way, and compare with experimental data through a statistical test, and choosing for the confirmation or exclusion of a signal and which model best describes the data. In this work, we investigate the limits of the LHC, working in a center of mass energy of 14 TeV, for the discovery of a simplified model of supersymmetry (SUSY) and the discrimination with a model of minimal universal extra dimensions (MUED), using productions of heavy colored particles decaying, through short decays chains, in jets and missing energy. Our approach progresses in different aspects compared with simplified phenomenological analyses: we used a multivariate statistical analysis, considered systematical uncertainties in the rate and shape of distributions, implemented techniques of quarks and gluons jet tagging identification for a good separation between signal and backgrounds, scanning for the best rectangular cuts and simulating events in a careful way with 1-loop corrections from quantum chromodynamics. Our events were simulated for 150 different mass spectrums, not excluded by the LHC, and we estimate the potencial for discovery and discrimination of SUSY versus MUED in a squarks-gluinos mass plane, using the techniques mentioned above. We proved, in first place, that even in a simplified way, inserting systematical uncertainties it\'s essential for an estimative more realistic of the collider\'s reach, mainly with the increasing of integrated luminosity. For systematical rate uncertainties in the distribution of 20%, the gain in the discovery potencial is very limited. For example, increasing from 100 to 3000 fb$^{-1}$, the reach in the squark mass increase from ~ 2.8 to 3.1 TeV. On the other hand, without systematical uncertainties in rate distributions, the reach is more optimistic, from 3.0 TeV to ~ 3.5 TeV, for the same luminosities. Similar performance was observed in the discrimination of Susy versus MUED, where it\'s possible to obtain significance of $5\\sigma$ for squark masses up to ~ 2.7$ TeV and gluinos of ~ 5 TeV, keeping systematical uncertainties at a level about 10%. In general, we conclude that a supersymmetryc model, like we studied here, can be discovered and confirmed (compared to one of its more popular competitors, MUED) for a mass spectrum of squarks, gluinos and neutalinos about 2.5, 5.0 and 0.3 TeV, respectively, if it\'s possible to control the systematical uncertainties at a level about 10%, after 3 ab$^{-1}$ of integrated luminosity.
|
9 |
Responsabilidade social empresarial e desempenho financeiro das empresas: evidências do Brasil / Social corporate responsibility and financial performance: evidence from BrazilJosé Renato Kitahara 27 August 2012 (has links)
Enquanto a Administração de Empresas evoluiu muito no último século e trouxe vasto ferramental aos gestores de empresas, o tema da Responsabilidade Social Empresarial (RSE) não acompanhou essa evolução e ainda não dispõe de conceitos sólidos e ferramental de apoio aos gestores. Isso justifica o presente estudo, que objetiva identificar, empiricamente, o comportamento das empresas que operam no Brasil, referente aos seus investimentos em ações de RSE e suas relações com o Desempenho Financeiro (DF), com base na Receita Líquida (RL) e no Resultado Operacional (RO). A partir de uma amostra de 2064 Balanços Sociais padrão IBASE (BS) de 378 empresas, no período entre 1996 e 2010, o estudo buscou resposta a oito perguntas de pesquisa e encontrou comportamentos estatisticamente significativos em todas elas. Os resultados indicam que existe relacionamento direto entre a RL e os investimentos em RSE. Existe também um relacionamento direto entre o RO-Positivo e os investimentos em RSE. Nos casos em que o RO é negativo, o relacionamento com os investimentos em RSE está associado ao valor absoluto do RO-Negativo, o que pode ser uma relação dependente da RL ou do porte da empresa. O setor de atuação das empresas é um fator que segmenta comportamentos característicos das empresas e nem todas as turbulências conjunturais nacionais e internacionais impactam e influenciam as decisões de investimentos em RSE e o DF das empresas de forma semelhante. Os modelos matemáticos que relacionam a RL com os investimentos em RSE têm melhor capacidade explicativa que os modelos correspondentes que relacionam o RO a esses mesmos investimentos, sendo que o setor de atuação é um diferenciador significativo. Não foram encontradas diferenças significativas na qualidade explicativa dos modelos matemáticos que consideraram o DF do ano-base e do ano anterior em relação às decisões de investimentos em RSE e, mais, a composição do portfólio de investimento em RSE varia em função do setor e do ano de publicação dos BSs. / While Business Management was much developed during the last hundred years and accumulated a lot of management tools to managers of companies, the theme of Corporate Social Responsibility (CSR) has only received tangential attention and does not yet have solid concepts and tools to support managers. This lack of similar evolution justifies the present study, which aims to identify, empirically, the behavior of companies operating in Brazil, related to their investments in activities of CSR and its relations with Financial Performance (FP), based on Net Income (NI) and Operational Results (OR). From a sample of 2064 IBASE Social Accounting Balances (SAB) of 378 companies between 1996 and 2010, the study sought to answer eight research questions and found statistically significant behavior in all of them. The results indicate that there is direct relationship between the NI and investments in CSR. There is also a direct relationship between the ORPositive and investments in CSR. When OR is negative, the relationship between CSR investment is associated with the absolute value of OR-negative, which may be a dependent relationship of NI or size of the company. The business sector is a factor that segments the characteristic behaviors of companies, and not all national and international economic turmoil impact and influence investment decisions in CSR and FP of firms with the same magnitude. The mathematical models that relate the NI with investments in CSR have better explanatory power than models that relate the OR corresponding to such investments, and the sector of activity is a significant differentiator. There were no significant differences in the explanatory quality of mathematical models that considered the FP for the base year and the year before, in relation to decisions on investments in CSR,, and the composition of the investment in CSR portfolio varies by sector and year of publication of SABs.
|
10 |
Zhodnocení finanční situace podniku pomocí aplikace statistické analýzy dat / Assessment of Company Financial Situation Using Statistical Data AnalysisČapka, Jakub January 2011 (has links)
The diploma thesis is focused on using of statistical data analysis as the effective tool for evaluation of characteristics and efficiency of the company, especially economic indicators. The goal will be to analyze the data by these means, to compare them and to make the conclusions and suggestions for improvement. From the knowledge of historical data and forecasting preconditions for the future the company will gain clearer image about its development and future direction.
|
Page generated in 0.1238 seconds