• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43083
  • 598
  • 483
  • 363
  • 324
  • 324
  • 292
  • 255
  • 74
  • 68
  • 16
  • 14
  • 13
  • 12
  • 10
  • Tagged with
  • 4632
  • 3849
  • 2580
  • 2171
  • 2052
  • 1971
  • 1936
  • 1680
  • 1641
  • 1525
  • 1333
  • 1269
  • 1237
  • 1198
  • 1190
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
591

Investigação de Algoritmos de Aprendizado de Máquina Pertencentes ao Paradigma Estatístico para Aquisição de Conhecimento / Not available

Padilha, Thereza Patrícia Pereira 26 April 1999 (has links)
Uma grande revolução tecnológica ocorreu nos últimos anos em diversas áreas relacionadas a ciência da computação. Um dos aspectos que mais influenciou esta revolução foi o armazenamento, o processamento e a análise de grandes quantidades de dados geradas por várias empresas e centros de pesquisas. Com isso, a incorporação de métodos e técnicas estatísticas para a aquisição de conhecimento de dados na área de Aprendizado de Máquina tem apresentado um grande crescimento. O propósito desse trabalho é investigar alguns algoritmos de Aprendizado de Máquina pertencente ao paradigma estatístico para a aquisição de conhecimento a partir de conjuntos de dados. Nessa investigação foram estudados os algoritmos estatísticos Naive Bayes, Auto Class, Auto Class Pro e K-Means. Dois estudos de casos (um conjunto de plantas iris e um conjunto de domicílios de clientes) foram realizados verificando, entre outros, o comportamento desses algoritmos, a relevância dos atributos dos conjuntos de dados e apresentando os clusters encontrados nas ferramentas de visualização. / A technological revolution has been happenning in the last few years in many areas related to computer science. One of the aspects that lias most influenced this revolution is the storage, processing and analysis of large quantities of data generated by vazious companies and research centers. All this has led to the incorporation of statistical methods and techniques for knowledge acquisition in the arca of Machine Learning has shown a large growth. The purpose of this work is to investigate some Machine Learning algorithms that belong to the statistical paradigm for knowledge acquisition from datasets. In this investigation, the statistical algorithms Naive Bayes, Auto Class, Auto Class Pro and K-Means were used. Two case studies (one with a set about iris plants and another with a set about client households) were raade to verify, among other things, the behavior of these algorithms and the relevance of the attributes in the datasets, and to present the clusters found, using visualization tools.
592

Modelagens estatística para dados de sobrevivência bivariados: uma abordagem bayesiana / Statistical modeling to bivariate survival data: a bayesian approacn

Ribeiro, Taís Roberta 31 March 2017 (has links)
Os modelos de fragilidade são utilizados para modelar as possíveis associações entre os tempos de sobrevivência. Uma outra alternativa desenvolvida para modelar a dependência entre dados multivariados é o uso dos modelos baseados em funções cópulas. Neste trabalho propusemos dois modelos de sobrevivência derivados das cópulas de Ali- Mikhail-Haq (AMH) e de Frank para modelar a dependência de dados bivariados na presença de covariáveis e observações censuradas. Para fins inferenciais, realizamos uma abordagem bayesiana usando métodos Monte Carlo em Cadeias de Markov (MCMC). Algumas discussões sobre os critérios de seleção de modelos são apresentadas. Com o objetivo de detectar observações influentes utilizamos o método bayesiano de análise de influência de deleção de casos baseado na divergência ψ. Por fim, mostramos a aplicabilidade dos modelos propostos a conjuntos de dados simulados e reais. Apresentamos, também, um novo modelo de sobrevivência bivariado com fração de cura, que leva em consideração três configurações para o mecanismo de ativação latente: ativação aleatória, primeira ativação é última ativação. Aplicamos este modelo a um conjunto de dados de empréstimo de Crédito Direto ao modo do Consumidor (DCC) e comparamos os ajustes por meio dos critérios bayesianos de seleção de modelos para verificar qual dos três modelos melhor se ajustou. Por fim, mostramos nossa proposta futura para a continuação da pesquisa. / The frailty models are used to model the possible associations between survival times. Another alternative developed for modeling the dependence between multivariate data is the use of models based on copulas functions. In this paper we propose two derived survival models of copula of the Ali-Mikhail-Haq (AMH) and of the Frank to model the dependence of bivariate data in the presence of covariates and censored observations. For inferential purposes, we conducted a Bayesian approach using Monte Carlo methods in Markov Chain (MCMC). Some discussions on the model selection criteria were presented. In order to detect influential observations we use the Bayesian method of cases of deletion of influence analysis based on the difference ψ. Finally, we show the applicability of the proposed models to sets of simulated and real data. We present, too, a new survival model with bivariate fraction of healing, which takes into account three settings for the latent activation mechanism: random activation, first activation and final activation. We apply this model to a set of Direct Credit loan data to the Consumer mode (DCC) and compare the settings, through Bayesian criteria for selection of models, which of the three models best fit. Finally, we show our future proposal for further research.
593

STATISTICAL METHODOLOGY FOR ANALYTICAL METHODS VALIDATION APPLICABLE CHEMISTRY METROLOGY / METODOLOGIA ESTATÍSTICA PARA VALIDAÇÃO DE MÉTODOS ANALÍTICOS APLICÁVEL À METROLOGIA EM QUÍMICA

SONIA MARIA DE FREITAS 11 April 2003 (has links)
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO / A metodologia estatística escolhida para validação de métodos analíticos aplicável à metrologia em química é fundamental para assegurar a qualidade, comprovar a eficiência e demonstrar a exatidão dos resultados das medições nas análises químicas. Essa metodologia, desenvolvida em conformidade com o rigor metrológico, resulta num sistema de medições validado, confiável e com incertezas quantificadas. Este trabalho propõe uma metodologia geral para validação de métodos analíticos. A metodologia desenvolvida resultou de uma síntese de métodos parciais descritos na literatura, e inclui uma escolha crítica de técnicas mais adequadas dentro das alternativas existentes. A abordagem proposta combina quatro diferentes aspectos da validação: a modelagem da curva de calibração; o controle da especificidade do método; a comparação da tendência e precisão (repetitividade e precisão intermediária) do método com um método de referência; e a estimação das componentes de incerteza inerentes a todos esses aspectos. Como resultado, além de uma proposta para validação de métodos para uso em análises químicas, obtêm- se a função de calibração inversa e as incertezas expandidas, que permitem obter os resultados analíticos associados aos valores da resposta, com suas respectivas incertezas associadas. Na modelagem geral para obtenção da curva de calibração, empregam-se técnicas estatísticas para avaliação da linearidade e para o cálculo do mínimo valor detectável e do mínimo valor quantificável. A especificidade do método analítico é avaliada pela adição de padrões a um conjunto de amostras representativas e posterior recuperação dos mesmos, com ajuste por mínimos quadrados e testes de hipóteses. Para estudar a tendência e a precisão do método quando comparado a um método de referência, utiliza-se um modelo hierárquico de quatro níveis e a aproximação de Satterthwaite para determinação do número de graus de liberdade associados aos componentes de variância. As técnicas estatísticas utilizadas são ilustradas passo a passo por exemplos numéricos. / The use of statistical methodology for analytical methods validation is vital to assure that measurements have the quality level required by the goal to be attained. This thesis describes a statistical modelling approach for combining four different aspects of validation: checking the linearity of the calibration curve and compute the detection and the quantification limits; controlling the specificity of the analytical method; estimating the accuracy (trueness and precision) of the alternative method, for comparison with a reference method. The general approach is a synthesis of several partial techniques found in the literature, according to a choice of the most appropriate techniques in each case. For determination of the response function, statistical techniques are used for assessing the fitness of the regression model and for determination of the detection limit and the quantification limit. Method specificity is evaluated by adjusting a straight line between added and recovered concentrations via least squares regression and hypotheses tests on the slope and intercept. To compare a method B with a reference method A, the precision and accuracy of method B are estimated. A 4-factor nested design is employed for this purpose. The calculation of different variance estimates from the experimental data is carried out by ANOVA. The Satterthwaite approximation is used to determine the number of degrees of freedom associated with the variance components. The application of the methodology is thoroughly illustrated with step-by-step examples.
594

PROPOSAL FOR ALTERNATIVE STATISTICAL PROTOCOLS FOR PROFICIENCY TESTING PROGRAMS / PROPOSTA DE PROTOCOLOS ESTATÍSTICOS ALTERNATIVOS PARA PROGRAMAS DE ENSAIOS DE PROFICIÊNCIA

CÍNTIA DE HOLLEBEN 04 May 2018 (has links)
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO / COORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR / PROGRAMA DE SUPORTE À PÓS-GRADUAÇÃO DE INSTS. DE ENSINO / O objetivo dessa dissertação é propor protocolos estatísticos alternativos ao atual praticado pela American Society for Testing and Materials (ASTM) para a determinação do desempenho dos laboratórios participantes de Ensaios de Proficiência (EP) utilizando estatística robusta. A participação em EP é um requisito compulsório à conformidade nas certificações e acreditações para laboratórios de ensaio e calibração. O Programa de EP da ASTM considera o valor de consenso para prover os escores dos participantes. O modelo para estimar os escores, ZASTM, se baseia na média amostral (valor designado, VD) e no desvio padrão amostral (desvio padrão para a proficiência, DPP). Neste cenário, há necessidade de tratamento exaustivo dos dados, motivação para este estudo, incluindo o tratamento de outliers e a investigação de existência de distribuição normal (Gaussiana). Neste estudo, os protocolos propostos (nIQR e MADe) consideram o emprego de estatísticas robustas, mais resistentes à presença de outliers, os quais ocasionam desvios da normalidade desejada. Os resultados da comparação do protocolo ASTM com os protocolos propostos, em dados da matriz de óleos lubrificantes, reportados ao provedor ASTM, revelam haver diferença entre as médias ou entre as variâncias dos escores produzidos pelos diferentes protocolos ao nível de 5 porcento de significância, ocasionando mudança na classificação do desempenho dos laboratórios. Conclui-se que os protocolos estatísticos alternativos propostos apresentaram a vantagem de dispensar o tratamento de outliers e a investigação da distribuição dos dados, sendo que o protocolo MADe ainda apresentou redução na incerteza de medição associada ao valor designado por consenso. / The objective of this dissertation is to propose statistical protocols that are alternative to the current one applied by the American Society for Testing and Materials (ASTM) to determine the performance of participants laboratories of Proficiency Testing (PT) by using robust statistics. Participation in PT is a mandatory requirement for compliance in certifications and accreditations for testing and calibration laboratories. The ASTM EP Program employs the consensus value to provide the participants scores. The method for estimating the scores, ZASTM, is based on the sample data mean (assigned value, AV) and the sample data standard deviation (standard deviation for proficiency assesment, SDPA). In this case, it is necessary an exhaustive treating of the data, motivation for this study, including the treatment of outliers and the investigation of existence of normal distribution (Gaussian). In this study, the proposed protocols (nIQR and MADe) consider the application of robust statistics, which are more resistant to the presence of outliers, which cause deviations from the desired normality. The results of the ASTM protocol comparison with the proposed protocols in the lubricant oil matrix data reported to the ASTM provider show a difference between the means or between the variances of the scores produced by the different protocols at the 5 per cent level of significance, causing variation in the classification of laboratory performance. It is concluded that the proposed alternative statistical protocols had the advantage of dispensing the outliers treatment and the investigation of the data distribution, and the MADe protocol still showed reduction in the measurement
595

[en] EXTREME VALUE STATISTICS OF RANDOM NORMAL MATRICES / [pt] ESTATÍSTICAS DE VALOR EXTREMO DE MATRIZES ALEATÓRIAS NORMAIS

ROUHOLLAH EBRAHIMI 19 February 2019 (has links)
[pt] Com diversas aplicações em matemática, física e finanças, Teoria das Matrizes Aleatórias (RMT) recentemente atraiu muita atenção. Enquanto o RMT Hermitiano é de especial importância na física por causa da Hermenticidade de operadores associados a observáveis em mecânica quântica, O RMT não-Hermitiano também atraiu uma atenção considerável, em particular porque eles podem ser usados como modelos para sistemas físicos dissipativos ou abertos. No entanto, devido à ausência de uma simetria simplificada, o estudo de matrizes aleatórias não-Hermitianas é, em geral, uma tarefa difícil. Um subconjunto especial de matrizes aleat órias não-Hermitianas, as chamadas matrizes aleatórias normais, são modelos interessantes a serem considerados, uma vez que oferecem mais simetria, tornando-as mais acessíveis às investigções analíticas. Por definição, uma matriz normal M é uma matriz quadrada que troca com seu adjunto Hermitiano. Nesta tese, amplicamos a derivação de estatísticas de valores extremos (EVS) de matrizes aleatórias Hermitianas, com base na abordagem de polinômios ortogonais, em matrizes aleatórias normais e em gases Coulomb 2D em geral. A força desta abordagem a sua compreensão física e intuitiva. Em primeiro lugar, essa abordagem fornece uma derivação alternativa de resultados na literatura. Precisamente falando, mostramos a convergência do autovalor redimensionado com o maior módulo de um conjunto de Ginibre para uma distribuição de Gumbel, bem como a universalidade para um potencial arbitrário radialmente simtérico que atenda certas condições. Em segundo lugar, mostra-se que esta abordagem pode ser generalizada para obter a convergência do autovalor com menor módulo e sua universalidade no limite interno finito do suporte do autovalor. Um aspecto interessante deste trabalho é o fato de que podemos usar técnicas padrão de matrizes aleatórias Hermitianas para obter o EVS de matrizes aleatórias não Hermitianas. / [en] With diverse applications in mathematics, physics, and finance, Random Matrix Theory (RMT) has recently attracted a great deal of attention. While Hermitian RMT is of special importance in physics because of the Hermiticity of operators associated with observables in quantum mechanics, non-Hermitian RMT has also attracted a considerable attention, in particular because they can be used as models for dissipative or open physical systems. However, due to the absence of a simplifying symmetry, the study of non-Hermitian random matrices is, in general, a diffcult task. A special subset of non-Hermitian random matrices, the so-called random normal matrices, are interesting models to consider, since they offer more symmetry, thus making them more amenable to analytical investigations. By definition, a normal matrix M is a square matrix which commutes with its Hermitian adjoint, i.e., (M, M (1)). In this thesis, we present a novel derivation of extreme value statistics (EVS) of Hermitian random matrices, namely the approach of orthogonal polynomials, to normal random matrices and 2D Coulomb gases in general. The strength of this approach is its physical and intuitive understanding. Firstly, this approach provides an alternative derivation of results in the literature. Precisely speaking, we show convergence of the rescaled eigenvalue with largest modulus of a Ginibre ensemble to a Gumbel distribution, as well as universality for an arbitrary radially symmetric potential which meets certain conditions. Secondly, it is shown that this approach can be generalised to obtain convergence of the eigenvalue with smallest modulus and its universality at the finite inner edge of the eigenvalue support. One interesting aspect of this work is the fact that we can use standard techniques from Hermitian random matrices to obtain the EVS of non-Hermitian random matrices.
596

CONTRIBUTIONS TO STATISTICAL CONTROL OF MULTIPLE STREAM PROCESSES / CONTRIBUIÇÕES PARA O CONTROLE ESTATÍSTICO DE PROCESSOS COM MÚLTIPLOS CANAIS

LAURA FRANCA MARQUES BARBOSA 28 February 2008 (has links)
COORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR / Processos com diversos canais em paralelo são muito comuns na indústria; um exemplo são operações de enchimento, encontradas nas indústrias farmacêutica, alimentícia, cosmética e de bebidas. O método clássico para o controle estatístico desse tipo de processos, as group charts (Boyd, 1950), é pouco eficiente, por não considerar que uma parcela da variação nestes processos é comum a todos os canais. Mortell e Runger, em 1995, propuseram um esquema alternativo que leva este fato em conta. No ano seguinte, Runger, Alt e Montgomery propuseram um outro esquema. A presente dissertação propõe um terceiro esquema para o controle de tais processos. O seu modelo formal detalhado, as expressões para cálculo dos limites de controle e a análise de seu desempenho são contribuições originais. As probabilidades de sinal e o número esperado de amostras até a sinalização de alterações na média da parcela individual de um dos canais foram obtidas analiticamente e/ou por simulação, e utilizadas para comparação de desempenho com o esquema de Mortell e Runger. Os resultados demonstram a superioridade do esquema proposto para a detecção de variações superiores a um desvio-padrão na média da parcela individual de um canal do processo. Para detectar variações menores, nenhum dos dois esquemas é eficiente. O esquema de Runger et al. (1996) tem, para o caso de alteração em um canal apenas, desempenho igual ou inferior a ambos. Assim, o esquema aqui proposto revela-se o mais eficiente de todos. Uma série de extensões e questões em aberto para pesquisa futura são indicadas. / Processes with several streams in parallel are very common in industry. Filling operations, such as the ones found in the pharmaceutical, cosmetics, or food and beverage industries are a typical example. The classical scheme for the statistical control of multiple-stream processes (MSP) is the group chart (Boyd, 1950). Its efficiency is impaired by its underlying model of the process not considering that part of the variation in MSP is common to all streams. In 1995, Mortell and Runger (M&R) proposed an alternative scheme which takes this fact into account. In the next year, Runger, Alt and Montgomery proposed another scheme. This dissertation proposes a third scheme for statistical control of MSP. The detailed mathematical model, the expressions for establishing the control limits, and the performance analysis here are original contributions. The probabilities of a signal and average run lengths in the case of shifts in the mean of one individual stream were obtained either analytically or by simulation and compared with the ones of M&R´s scheme. The results show the superiority of the proposed scheme for signaling shifts greater or equal to one standard deviation. For smaller shifts, neither scheme can be said to be really efficient. As to the scheme proposed by Runger et al. (1996), it is in some cases slower and in some cases just as fast as M&R`s, so the proposed scheme is the fastest of all. A number of extensions and open issues are indicated for future research.
597

STATISTICAL CONTROL OF A MULTIPLE-STREAM PROCESS WITH VARIABLE MEANS / CONTROLE ESTATÍSTICO DE UM PROCESSO MULTICANAL COM MÉDIAS VARIÁVEIS

ITALO PARENTE DE BARROS 05 March 2008 (has links)
COORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR / Este trabalho mostra a implantação de técnicas de Controle Estatístico de Processo (CEP) em uma indústria de cosméticos, em uma situação em que as técnicas convencionais não são aplicáveis. O processo a ser controlado é constituído de oito canais, que produzem em um mesmo instante de tempo oito unidades de um mesmo produto. Tal processo possui a peculiaridade de ter médias variáveis no tempo, mesmo em estado de controle estatístico. Como os métodos de controle propostos na literatura para processos com múltiplos canais têm como premissa médias constantes ao longo do tempo e os canais terem médias e variâncias semelhantes, tais métodos não são aplicáveis ao processo em questão. Para o CEP do processo, então, foi desenvolvida uma metodologia adaptada à realidade da empresa, que conjuga os princípios de group charts e de gráficos de controle de aceitação. Foi ainda realizada uma revisão bibliográfica de algumas técnicas de controle estatístico de processos com múltiplos canais, contemplando métodos tradicionais e não tradicionais. / This study shows the implantation of techniques of Statistical Process Control (SPC) in a cosmetics industry, in a situation in which conventional techniques are not applicable. The process to be controlled is composed of eight streams, which produce eight units of the product at a time. The process has the peculiarity that the means of the streams change in time, even in a condition of statistical control. The control schemes proposed in the literature hitherto for multiple-stream processes assume constant means, and streams with similar means and variance, and are therefore not applicable to this process. A new scheme was then developed for the statistical control of the process, which blends the principles of the group charts and of acceptance control charts. A review was also presented of some techniques of statistical control of multiple-stream processes, including traditional and more recent methods.
598

Estatísticas agrícolas por amostragem auxiliadas pelo sensoriamento remoto / Agricultural statistics by sampling with the aid of remote sensing

Alfredo José Barreto Luiz 03 December 2003 (has links)
A utilização correta da estatística em qualquer área de aplicação depende, primordialmente, do grau de conhecimento da natureza dos dados empregados e do nível de clareza dos objetivos estabelecidos. O sensoriamento remoto oferece um conjunto muito particular de dados, com características que precisam ser levadas em consideração na escolha dos métodos estatísticos a serem utilizados na sua análise. A aplicação destes dados em agricultura, em especial quando visa à delimitação e à quantificação de área das culturas agrícolas, define objetivos bem específicos que devem influir na determinação das técnicas de análise estatística. A união teoricamente embasada do sensoriamento remoto e da estatística, de forma adequada à estimativa de área plantada, resulta em um avanço na eficiência do uso dos dados de sensores orbitais para fins agrícolas. Nesse sentido, este documento apresenta: 1) um método para preparação e utilização de imagens obtidas por satélite para serem usadas em levantamentos agrícolas por amostragem; 2) a forma de cálculo das estimativas objetivas de área plantada e suas respectivas variâncias; 3) um estudo de caso que consiste na estimativa da área plantada com as principais culturas agrícolas, em âmbito municipal, através do uso de dados obtidos por sensoriamento remoto; e 4) a expansão do método, por simulação, para a escala estadual e nacional. / The proper utilization of statistics in any application area depends primarily on the degree of knowledge of the nature of employed data, as well as on the level of clarity of established goals. Remote sensing offers a rather particular set of data that bear characteristics that must be taken into consideration when choosing the statistical methods to be used in analysis. Application of those data in agriculture will, particularly when the aim is the delimitation and quantification of crop areas, define quite specific goals that should influence on the selection of statistical analysis techniques. The theoretically-based alliance between remote sensing and statistics in a way that is adequate to estimate crop areas, results in a step ahead in the efficient use of data from orbital sensors for agriculture aims. In this direction, this document brings: 1) a method to prepare and use satellite images in agricultural surveys by sampling; 2) the way to calculate objective estimates of crop area and their respective variances; 3) a case study consisting in the estimate of total planted area in a municipality, considering all major crops, with the use of data from remote sensing; and 4) the up scaling of method, by simulation, to regional and national level.
599

STATISTICAL DETECTION OF PERFORMANCE ANOMALIES IN MIDDLEWARE-BASED SYSTEMS / DETECÇÃO ESTATÍSTICA DE ANOMALIAS DE DESEMPENHO EM SISTEMAS BASEADOS EM MIDDLEWARE

SAND LUZ CORRÊA 01 April 2011 (has links)
CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICO / Tecnologias de middleware têm sido amplamente adotadas pela indústria de software para reduzir o custo do desenvolvimento de sistemas computacionais. No entanto, é difícil estimar o desempenho de aplicações baseadas em middleware devido a fatores como a especificidade de implementação das plataformas de middleware e a multiplicidade de serviços e configurações provida para diferentes cenários de implantação. O gerenciamento do desempenho de aplicações baseadas em middeware pode ser uma tarefa não trivial. Computação autonômica é um novo paradigma para construir sistemas autogerenciáveis, que procuram operar com o mínimo de intervenção humana. Este trabalho investiga o uso de abordagens estatísticas para construir mecanismos autonômicos de controle do desempenho de aplicações baseadas em middleware. Particularmente, investigamos o tema sob três perspectivas. A primeira é pertinente à previsão de problemas de desempenho. Propomos o uso de técnicas de classificação para derivar modelos de desempenho que auxiliem o gerenciamento autonômico das aplicações. Nesse sentido, diferentes classes de modelos em aprendizado estatístico são avaliadas, tanto em cenários de aprendizado offline quanto online. A segunda perspectiva refere-se à redução da emissão de alarmes falsos, visando a construção de mecanismos robustos a falhas transientes dos classificadores. Este trabalho propõe um algoritmo que aumenta o poder de predição das técnicas de aprendizado estatístico combinando-as com testes estatísticos para a detecção de tendência. Por fim, a terceira perspectiva é pertinente ao diagnóstico das causas de um problema de desempenho. Para esse contexto, também propomos o uso de testes estatísticos. Os resultados apresentados nesta tese demonstram que abordagens estatísticas podem contribuir para a construção de ferramentas eficazes e eficientes para a caracterização do desempenho de aplicações baseadas em middleware. Portanto, essas abordagens podem contribuir de forma decisiva para diferentes perspectivas do problema. / Middleware technologies have been widely adopted by the software industry to reduce the cost of developing computer systems. Nonetheless, predicting the performance of middleware-based applications is difficult due to specific implementation details of a middleware platform and a multitude of settings and services provided by middleware for different deployment scenarios. Thus, the performance management of middleware-based applications can be a non-trivial task. Autonomic computing is a new paradigm for building self-managed systems, i.e., systems that seek to operate with minimal human intervention. This work investigates the use of statistical approaches to building autonomic management solutions to control the performance of middleware-based applications. Particularly, we investigate this issue from three perspectives. The rest is related to the prediction of performance problems. We propose the use of classiffcation techniques to derive performance models to assist the autonomic management of distributed applications. In this sense, different classes of models in statistical learning are assessed in both online and online learning scenarios. The second perspective refers to the reduction of false alarms, seeking the development of reliable mechanisms that are resilient to transient failures of the classifiers. This work proposes an algorithm to augment the predictive power of statistical learning techniques by combining them with statistical tests for trend detection. Finally, the third perspective is related to diagnosing the root causes of a performance problem. For this context, we also propose the use of statistical tests. The results presented in this thesis show that statistical approaches can contribute to the development of tools that are both effective, as well as effcient in characterizing the performance of middleware-based applications. Therefore, these approaches can contribute decisively to different perspectives of the problem.
600

RECOMMENDER SYSTEM TO SUPPORT CHART CONSTRUCTIONS WITH STATISTICAL DATA / SISTEMA DE RECOMENDAÇÃO PARA APOIAR A CONSTRUÇÃO DE GRÁFICOS COM DADOS ESTATÍSTICOS

TAISSA ABDALLA FILGUEIRAS DE SOUSA 22 March 2013 (has links)
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO / Pesquisas sobre visualização de dados estatísticos demonstram a necessidade de sistemas que apóiem tomadas da decisões e análises visuais. Constatando problemas de construção de visualizações por usuários inexperientes, nossa questão de pesquisa foi: Como apoiar usuários inexperientes na construção de visualizações eficientes com dados estatísticos? Assim, desenvolvemos ViSC, um sistema de recomendações que apóia a construção interativa de gráficos para visualizar dados estatísticos, através de uma série de recomendações baseadas nos dados selecionados e na interação do usuário com a ferramenta. O sistema explora uma ontologia de visualização para oferecer um conjunto de gráficos que ajudam a responder questões baseadas em informação relacionadas aos dados exibidos no gráfico. Percorrendo os gráficos recomendados através de suas questões relacionadas, o usuário implicitamente adquire conhecimento tanto do domínio quanto dos recursos de visualização que melhor representam os conceitos do domínio de interesse. Esta dissertação apresenta os problemas que motivaram a pesquisa, descreve a ferramenta ViSC e apresenta os resultados de uma pesquisa qualitativa realizada para avaliar ViSC. Para a avaliação, utilizamos o Método de Inspeção Semiótica (MIS) e o Retrospective Communicability Evaluation (RCE) — uma combinação do Método de Avaliação da Comunicabilidade (MAC) e Retrospective Think Aloud Protocol. Concentramo-nos em verificar como as recomendações influenciam na realização de uma tarefa e nas visualizações geradas para então endereçar nossa questão mais ampla. / Research on statistical data visualization emphasizes the need for systems that assist in decision-making and visual analysis. Having found problems in chart construction by novice users, we decided to research the following question: How can we support novice users to create efficient visualizations with statistical data? Thus we, created ViSC, a recommender system that supports the interactive construction of charts to visualize statistical data by offering a series of recommendations based on the selected data and the user interaction with the tool. The system explores a visualization ontology to offer a set of graphs that help to answer information-based questions related to the current graph data. By traversing the recommended graphs through their related questions, the user implicitly acquires knowledge both on the domain and on visualization resources that better represent the domain concepts of interest. This dissertation presents the problems that motivated the research, describes the ViSC tool and presents the results of a qualitative study conducted to evaluate ViSC. We used two methods in our evaluation: the Semiotic Inspection Method (SIM) and the Retrospective Communicability Evaluation (RCE) — a combination of the Communicability Evaluation Method (CEM) and Retrospective Think Aloud Protocol. We first analyze how the questions influence the users traversal through the graph and, then, we address the broader question.

Page generated in 0.4119 seconds