• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 38
  • 28
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

[en] DETECTION, SEPARATION E CLASSIFICATION OF PARTIAL DISCHARGE SIGNALS IN HIGH VOLTAGE INSULATIONS / [pt] DETECÇÃO, SEPARAÇÃO E CLASSIFICAÇÃO DE SINAIS DE DESCARGAS PARCIAIS EM ISOLAMENTOS DE ALTA TENSÃO

THIAGO BAPTISTA RODRIGUES 03 November 2020 (has links)
[pt] A medição e classificação de descargas parciais constituem uma importante ferramenta de avaliação dos sistemas de isolamento utilizados em equipamentos de alta tensão. Após o pré-processamento dos dados, que captura, digitaliza e filtra o sinal de descargas parciais, geralmente eliminando os ruídos, existem basicamente duas etapas principais, que são a extração de características e a classificação de padrões. As descargas parciais contêm um conjunto de características discriminatórias únicas que lhes permitem ser reconhecidas. Assim, o primeiro procedimento no processo de classificação é definir quais delas podem ser utilizadas e qual o método de extração destas características. O fenômeno de descargas parciais tem uma natureza transitória e é caracterizado por correntes pulsantes com uma duração de vários nanossegundos até poucos microssegundos. Sua magnitude não é sempre proporcional ao dano causado, sendo que descargas de pequena magnitude podem levar rapidamente à evolução de um defeito. Por isso a necessidade de se entender bem este fenômeno e saber interpretar os dados. Além disso, equipamentos de alta tensão de grande porte, como motores e geradores, podem apresentar mais de uma fonte interna de descargas parciais, sendo importante separar os sinais dessas diferentes fontes antes de realizar a classificação. No caso de outros equipamentos de alta tensão de menor porte, como para-raios e transformadores de corrente de subestação, a simples detecção da presença de descargas parciais interna ao equipamento, independente do número de fontes, já é suficiente para indicar a retirada de operação destes equipamentos, dado seu baixo custo relativo e o elevado grau de importância destes para a confiabilidade do sistema onde estão inseridos. Para um diagnóstico completo e confíável de isolamentos de alta tensão, há a demanda por um sistema de análise capaz de promover com eficácia a detecção de descargas parciais internas aos equipamentos, a separação das diversas fontes de descargas parciais, no caso dos equipamentos de grande porte, bem como realizar a correta classificação do tipo de defeito, com base principalmente na análise das características discriminantes das diferentes fontes e na assinatura dos sinais para os diferentes defeitos. Este estudo contribui para o preenchimento desta lacuna, apresentando metodologias que se mostram robustas e precisas nos testes realizados, de modo que possam efetivamente orientar os especialistas em manutenção na tomada de decisões. Para fazer isso, são propostas novas variáveis capazes de extrair informações relevantes de sinais no tempo medidos em diversos tipos de isolamentos, sendo aplicadas aqui em dados obtidos em campo e em laboratório para avaliar sua eficácia na tarefa. Essas informações são tratadas utilizando técnicas de classificação de padrões e inteligência artificial para determinar de forma automática a presença de descargas parciais, o número de fontes diferentes e o tipo de defeito nos isolamentos de alta tensão utilizados no estudo. Outra contribuição do estudo é a criação de um banco de dados histórico, baseada em processamento de imagem, com padrões de mapas de descargas parciais conhecidos na literatura em máquinas rotativas, para serem utilizados na classificação de novos mapas medidos neste tipo de equipamento. / [en] Measurement and classification of partial discharges are an important tool for the evaluation of insulation systems used in high voltage equipments. After pre-processing of data, which captures, scans and filters the signal of partial discharges, generally eliminating noises, there are basically two main steps, which are the extraction of characteristics and the pattern classification. Partial discharges contain a set of unique discriminatory characteristics that allow them to be recognized. Thus, the first procedure in the classification process is to define which of them can be used and which is the method for extraction of those characteristics. The phenomenon of partial discharges has a transient nature and is characterized by pulsating currents with a duration of several nanoseconds up to a few microseconds. Its magnitude is not always proportional to the damage caused, and discharges of small magnitude can quickly lead to the evolution of a failure. Therefore the need to understand this phenomenon well and to know how to interpret the data. In addition, large high voltage equipments such as motors and generators may have more than one internal source of partial discharges, and it is important to separate the signals from those different sources prior to classification. In the case of smaller high voltage equipments, as surge arrester and substation current transformers, the simple detection of the presence of partial discharges inside the equipment, regardless of the number of sources, is sufficient to indicate the withdrawal of operation of the equipment, given their low relative cost and the high degree of importance of these to the reliability of the system where they are part of. For a complete and reliable diagnosis of high voltage insulations, there is a demand for an analysis system capable of effectively promoting the detection of the partial discharges internal to the equipments, the separation of the various sources of partial discharges in the case of large equipments, as well as to carry out the correct classification of the type of failure. The system should be based mainly on the analysis of the discriminating characteristics of the different sources and the signature of the signals for the different failure. This study contributes to fill this gap by presenting methodologies that are robust and accurate in the tests performed, so that they can effectively guide maintenance specialists in decision making. To do this, new variables are proposed to extract relevant information from time signals measured in various types of insulations, being applied here in field and laboratory data to evaluate their effectiveness in the task. This information is treated using standard classification techniques and artificial intelligence to automatically determine the presence of partial discharges, the number of different sources and the type of defect in the high voltage insulations used in the study. Another contribution of the study is the creation of a historical database, based on image processing, with partial discharge map patterns known in the literature on rotating machines, to be used in the classification of new maps measured in this type of equipment.
32

[en] A STUDY ON ELLIPSOIDAL CLUSTERING / [pt] UM ESTUDO SOBRE AGRUPAMENTO BASEADO EM DISTRIBUIÇÕES ELÍPTICAS

RAPHAEL ARAUJO SAMPAIO 16 January 2019 (has links)
[pt] A análise de agrupamento não supervisionado, o processo que consistem em agrupar conjuntos de pontos de acordo com um ou mais critérios de similaridade, tem desempenhado um papel essencial em vários campos. O dois algoritmos mais populares para esse processão são o k-means e o Gaussian Mixture Models (GMM). O primeiro atribui cada ponto a um único cluster e usa a distância Euclidiana como similaridade. O último determina uma matriz de probabilidade de pontos pertencentes a clusters, e usa distância de Mahalanobis como similaridade. Além da diferença no método de atribuição - a chamada atribuição hard para o primeiro e a atribuição soft para o último - os algoritmos também diferem em relação à estrutura do cluster, ou forma: o k-means considera estruturas esféricas no dados; enquanto o GMM considera elipsoidais através da estimação de matrizes de covariância. Neste trabalho, um problema de otimização matemática que combina a atribuição hard com a estrutura do cluster elipsoidal é detalhado e formulado. Uma vez que a estimativa da covariância desempenha um papel importante no comportamento de estruturas agrupamentos elipsoidais, técnicas de regularizações são exploradas. Neste contexto, dois métodos de meta-heurística, uma perturbação Random Swap e um algoritmo híbrido genético, são adaptados, e seu impacto na melhoria do desempenho dos métodos é estudado. O objetivo central dividido em três: compreender as condições em que as estruturas de agrupamento elipsoidais são mais benéficas que as esféricas; determinar o impacto da estimativa de covariância com os métodos de regularização; e analisar o efeito das meta-heurísticas de otimização global na análise de agrupamento não supervisionado. Finalmente, a fim de fornecer bases para a comparação das presentes descobertas com futuros trabalhos relacionados, foi gerada uma base de dados com um extenso benchmark contendo análise das variações de diferentes tamanhos, formas, número de grupos e separabilidade, e seu impacto nos resultados de diferentes algoritmos de agrupamento. Além disso, pacotes escritos na linguagem Julia foram disponibilizados com os algoritmos estudados ao longo deste trabalho. / [en] Unsupervised cluster analysis, the process of grouping sets of points according to one or more similarity criteria, plays an essential role in various fields. The two most popular algorithms for this process are the k-means and the Gaussian Mixture Models (GMM). The former assigns each point to a single cluster and uses Euclidean distance as similarity. The latter determines a probability matrix of points to belong to clusters, and the Mahalanobis distance is the underlying similarity. Apart from the difference in the assignment method - the so-called hard assignment for the former and soft assignment for the latter - the algorithms also differ concerning the cluster structure, or shape: the k-means considers spherical structures in the data; while the GMM considers ellipsoidal ones through the estimation of covariance matrices. In this work, a mathematical optimization problem that combines the hard assignment with the ellipsoidal cluster structure is detailed and formulated. Since the estimation of the covariance plays a major role in the behavior of ellipsoidal cluster structures, regularization techniques are explored. In this context, two meta-heuristic methods, a Random Swap perturbation and a hybrid genetic algorithm, are adapted, and their impact on the improvement of the performance of the methods is studied. The central objective is three-fold: to gain an understanding of the conditions in which ellipsoidal clustering structures are more beneficial than spherical ones; to determine the impact of covariance estimation with regularization methods; and to analyze the effect of global optimization meta-heuristics on unsupervised cluster analysis. Finally, in order to provide grounds for comparison of the present findings to future related works, a database was generated together with an extensive benchmark containing an analysis of the variations of different sizes, shapes, number of clusters, and separability and their impact on the results of different clustering algorithms. Furthermore, packages written in the Julia language have been made available with the algorithms studied throughout this work.
33

[en] STABILITY AND PERTURBATIVITY CONSTRAINTS ON HIGGS PORTAL MODELS / [pt] VÍNCULOS DE ESTABILIDADE E PERTURBATIVIDADE EM MODELOS DE PORTAL DE HIGGS

MARCUS VINÍCIUS MARINHO PEREIRA DE MELO 10 January 2019 (has links)
[pt] O Modelo Padrão é uma das teorias mais bem sucedidas da física de partículas. Com a descoberta do bóson de Higgs, além de ter sido uma demonstração robusta do poder preditivo do Modelo Padrão, foi aberto um novo caminho para a investigação de nova física interagindo por meio do portal de Higgs, incluindo cenários motivados por matéria escura e bariogênese. Investigamos a estabilidade do potencial e os pólos de Landau do Modelo Padrão sob efeito da interação entre o bóson de Higgs e uma partícula escalar. Focamos no regime onde os escalares são gerados primariamente via um off-shell Higgs. Prevemos o espaço de parâmetros disponível para acessar a teoria em diferentes valores de massa do campo escalar. / [en] The Standard Model is one of the most successful theories in particle physics. With the discovery of the Higgs boson, a new pathway has been opened to investigate possible new physics interacting through the Higgs portal, including scenarios motivated by dark matter and baryogenesis. Supposing there is a neutral scalar state in the Standard Model coupled to it only through the Higgs portal, we investigate the potential stability and the Landau poles of the extended Standard Model potential. We focus on the regime in which the scalars are primarily generated via an off-shell Higgs. We predict the available parameter space to probe the theory for different mass values.
34

[en] THE SKY IS THE LIMIT, BUT IT IS INDISPENSABLE TO KEEP FEET ON THE GROUND: A (RE)CREATION OF ACTION STANDARDS IN A HIGHLY REGULATED ENVIRONMENT / [pt] O CÉU É O LIMITE! MAS É IMPERATIVO MANTER OS PÉS NO CHÃO: A (RE)CRIAÇÃO DOS PADRÕES DE AÇÃO EM AMBIENTE ALTAMENTE REGULAMENTADO

NICÁSSIA FELICIANA NOVÔA 18 December 2017 (has links)
[pt] Como os padrões de ação são (re)criados em um ambiente altamente regulamentado? Este estudo objetiva apresentar proposições teóricas acerca de que quanto mais as pessoas vivenciam rotinas adaptativas em um ambiente altamente regulamentado, mais os padrões de ação são recompostos e legitimados a partir do repertório de práticas. Devido ao seu papel efetivo no organizing e ao seu poder generativo em produzir novos padrões de ação ao longo do tempo (PENTLAND e HAEREM, 2015), as rotinas foram aplicadas como unidades de análise para compreender os elementos constituintes da rotina adaptativa no contexto social (PENTLAND et al., 2011) de uma organização altamente regulamentada, além de possibilitar a análise de como ocorre o processo de (re)criação dos padrões de ação tendo como fundamento os Estudos Baseados na prática (FELDMAN e ORLIKOWSKI, 2011). A regulamentação foi analisada abordando as dimensões apresentadas no trabalho de Pentland (1995), com foco na estrutura organizacional, cultura, tecnologia, coordenação e processos, aplicados ao modelo construtivista de Orlikowski (2000), que contribuiu para a construção da visão macro de distintos contextos presentes nas práticas sociais analisadas na organização. Após a construção da visão macro do contexto do ambiente altamente regulamentado, aplicou-se o modelo do sistema generativo interacionista simbólico de Dionysiou e Tsoukas (2013), que proporcionou o entendimento de como os padrões de ação na prática são criados, compartilhados, mantidos e alterados coletivamente, por meio de ciclos de interação coletivos a partir do mecanismo de tomada de papéis de Mead (1934). Assim, por meio do método do estudo de caso interacionista simbólico, a pesquisa de campo foi dividida em duas etapas. Na primeira etapa de coleta de dados realizou-se a observação direta, que ocorreu no período de 22 de agosto a 14 de outubro de 2016, gerando dados primários das práticas dos sujeitos in loco, evidenciados pelas notas de campo, e dados secundários oriundos da análise documental das políticas internas da empresa, documentos normativos, múltiplos documentos do sistema de gestão da qualidade como as instruções de trabalho, formulários de distintos setores e informações sobre as tecnologias e sistemas de TI para execução dos procedimentos da empresa. A segunda etapa de coleta de dados ocorreu por meio de entrevistas com 24 pessoas, para captar a percepção dos atores sobre suas práticas. Os dados foram sistematizados pela análise de conteúdo (BARDIN, 2011) com auxílio do sistema ATLAS.ti. Os resultados do estudo apresentaram três formas distintas de como os padrões de ação podem variar em ambiente altamente regulamentado, sustentando, assim, que o tipo de agencement (GHERARDI, 2016), ou seja, o tipo de conexões estabelecidas na relação entre agentes, agência, estrutura, artefatos falantes e silenciosos, componentes não humanos e ação que compõem o contexto, e sua conexão com os elementos intervenientes (estilo de gestão, tipo de área funcional, accountability, integração da equipe, experiência, cognitivo, motivação, engajamento de recursos pessoais, engajamento afetivo e amplitude da network) afetam a variação dos padrões de ação. Outro aspecto relevante é que quanto maior a necessidade de inclusão de indivíduos de grupos distintos (outras áreas e de níveis hierárquicos diferentes) no processo de validação consensual coletiva, maior a necessidade de ciclos de interação para o alinhamento das ações. Assim, aumenta-se a complexidade desse processo, além de diminuir a sua dinâmica e fluidez para a adaptação das ações dos atores diante das incertezas do contexto. Enfim, o estudo propõe ponderações para a literatura das rotinas organizacionais na prática social, explorando as rotinas adaptativas em ambiente altamente regulamentado que induzem a (re)recomposição de padrões de ação a partir do repertório de práticas. Nesse contexto, o céu é o limite para criatividade dos atores / [en] How are action patterns (re) created in a highly regulated environment? This study aims to present theoretical propositions about how more people experience adaptive routines in a highly regulated environment, but the patterns of action are recomposed and legitimized from the repertoire of practices. Due to its effective role in organizing and its generative power to produce new patterns of action over time (PENTLAND and HAEREM, 2015), routines were applied as units of analysis to understand the constituent elements of the adaptive routine in the social context PENTLAND et al., 2011) of a highly regulated organization, besides allowing the analysis of how the process of (re) creation of action patterns occurs on the basis of Practice-Based Studies (FELDMAN and ORLIKOWSKI, 2011). The regulation was analyzed by addressing the dimensions presented in the work of Pentland (1995), focusing on the organizational structure, culture, technology, coordination and processes, applied to the constructivist model of Orlikowski (2000), which contributed to the construction of the macro view of different Contexts present in the social practices analyzed in the organization. After constructing the macro view of the highly regulated environment context, the Dionysiou and Tsoukas (2013) symbolic interactional generative system model was applied, which provided an understanding of how patterns of action in practice are created, shared, maintained and Altered collectively, by means of collective interaction cycles from the paper-making mechanism of Mead (1934). Thus, through the method of the symbolic interactionist case study, field research was divided into two stages. In the first stage of data collection, a direct observation was performed, which occurred from August 22 to October 14, 2016, generating primary data of the in loco practices, evidenced by field notes, and secondary data Document analysis of the company s internal policies, normative documents, multiple quality management system documents such as work instructions, forms from different sectors and information on IT technologies and systems to carry out company procedures. The second stage of data collection took place through the interviews with 24 people, to capture the actors perception of their practices. The data were systematized by the content analysis (BARDIN, 2011) with the aid of the ATLAS.ti system. The results of the study presented three different ways in which patterns of action may vary in a highly regulated environment, thus maintaining that the type of agencement (GHERARDI, 2016), in other words, the type of connections established in the relationship between agents, agency, (Management Style, Functional Area Type, Accountability, Team Integration, Experience, Cognitive, Motivation, Engagement) Of Personal Resources, Affective Engagement, and Network Amplitude) that all of these aspects together affect the variation of action patterns. Another relevant aspect is the greater the need to include individuals from different groups (other areas and different hierarchical levels) in the collective consensual validation process, the greater the need for interaction cycles for the alignment of actions and, thus, increases The complexity of this process, in addition to reducing its dynamics and fluidity for the adaptation of the actors actions in the face of the uncertainties of the context. Finally, the study proposes weightings for the literature of organizational routines in social practice, exploring the adaptive routines in a highly regulated environment that induce (re) recomposition of action patterns from the repertoire of practices. In this context, the sky is the limit for the creativity of actors to (re) create their action patterns, but it is imperative to keep your feet on the ground revering the mantle of regulation.
35

[en] ON INTERVAL TYPE-2 FUZZY LOGIC SYSTEM USING THE UPPER AND LOWER METHOD FOR SUPERVISED CLASSIFICATION PROBLEMS / [pt] SISTEMAS DE INFERÊNCIA FUZZY INTERVALAR DO TIPO-2 USANDO O MÉTODO SUPERIOR E INFERIOR PARA PROBLEMAS DE CLASSIFICAÇÃO SUPERVISIONADOS

RENAN PIAZZAROLI FINOTTI AMARAL 04 October 2021 (has links)
[pt] Os sistemas de inferência fuzzy são técnicas de aprendizado de máquina que possuem a capacidade de modelar incertezas matematicamente. Eles são divididos em sistemas de inferências fuzzy tipo-1 e fuzzy tipo-2. O sistema de inferência fuzzy tipo-1 vem sendo amplamente aplicado na solução de diversos problemas referentes ao aprendizado de máquina, tais como, controle, classificação, clusterização, previsão, dentre outros. No entanto, por apresentar uma melhor modelagem matemática das incertezas, o sistema de inferência fuzzy tipo-2 vem ganhando destaque ao longo dos anos. Esta melhora modelagem vem também acompanhada de um aumento do esforço matemático e computacional. Visando reduzir tais pontos para solucionar problemas de classificação, este trabalho apresenta o desenvolvimento e a comparação de duas funções de pertinência Gaussiana para um sistema de inferência fuzzy tipo-2 intervalar usando o método superior e inferior. São utilizadas as funções de pertinência Gaussiana com incerteza na média e com incerteza no desvio padrão. Ambos os modelos fuzzy abordados neste trabalho são treinados por algoritmos baseados em informações de primeira ordem. Além disso, este trabalho propõe a extensão dos modelos fuzzy tipo-2 intervalar para apresentarem múltiplas saídas, reduzindo significativamente o custo computacional na solução de problemas de classificação multiclasse. Finalmente, visando contextualizar a utilização desses modelos em aplicações de engenharia mecânica, este trabalho apresenta a solução de um problema de detecção de falhas em turbinas a gás, utilizadas em aeronaves. / [en] Fuzzy logic systems are machine learning techniques that can model mathematically uncertainties. They are divided into type-1 fuzzy, and type-2 fuzzy logic systems. The type-1 fuzzy logic system has been widely applied to solve several problems related to machine learning, such as control, classification, clustering, prediction, among others. However, as it presents a better mathematical modeling of uncertainties, the type-2 fuzzy logic system has received much attention over the years. This modeling improvement is also accompanied by an increase in mathematical and computational effort. Aiming to reduce these issues to solve classification problems, this work presents the development and comparison of two Gaussian membership functions for a type-2 interval fuzzy logic system using the upper and lower method. Gaussian membership functions with uncertainty in the mean and with uncertainty in the standard deviation are used. Both fuzzy models covered in this work are trained by algorithms based on first order information. Furthermore, this work proposes the extension of interval type-2 fuzzy models to present multiple outputs, significantly reducing the computational cost in solving multiclass classification problems. Finally, aiming to contextualize the use of these models in mechanical engineering applications, this work presents the solution of a problem of fault detection in aircraft gas turbines.
36

[pt] MODELO SUBSTITUTO PARA FLUXO NÃO SATURADO VIA REGRESSÃO POLINOMIAL EVOLUCIONÁRIA: CALIBRAÇÃO COM O ENSAIO DE INFILTRAÇÃO MONITORADA / [en] SURROGATE MODEL FOR UNSATURATED FLOW THROUGH EVOLUTIONARY POLYNOMIAL REGRESSION: CALIBRATION WITH THE MONITORED INFILTRATION TEST

RUAN GONCALVES DE SOUZA GOMES 26 February 2021 (has links)
[pt] A análise de fluxo de água sob condição transiente não saturada requer o conhecimento das propriedades hidráulicas do solo. Essas relações constitutivas, denominadas curva característica e função de condutividade hidráulica, são descritas através de modelos empíricos que geralmente possuem vários parâmetros que devem ser calibrados com relação a dados coletados. Muitos dos parâmetros nos modelos constitutivos não podem ser medidos diretamente em campo ou laboratório, mas somente podem ser inferidos de forma significativa a partir de dados coletados e da modelagem inversa. Para obter os parâmetros do solo com a análise inversa, um algoritmo de otimização de busca local ou global pode ser aplicado. As otimizações globais são mais capazes de encontrar parâmetros ótimos, no entanto, a solução direta, por meio da modelagem numérica é computacionalmente custosa. Portanto, soluções analíticas (modelo substituto) podem superar essa falha acelerando o processo de otimização. Nesta dissertação, apresentamos a Regressão Polinomial Evolucionária (EPR) como uma ferramenta para desenvolver modelos substitutos do fluxo não saturado. Um rico conjunto de dados de parâmetros hidráulicos do solo é usado para calibrar o nosso modelo, e dados do mundo real são utilizados para validar nossa metodologia. Nossos resultados demonstram que o modelo da EPR prevê com precisão os dados de carga de pressão. As simulações do modelo se mostram concordantes com as simulações do programa Hydrus. / [en] Water flow analyses under transient soil hydraulic conditions require knowledge of the soil hydraulic properties. These constitutive relationships, named soil-water characteristic curve (SWCC) and hydraulic conductivity function (HCF) are described through empirical models which generally have several parameters that must be calibrated against collected data. Many of the parameters in SWCC and HCF models cannot be directly measured in field or laboratory but can only be meaningfully inferred from collected data and inverse modeling. In order to obtain the soil parameters with the inverse process, a local or global optimization algorithm may be applied. Global optimizations are more capable of fiding optimum parameters, however the direct solution through numerical modeling are time consuming. Therefore, analytical solutions (surrogate models) may overcome this shortcomming by accelerating the optimization process. In this work we introduce Evolutionary Polynomial Regression (EPR) as a tool to develop surrogate models of the physically-based unsaturated flow. A rich dataset of soil hydraulic parameters is used to calibrate our surrogate model, and real-world data are then utilized to validate our methodology. Our results demonstrate that the EPR model predicts accurately the observed pressure head data. The model simulations are shown to be in good agreement with the Hydrus software package.
37

[pt] EFEITO DA ESTIMAÇÃO DOS PARÂMETROS SOBRE O DESEMPENHO CONJUNTO DOS GRÁFICOS DE CONTROLE DE X-BARRA E S / [en] EFFECT OF PARAMETER ESTIMATION ON THE JOINT PERFORMANCE OF THE X-BAR AND S CHARTS

LORENA DRUMOND LOUREIRO VIEIRA 09 July 2020 (has links)
[pt] A probabilidade de alarme falso, alfa, dos gráficos de controle de processos depende dos seus limites de controle, que, por sua vez, dependem de estimativas dos parâmetros do processo. Esta tese apresenta inicialmente uma revisão dos principais trabalhos sobre o efeito dos erros de estimação dos parâmetros do processo sobre alfa quando se utiliza o gráfico de X e S individualmente e em conjunto. O desempenho dos gráficos é medido através de medidas de desempenho (número médio de amostras até o sinal, taxa de alarme falso, distribuição do número de amostras até o sinal, que, em geral, são variáveis aleatórias, função dos erros de estimação. Pesquisas recentes têm focado nas propriedades da distribuição condicional do número de amostras até o sinal, ou ainda, nas propriedades da distribuição da taxa de alarme-falso condicional. Esta tese adota esta abordagem condicional e analisa o efeito da estimação dos parâmetros do processo no desempenho conjunto dos gráficos de X e S em dois casos: Caso KU (Média conhecida – Variância desconhecida) e Caso UU (Média desconhecida – Variância desconhecida). A quase totalidade dos trabalhos anteriores considerou apenas um gráfico, isoladamente; sobre efeito da estimação dos parâmetros sobre o desempenho conjunto conhecemos apenas um trabalho, sobre gráficos de X e R, mas nenhum sobre gráficos de X e S. Os resultados da análise mostram que o desempenho dos gráficos pode ser muito afetado pela estimação de parâmetros e que o número de amostras iniciais requerido para garantir um desempenho desejado é muito maior que os números tradicionalmente recomendados na literatura normativa de controle estatístico de processo (livros texto e manuais). Esse número é, porém, menor que o máximo entre os números requeridos para os gráficos de X e de S individualmente. Questões a serem investigadas como desdobramento dessa pesquisa são também indicadas nas Considerações Finais e Recomendações. / [en] The false-alarm rate of control charts, alpha, depends on the control limits calculated, which depend, in turn, on the estimated process parameters. This dissertation initially presents a review of the main research articles about the effect of the estimation errors of the process parameters upon alpha when X and S charts are used separately and together. The charts performance is evaluated through performance measures (average run-length, false-alarm rate, run-length distribution, etc), which are, in general, random variables, function of the estimation errors. Recent researches focused on the properties of the conditional run-length, or still (in the case of Shewhart charts) on the properties of the conditional false-alarm rate distribution. This dissertation adopts this conditional approach and investigates the effect of parameter estimation on the joint behavior of X and S charts in two cases: KU Case (Known mean – Unknown variance) and UU Case (Unknown mean - Unknown variance). Almost all previous works considered just only one chart separately – just only one joint performance work is known by the author, one about the effect of the estimation errors of the process parameters upon X e R joint performance. The results show that the charts performance can be severely affected by the parameter estimation and the number of initial samples required to ensure the desirable performance is greater than the numbers of initial samples recommended by traditional statistical process control reference texts (books and manuals). This number is, however, smaller than the maximum between the numbers of samples required by the X and the S charts separately. Additional issues for follow-up research are recommended in the concluding section.
38

[pt] CATALOGANDO ANTIPADRÕES DE INJEÇÃO DE DEPENDÊNCIA EM SISTEMAS DE SOFTWARE / [en] CATALOGING DEPENDENCY INJECTION ANTI-PATTERNS IN SOFTWARE SYSTEMS

RODRIGO NUNES LAIGNER 19 June 2020 (has links)
[pt] Contexto Injeção de Dependência (DI) é um mecanismo comumente aplicado para desacoplar classes de suas dependências com o objetivo de prover uma melhor modularização do software. No contexto de Java, a existência de uma especificação de DI e frameworks populares, como o Spring, facilitam o emprego de DI em projetos de software. Entretanto, más práticas de implementação de DI podem trazer más consequências, como maior acoplamento, dificultando alcançar o principal objetivo de DI. Apesar de a literatura sugerir a existência de anti-padrões de DI, não há uma documentação detalhada de tais más práticas. Em adição, não há evidência da ocorrência e da percepção de utilidade dos mesmos do ponto de vista de desenvovedores. Objetivos Nosso objetivo é revisar os anti-padrões de DI reportados com o objetivo de analisar sua completude e propor um novo catálogo de anti-padrões de DI para Java. Método Nós propomos um catálogo contendo 12 anti-padrões de DI para Java. Nós selecionamos 4 projetos open-source e 2 projetos closed-source que adotam um framework de DI e desenvolvemos uma ferramenta que analisa estaticamente a ocorrência dos anti-padrões de DI candidatos no código fonte das aplicações. Em adição, nós conduzimos uma pesquisa por meio de entrevistas face a face com três desenvolvedores experientes que regularmente aplicam DI em seus projetos. Nós estendemos a pesquisa com o objetivo de obter a percepção de um conjunto de 15 desenvolvedores experientes e novatos por meio de um questionário online Resultados Ao menos 9 anti-padrões de DI apareceram frequentemente nos projetos de software analisados. Em adição, a avaliação recebida dos desenvolvedores confirmaram a relevância do catálogo. Por fim, os respondentes expressaram o desejo de refatorar as instâncias de antipadrões de DI propostas. Conclusões O catálogo contém anti-padrões de DI que ocorrem na prática e são úteis. Compartilhar com praticantes da indústria os permitirá evitar a introdução de anti-padrões em seus projetos de software. / [en] Background Dependency Injection (DI) is a commonly applied mechanism to decouple classes from their dependencies in order to provide better modularization of software. In the context of Java, the availability of a DI specification and popular frameworks, such as Spring, facilitate DI usage in software projects. However, bad DI implementation practices can have negative consequences, such as increasing coupling, hindering the achievement of DI s main goal. Even though the literature suggests the existence of DI anti-patterns, there is no detailed documentation of such bad practices. Moreover, there is no evidence on their occurrence and perceived usefulness from the developer s point of view. Aims Our goal is to review the reported DI anti-patterns in order to analyze their completeness and to propose and evaluate a novel catalog of Java DI anti-patterns. Method We propose a catalog containing 12 Java DI anti-patterns. We selected 4 opensource and 2 closed-source software projects that adopt a DI framework and developed a tool to statically analyze the occurrence of the candidate DI anti-patterns within their source code. Also, we conducted a survey through face to face interviews with three experienced developers that regularly apply DI. We extended the survey in order to gather the perception of a set of 15 expert and novice developers through an online questionnaire. Results At least 9 different DI anti-patterns appeared frequently in the analyzed projects. In addition, the feedback received from the developers confirmed the relevance of the catalog. Besides, the respondents expressed their willingness to refactor instances of anti-patterns from source code. Conclusions The catalog contains Java DI anti-patterns that occur in practice and are useful. Sharing it with practitioners may help them to avoid such anti-patterns.

Page generated in 0.0629 seconds