Spelling suggestions: "subject:"padres""
31 |
[en] A STUDY ON ELLIPSOIDAL CLUSTERING / [pt] UM ESTUDO SOBRE AGRUPAMENTO BASEADO EM DISTRIBUIÇÕES ELÍPTICASRAPHAEL ARAUJO SAMPAIO 16 January 2019 (has links)
[pt] A análise de agrupamento não supervisionado, o processo que consistem em agrupar conjuntos de pontos de acordo com um ou mais critérios de similaridade, tem desempenhado um papel essencial em vários campos. O dois algoritmos mais populares para esse processão são o k-means e o Gaussian Mixture Models (GMM). O primeiro atribui cada ponto a um único cluster e usa a distância Euclidiana como similaridade. O último determina uma matriz de probabilidade de pontos pertencentes a clusters, e usa distância de Mahalanobis como similaridade. Além da diferença no método de atribuição - a chamada atribuição hard para o primeiro e a atribuição soft para o último - os algoritmos também diferem em relação à estrutura do
cluster, ou forma: o k-means considera estruturas esféricas no dados; enquanto o GMM considera elipsoidais através da estimação de matrizes de covariância. Neste trabalho, um problema de otimização matemática que combina a atribuição hard com a estrutura do cluster elipsoidal é detalhado e formulado. Uma vez que a estimativa da covariância desempenha um papel importante no comportamento de estruturas agrupamentos elipsoidais, técnicas de regularizações são exploradas. Neste contexto, dois métodos de meta-heurística, uma perturbação Random Swap e um algoritmo híbrido genético, são adaptados, e seu impacto na melhoria do desempenho dos métodos é estudado. O objetivo central dividido em três: compreender as condições em que as estruturas de agrupamento elipsoidais são mais benéficas que as esféricas; determinar o impacto da estimativa de covariância com os métodos de regularização; e analisar o efeito das meta-heurísticas de otimização global na análise de agrupamento não supervisionado. Finalmente, a fim de fornecer bases para a comparação das presentes descobertas com futuros trabalhos relacionados, foi gerada uma base de dados com um extenso benchmark contendo análise das variações de diferentes tamanhos, formas, número de grupos e separabilidade, e seu impacto nos resultados de
diferentes algoritmos de agrupamento. Além disso, pacotes escritos na linguagem Julia foram disponibilizados com os algoritmos estudados ao longo deste trabalho. / [en] Unsupervised cluster analysis, the process of grouping sets of points according to one or more similarity criteria, plays an essential role in various fields. The two most popular algorithms for this process are the k-means and the Gaussian Mixture Models (GMM). The former assigns each point to a single cluster and uses Euclidean distance as similarity. The latter determines a probability matrix of points to belong to clusters, and the Mahalanobis distance is the underlying similarity. Apart from the difference in the assignment method - the so-called hard assignment for the former and soft assignment for the latter - the algorithms also differ concerning the cluster structure, or shape: the k-means considers spherical structures in the data; while the GMM considers ellipsoidal ones through the estimation of covariance matrices. In this work, a mathematical optimization problem that combines the hard assignment with the ellipsoidal cluster structure is detailed and formulated. Since the estimation of the covariance plays a
major role in the behavior of ellipsoidal cluster structures, regularization techniques are explored. In this context, two meta-heuristic methods, a Random Swap perturbation and a hybrid genetic algorithm, are adapted, and their impact on the improvement of the performance of the methods is studied. The central objective is three-fold: to gain an understanding of the conditions in which ellipsoidal clustering structures are more beneficial than spherical ones; to determine the impact of covariance estimation with regularization methods; and to analyze the effect of global optimization meta-heuristics on unsupervised cluster analysis. Finally, in order to provide grounds for comparison of the present findings to future related works, a database was generated together with an extensive benchmark containing an analysis of the variations of different sizes, shapes, number of clusters, and separability and their impact on the results of different clustering algorithms. Furthermore, packages written in the Julia language have been made available with the algorithms studied throughout this work.
|
32 |
[en] ANALYSIS OF CURRENT TRANSFORMERS FOR MEASUREMENTS / [pt] ANÁLISE DE TRANSFORMADORES DE CORRENTE PARA MEDIÇÃOPATRICIA CALS DE OLIVEIRA 21 November 2001 (has links)
[pt] Esta Dissertação de Mestrado apresenta uma metodologia para
analisar transformadores para instrumentos (TI) em geral, e
vários tipos de transformadores de corrente (TC-s) para
medição. O funcionamento e as características dos
transformadores de potencial (TP-s) e dos TC-s estão sendo
analisados, usando-se as ferramentas tradicionais (circuito
equivalente e representação fasorial). O tratamento
generalizado facilita a comparação entre TP-s e TC-s e a
análise qualitativa dos parâmetros que influenciam os erros
de relação e de ângulo de fase.Após verificação geral,
quatro tipos de TC-s estão sendo estudados detalhadamente.
Para analisar construções eletromagnéticas mais complexas,
um método não tradicional está sendo aplicado. Usando-se as
representações fasoriais,realiza-se o cálculo baseando-se
nas equações elétricas e nas equações magnéticas. O erro
complexo do TC é o resultado das soluções destas equações, e
vem expresso em função dos parâmetros de construção. Os
resultados facilitam comparar o desempenho de vários tipos
de TC-s existentes e/ou a serem projetados.
Um programa de simulação, utilizando a linguagem C no
ambiente LabWindows/CVI - C for Virtual Instrumentation
(National Instruments), foi desenvolvido com base nas
equações para o cálculo do erro. O programa analisa o
comportamento de 4 tipos de TC-s, existentes e/ou a serem
projetados, quanto ao erro de relação e ao ângulo de fase.
A partir do tipo de material, da dimensão do núcleo e do
tipo de enrolamentos, em modo interativo, pode-se escolher
várias combinações dos parâmetros em etapas repetidas.
A eficiência do método aplicado foi verificada e
comprovada. Os resultados são coerentes e quando usados no
programa de simulação, resultam em um novo método para
analisar, projetar ou escolher um TC para uma finalidade
específica. / [en] This dissertation for a master degree presents a methodology to analyse Instrument Transformers in general terms and several types of Current Transformers (CT s) for measurements, in details.At first, operation and characteristics of Potential Transformers (PT s) and thatof CT s are analysed, using traditional tools (as equivalent circuits and fasorial representation).The generalised treatment facilitates the comparison between PT s and CT s as well as a qualitative analysis of the parameters influencing the ratio and phase errors.After giving a general view, four types of CT s are studied in details. To analyse complex electromagnetic constructions, a non-traditional method is applied. By usingfasorial representations, calculus is based on defining separate groups of electrical and magnetic equations to describe a device. The result of the solution of this set ofequations is the complex error of the CT, which is being expressed exclusively in terms of parameters of the construction. The results facilitate the comparison of theperformance of various types of CT s, that exist or are to be designed. A simulation program, using language C, in the ambient of LabWindows/CVI - C for Virtual Instrumentation (National Instruments), was developed, in order tocalculate the errors, based upon the equations obtained. The program is capable of specifying the parameters and analysing the characteristics of four types of CT s,representing finally the ratio and phase errors, in terms of the variation of the current or that of the load. Characteristics of various magnet ic materials, dimensions ofstandardized toroidal cores and that of wires can be specified, stored and selected thereafter. The program facilitates experimenting with various combinations ofparameters in an interactive mode and to approximate optimised constructions in iterative steps. Efficiency of the method was verified and proved. The results are coherent and when are used in the simulation program, represent a new method to analyse anexisting CT or to design a new one, or to select the most adequate model for a specific purpose.
|
33 |
[en] STABILITY AND PERTURBATIVITY CONSTRAINTS ON HIGGS PORTAL MODELS / [pt] VÍNCULOS DE ESTABILIDADE E PERTURBATIVIDADE EM MODELOS DE PORTAL DE HIGGSMARCUS VINÍCIUS MARINHO PEREIRA DE MELO 10 January 2019 (has links)
[pt] O Modelo Padrão é uma das teorias mais bem sucedidas da física de partículas. Com a descoberta do bóson de Higgs, além de ter sido uma demonstração robusta do poder preditivo do Modelo Padrão, foi aberto um novo caminho para a investigação de nova física interagindo por meio do portal de Higgs, incluindo cenários motivados por matéria escura e bariogênese. Investigamos a estabilidade do potencial e os pólos de Landau do Modelo Padrão sob efeito da interação entre o bóson de Higgs e uma partícula escalar. Focamos no regime onde os escalares são gerados primariamente via um off-shell Higgs. Prevemos o espaço de parâmetros
disponível para acessar a teoria em diferentes valores de massa do campo escalar. / [en] The Standard Model is one of the most successful theories in particle physics. With the discovery of the Higgs boson, a new pathway has been opened to investigate possible new physics interacting through the Higgs portal, including scenarios motivated by dark matter and baryogenesis. Supposing there is a neutral scalar state in the Standard Model coupled to it only through the Higgs portal, we investigate the potential stability
and the Landau poles of the extended Standard Model potential. We focus on the regime in which the scalars are primarily generated via an off-shell Higgs. We predict the available parameter space to probe the theory for different mass values.
|
34 |
[en] THE SKY IS THE LIMIT, BUT IT IS INDISPENSABLE TO KEEP FEET ON THE GROUND: A (RE)CREATION OF ACTION STANDARDS IN A HIGHLY REGULATED ENVIRONMENT / [pt] O CÉU É O LIMITE! MAS É IMPERATIVO MANTER OS PÉS NO CHÃO: A (RE)CRIAÇÃO DOS PADRÕES DE AÇÃO EM AMBIENTE ALTAMENTE REGULAMENTADONICÁSSIA FELICIANA NOVÔA 18 December 2017 (has links)
[pt] Como os padrões de ação são (re)criados em um ambiente altamente regulamentado? Este estudo objetiva apresentar proposições teóricas acerca de que quanto mais as pessoas vivenciam rotinas adaptativas em um ambiente altamente regulamentado, mais os padrões de ação são recompostos e legitimados a partir do repertório de práticas. Devido ao seu papel efetivo no organizing e ao seu poder generativo em produzir novos padrões de ação ao longo do tempo (PENTLAND e HAEREM, 2015), as rotinas foram aplicadas como unidades de análise para compreender os elementos constituintes da rotina adaptativa no contexto social (PENTLAND et al., 2011) de uma organização altamente regulamentada, além de possibilitar a análise de como ocorre o processo de (re)criação dos padrões de ação tendo como fundamento os Estudos Baseados na prática (FELDMAN e ORLIKOWSKI, 2011). A regulamentação foi analisada abordando as dimensões apresentadas no trabalho de Pentland (1995), com foco na estrutura organizacional, cultura, tecnologia, coordenação e processos, aplicados ao modelo construtivista de Orlikowski (2000), que contribuiu para a construção da visão macro de distintos contextos presentes nas práticas sociais analisadas na organização. Após a construção da visão macro do contexto do ambiente altamente regulamentado, aplicou-se o modelo do sistema generativo interacionista simbólico de Dionysiou e Tsoukas (2013), que proporcionou o entendimento de como os padrões de ação na prática são criados, compartilhados, mantidos e alterados coletivamente, por meio de ciclos de interação coletivos a partir do mecanismo de tomada de papéis de Mead (1934). Assim, por meio do método do estudo de caso interacionista simbólico, a pesquisa de campo foi dividida em duas etapas. Na primeira etapa de coleta de dados realizou-se a observação direta, que ocorreu no período de 22 de agosto a 14 de outubro de 2016, gerando dados primários das práticas dos sujeitos in loco, evidenciados pelas notas de campo, e dados secundários oriundos da análise documental das políticas internas da empresa, documentos normativos, múltiplos documentos do sistema de gestão da qualidade como as instruções de trabalho, formulários de distintos setores e informações sobre as tecnologias e sistemas de TI para execução dos procedimentos da empresa. A segunda etapa de coleta de dados ocorreu por meio de entrevistas com 24 pessoas, para captar a percepção dos atores sobre suas práticas. Os dados foram sistematizados pela análise de conteúdo (BARDIN, 2011) com auxílio do sistema ATLAS.ti. Os resultados do estudo apresentaram três formas distintas de como os padrões de ação podem variar em ambiente altamente regulamentado, sustentando, assim, que o tipo de agencement (GHERARDI, 2016), ou seja, o tipo de conexões estabelecidas na relação entre agentes, agência, estrutura, artefatos falantes e silenciosos, componentes não humanos e ação que compõem o contexto, e sua conexão com os elementos intervenientes (estilo de gestão, tipo de área funcional, accountability, integração da equipe, experiência, cognitivo, motivação, engajamento de recursos pessoais, engajamento afetivo e amplitude da network) afetam a variação dos padrões de ação. Outro aspecto relevante é que quanto maior a necessidade de inclusão de indivíduos de grupos distintos (outras áreas e de níveis hierárquicos diferentes) no processo de validação consensual coletiva, maior a necessidade de ciclos de interação para o alinhamento das ações. Assim, aumenta-se a complexidade desse processo, além de diminuir a sua dinâmica e fluidez para a adaptação das ações dos atores diante das incertezas do contexto. Enfim, o estudo propõe ponderações para a literatura das rotinas organizacionais na prática social, explorando as rotinas adaptativas em ambiente altamente regulamentado que induzem a (re)recomposição de padrões de ação a partir do repertório de práticas. Nesse contexto, o céu é o limite para criatividade dos atores / [en] How are action patterns (re) created in a highly regulated environment? This study aims to present theoretical propositions about how more people experience adaptive routines in a highly regulated environment, but the patterns of action are recomposed and legitimized from the repertoire of practices. Due to its effective role in organizing and its generative power to produce new patterns of action over time (PENTLAND and HAEREM, 2015), routines were applied as units of analysis to understand the constituent elements of the adaptive routine in the social context PENTLAND et al., 2011) of a highly regulated organization, besides allowing the analysis of how the process of (re) creation of action patterns occurs on the basis of Practice-Based Studies (FELDMAN and ORLIKOWSKI, 2011). The regulation was analyzed by addressing the dimensions presented in the work of Pentland (1995), focusing on the organizational structure, culture, technology, coordination and processes, applied to the constructivist model of Orlikowski (2000), which contributed to the construction of the macro view of different Contexts present in the social practices analyzed in the organization. After constructing the macro view of the highly regulated environment context, the Dionysiou and Tsoukas (2013) symbolic interactional generative system model was applied, which provided an understanding of how patterns of action in practice are created, shared, maintained and Altered collectively, by means of collective interaction cycles from the paper-making mechanism of Mead (1934). Thus, through the method of the symbolic interactionist case study, field research was divided into two stages. In the first stage of data collection, a direct observation was performed, which occurred from August 22 to October 14, 2016, generating primary data of the in loco practices, evidenced by field notes, and secondary data Document analysis of the company s internal policies, normative documents, multiple quality management system documents such as work instructions, forms from different sectors and information on IT technologies and systems to carry out company procedures. The second stage of data collection took place through the interviews with 24 people, to capture the actors perception of their practices. The data were systematized by the content analysis (BARDIN, 2011) with the aid of the ATLAS.ti system. The results of the study presented three different ways in which patterns of action may vary in a highly regulated environment, thus maintaining that the type of agencement (GHERARDI, 2016), in other words, the type of connections established in the relationship between agents, agency, (Management Style, Functional Area Type, Accountability, Team Integration, Experience, Cognitive, Motivation, Engagement) Of Personal Resources, Affective Engagement, and Network Amplitude) that all of these aspects together affect the variation of action patterns. Another relevant aspect is the greater the need to include individuals from different groups (other areas and different hierarchical levels) in the collective consensual validation process, the greater the need for interaction cycles for the alignment of actions and, thus, increases The complexity of this process, in addition to reducing its dynamics and fluidity for the adaptation of the actors actions in the face of the uncertainties of the context. Finally, the study proposes weightings for the literature of organizational routines in social practice, exploring the adaptive routines in a highly regulated environment that induce (re) recomposition of action patterns from the repertoire of practices. In this context, the sky is the limit for the creativity of actors to (re) create their action patterns, but it is imperative to keep your feet on the ground revering the mantle of regulation.
|
35 |
[en] ON INTERVAL TYPE-2 FUZZY LOGIC SYSTEM USING THE UPPER AND LOWER METHOD FOR SUPERVISED CLASSIFICATION PROBLEMS / [pt] SISTEMAS DE INFERÊNCIA FUZZY INTERVALAR DO TIPO-2 USANDO O MÉTODO SUPERIOR E INFERIOR PARA PROBLEMAS DE CLASSIFICAÇÃO SUPERVISIONADOSRENAN PIAZZAROLI FINOTTI AMARAL 04 October 2021 (has links)
[pt] Os sistemas de inferência fuzzy são técnicas de aprendizado de máquina
que possuem a capacidade de modelar incertezas matematicamente. Eles são
divididos em sistemas de inferências fuzzy tipo-1 e fuzzy tipo-2. O sistema de
inferência fuzzy tipo-1 vem sendo amplamente aplicado na solução de diversos
problemas referentes ao aprendizado de máquina, tais como, controle, classificação,
clusterização, previsão, dentre outros. No entanto, por apresentar uma
melhor modelagem matemática das incertezas, o sistema de inferência fuzzy
tipo-2 vem ganhando destaque ao longo dos anos. Esta melhora modelagem
vem também acompanhada de um aumento do esforço matemático e computacional.
Visando reduzir tais pontos para solucionar problemas de classificação,
este trabalho apresenta o desenvolvimento e a comparação de duas funções de
pertinência Gaussiana para um sistema de inferência fuzzy tipo-2 intervalar
usando o método superior e inferior. São utilizadas as funções de pertinência
Gaussiana com incerteza na média e com incerteza no desvio padrão. Ambos os
modelos fuzzy abordados neste trabalho são treinados por algoritmos baseados
em informações de primeira ordem. Além disso, este trabalho propõe a extensão
dos modelos fuzzy tipo-2 intervalar para apresentarem múltiplas saídas,
reduzindo significativamente o custo computacional na solução de problemas
de classificação multiclasse. Finalmente, visando contextualizar a utilização
desses modelos em aplicações de engenharia mecânica, este trabalho apresenta
a solução de um problema de detecção de falhas em turbinas a gás, utilizadas
em aeronaves. / [en] Fuzzy logic systems are machine learning techniques that can model
mathematically uncertainties. They are divided into type-1 fuzzy, and type-2
fuzzy logic systems. The type-1 fuzzy logic system has been widely applied to
solve several problems related to machine learning, such as control, classification,
clustering, prediction, among others. However, as it presents a better
mathematical modeling of uncertainties, the type-2 fuzzy logic system has
received much attention over the years. This modeling improvement is also
accompanied by an increase in mathematical and computational effort. Aiming
to reduce these issues to solve classification problems, this work presents
the development and comparison of two Gaussian membership functions for a
type-2 interval fuzzy logic system using the upper and lower method. Gaussian
membership functions with uncertainty in the mean and with uncertainty
in the standard deviation are used. Both fuzzy models covered in this work
are trained by algorithms based on first order information. Furthermore, this
work proposes the extension of interval type-2 fuzzy models to present multiple
outputs, significantly reducing the computational cost in solving multiclass
classification problems. Finally, aiming to contextualize the use of these models
in mechanical engineering applications, this work presents the solution of
a problem of fault detection in aircraft gas turbines.
|
36 |
[pt] MODELO SUBSTITUTO PARA FLUXO NÃO SATURADO VIA REGRESSÃO POLINOMIAL EVOLUCIONÁRIA: CALIBRAÇÃO COM O ENSAIO DE INFILTRAÇÃO MONITORADA / [en] SURROGATE MODEL FOR UNSATURATED FLOW THROUGH EVOLUTIONARY POLYNOMIAL REGRESSION: CALIBRATION WITH THE MONITORED INFILTRATION TESTRUAN GONCALVES DE SOUZA GOMES 26 February 2021 (has links)
[pt] A análise de fluxo de água sob condição transiente não saturada requer o conhecimento das propriedades hidráulicas do solo. Essas relações constitutivas, denominadas curva característica e função de condutividade hidráulica, são descritas através de modelos empíricos que geralmente possuem vários parâmetros que devem ser calibrados com relação a dados coletados. Muitos dos parâmetros nos modelos constitutivos não podem ser medidos diretamente em campo ou laboratório, mas somente podem ser inferidos de forma significativa a partir de dados coletados e da modelagem inversa. Para obter os parâmetros do solo com a análise inversa, um algoritmo de otimização de busca local ou global pode ser aplicado. As otimizações globais são mais capazes de encontrar parâmetros ótimos, no entanto,
a solução direta, por meio da modelagem numérica é computacionalmente custosa. Portanto, soluções analíticas (modelo substituto) podem superar essa falha acelerando o processo de otimização. Nesta dissertação, apresentamos a Regressão Polinomial Evolucionária (EPR) como uma ferramenta
para desenvolver modelos substitutos do fluxo não saturado. Um rico conjunto de dados de parâmetros hidráulicos do solo é usado para calibrar o nosso modelo, e dados do mundo real são utilizados para validar nossa metodologia. Nossos resultados demonstram que o modelo da EPR prevê com precisão os dados de carga de pressão. As simulações do modelo se mostram concordantes com as simulações do programa Hydrus. / [en] Water flow analyses under transient soil hydraulic conditions require knowledge of the soil hydraulic properties. These constitutive relationships, named soil-water characteristic curve (SWCC) and hydraulic conductivity function (HCF) are described through empirical models which generally have several parameters that must be calibrated against collected data. Many of the parameters in SWCC and HCF models cannot be directly measured in field or laboratory but can only be meaningfully inferred
from collected data and inverse modeling. In order to obtain the soil parameters with the inverse process, a local or global optimization algorithm may be applied. Global optimizations are more capable of fiding optimum parameters, however the direct solution through numerical modeling are time consuming. Therefore, analytical solutions (surrogate models) may overcome this shortcomming by accelerating the optimization process. In this work we introduce Evolutionary Polynomial Regression (EPR) as a
tool to develop surrogate models of the physically-based unsaturated flow. A rich dataset of soil hydraulic parameters is used to calibrate our surrogate model, and real-world data are then utilized to validate our methodology. Our results demonstrate that the EPR model predicts accurately the observed pressure head data. The model simulations are shown to be in good agreement with the Hydrus software package.
|
37 |
[pt] EFEITO DA ESTIMAÇÃO DOS PARÂMETROS SOBRE O DESEMPENHO CONJUNTO DOS GRÁFICOS DE CONTROLE DE X-BARRA E S / [en] EFFECT OF PARAMETER ESTIMATION ON THE JOINT PERFORMANCE OF THE X-BAR AND S CHARTSLORENA DRUMOND LOUREIRO VIEIRA 09 July 2020 (has links)
[pt] A probabilidade de alarme falso, alfa, dos gráficos de controle de processos depende dos seus limites de controle, que, por sua vez, dependem de estimativas dos parâmetros do processo. Esta tese apresenta inicialmente uma revisão dos principais trabalhos sobre o efeito dos erros de estimação dos parâmetros do processo sobre alfa quando se utiliza o gráfico de X e S individualmente e em conjunto. O desempenho dos gráficos é medido através de medidas de desempenho (número médio de amostras até o sinal, taxa de alarme falso, distribuição do número de amostras até o sinal, que, em geral, são variáveis aleatórias, função dos erros de estimação. Pesquisas recentes têm focado nas propriedades da distribuição condicional do número de amostras até o sinal, ou ainda, nas propriedades da distribuição da taxa de alarme-falso
condicional. Esta tese adota esta abordagem condicional e analisa o efeito da estimação dos parâmetros do processo no desempenho conjunto dos gráficos de X e S em dois casos: Caso KU (Média conhecida – Variância desconhecida) e Caso UU (Média desconhecida – Variância desconhecida). A quase totalidade
dos trabalhos anteriores considerou apenas um gráfico, isoladamente; sobre efeito da estimação dos parâmetros sobre o desempenho conjunto conhecemos apenas um trabalho, sobre gráficos de X e R, mas nenhum sobre gráficos de X e S. Os resultados da análise mostram que o desempenho dos gráficos pode
ser muito afetado pela estimação de parâmetros e que o número de amostras iniciais requerido para garantir um desempenho desejado é muito maior que os números tradicionalmente recomendados na literatura normativa de controle estatístico de processo (livros texto e manuais). Esse número é, porém, menor que o máximo entre os números requeridos para os gráficos de X e de S individualmente. Questões a serem investigadas como desdobramento dessa pesquisa são também indicadas nas Considerações Finais e Recomendações. / [en] The false-alarm rate of control charts, alpha, depends on the control limits calculated, which depend, in turn, on the estimated process parameters. This dissertation initially presents a review of the main research articles about the effect of the estimation errors of the process parameters upon alpha when X and S charts are used separately and together. The charts performance is evaluated through performance measures (average run-length, false-alarm rate, run-length distribution, etc), which are, in general, random variables, function of the estimation errors. Recent researches focused on the properties of the conditional run-length, or still (in the case of Shewhart charts) on the properties of the conditional false-alarm rate distribution. This dissertation adopts this conditional approach and investigates the effect of parameter estimation on the joint behavior of X and S charts in two cases: KU Case (Known mean – Unknown variance) and UU Case (Unknown mean - Unknown variance). Almost all previous works considered just only one chart separately – just only one joint performance work is known by the author, one about the effect of the estimation errors of the process parameters upon X e R joint performance. The results show that the charts performance can be severely affected by the parameter estimation and the number of initial samples required to ensure the desirable performance is greater than the numbers of initial samples recommended by traditional statistical process control reference texts (books and manuals). This number is, however, smaller than the maximum between the numbers of samples required by the X and the S charts separately. Additional issues for follow-up research are recommended in the concluding section.
|
38 |
[pt] CATALOGANDO ANTIPADRÕES DE INJEÇÃO DE DEPENDÊNCIA EM SISTEMAS DE SOFTWARE / [en] CATALOGING DEPENDENCY INJECTION ANTI-PATTERNS IN SOFTWARE SYSTEMSRODRIGO NUNES LAIGNER 19 June 2020 (has links)
[pt] Contexto Injeção de Dependência (DI) é um mecanismo comumente aplicado para desacoplar classes de suas dependências com o objetivo de prover uma melhor modularização do software. No contexto de Java, a existência de uma especificação de DI e frameworks populares, como o Spring, facilitam o emprego de DI em projetos de software. Entretanto, más práticas de implementação de DI podem trazer más consequências, como maior acoplamento, dificultando alcançar o principal objetivo de DI. Apesar de
a literatura sugerir a existência de anti-padrões de DI, não há uma documentação detalhada de tais más práticas. Em adição, não há evidência da ocorrência e da percepção de utilidade dos mesmos do ponto de vista de desenvovedores. Objetivos Nosso objetivo é revisar os anti-padrões de DI reportados com o objetivo de analisar sua completude e propor um novo catálogo de anti-padrões de DI para Java. Método Nós propomos um catálogo contendo 12 anti-padrões de DI para Java. Nós selecionamos 4 projetos
open-source e 2 projetos closed-source que adotam um framework de DI e desenvolvemos uma ferramenta que analisa estaticamente a ocorrência dos anti-padrões de DI candidatos no código fonte das aplicações. Em adição, nós conduzimos uma pesquisa por meio de entrevistas face a face com três
desenvolvedores experientes que regularmente aplicam DI em seus projetos. Nós estendemos a pesquisa com o objetivo de obter a percepção de um conjunto de 15 desenvolvedores experientes e novatos por meio de um questionário online Resultados Ao menos 9 anti-padrões de DI apareceram frequentemente nos projetos de software analisados. Em adição, a avaliação recebida dos desenvolvedores confirmaram a relevância do catálogo. Por fim, os respondentes expressaram o desejo de refatorar as instâncias de antipadrões de DI propostas. Conclusões O catálogo contém anti-padrões de DI que ocorrem na prática e são úteis. Compartilhar com praticantes da indústria os permitirá evitar a introdução de anti-padrões em seus projetos de software. / [en] Background Dependency Injection (DI) is a commonly applied mechanism to decouple classes from their dependencies in order to provide better modularization of software. In the context of Java, the availability
of a DI specification and popular frameworks, such as Spring, facilitate DI usage in software projects. However, bad DI implementation practices can have negative consequences, such as increasing coupling, hindering the achievement of DI s main goal. Even though the literature suggests the existence of DI anti-patterns, there is no detailed documentation of such bad practices. Moreover, there is no evidence on their occurrence and perceived usefulness from the developer s point of view. Aims Our goal is to review
the reported DI anti-patterns in order to analyze their completeness and to propose and evaluate a novel catalog of Java DI anti-patterns. Method We propose a catalog containing 12 Java DI anti-patterns. We selected 4 opensource and 2 closed-source software projects that adopt a DI framework and developed a tool to statically analyze the occurrence of the candidate DI anti-patterns within their source code. Also, we conducted a survey through face to face interviews with three experienced developers that regularly
apply DI. We extended the survey in order to gather the perception of a set of 15 expert and novice developers through an online questionnaire. Results At least 9 different DI anti-patterns appeared frequently in the analyzed projects. In addition, the feedback received from the developers
confirmed the relevance of the catalog. Besides, the respondents expressed their willingness to refactor instances of anti-patterns from source code. Conclusions The catalog contains Java DI anti-patterns that occur in practice and are useful. Sharing it with practitioners may help them to avoid such anti-patterns.
|
Page generated in 0.1371 seconds