• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 38
  • 28
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] DEVELOPMENT OF A NEW BRIDGE OF MAXWELL-WIEN / [es] DESARROLLO DE UN NUEVO PUENTE DE MAXWELL-WIEN / [pt] DESENVOLVIMENTO DE UMA NOVA PONTE DE MAXWELL-WIEN

ANDREIA QUINTANA LIMA DE SOUSA 21 November 2001 (has links)
[pt] Nos Institutos Nacionais de Metrologia para a medição da grandeza de indutância com alta exatidão usam-se circuitos especiais, desenvolvidos e montados pelos próprios laboratórios. Esta dissertação de mestrado descreve o desenvolvimento e a realização de uma nova construção da ponte de Maxwell-Wien, usada para a padronização e disseminação da unidade henry do Instituto Nacional de Metrologia, Normalização e Qualidade Industrial - INMETRO. Na parte teórica do trabalho o conceito do erro complexo é introduzido e, usando este método mais generalizado, os erros nos circuitos de medição e o efeito de impedâncias parasitas internas e externas são analisados. Métodos de compensação para minimizar estes erros são tratados. Na parte prática da dissertação, a partir das características de indutores padrão, os esquemas mais conhecidos de pontes de Maxwell-Wien são estudados. Os conceitos de inovação para desenvolver uma nova ponte de estrutura não tradicional, os métodos aplicados e a construção realizada são descritos detalhadamente. O trabalho é completado por um programa de avaliação das medições, desenvolvido em linguagem C, no ambiente de LabWindows/CVI (C for Virtual Instrumentation, produto da National Instruments). Os resultados de calibrações sistemáticas e de comparações internacionais são resumidos, comprovando que, apesar das soluções e métodos simples, a nova ponte está oferecendo boa repititividade e alta exatidão, atingindo o desempenho das pontes de laboratórios Primários. / [en] In national institutes of metrology, for the high precision measurement of inductance special circuits are used, developed and constructed by the laboratories themselves. This dissertation for a master degree describes the development and realisation of a new Maxwell-Wien bridge that is used for the standardisation and dissemination of the unit of inductance in the National Institute of Metrology, Standardization and Industrial Quality - INMETRO. In the theoretical part of this work the concept of the complex error is introduced and, using this generalised method, the errors of measurement circuits as well as the effects of internal and external stray impedance are analysed. Methods of compensation to minimise these errors are also treated. In the practical part of the dissertation, starting from the characteristics of standard inductors, the most known arrangements of Maxwell-Wien bridges are studied. The innovative concepts to develop a new bridge of non-traditional structure, the methods applied and the realised construction are described in details. The work is completed by a computer program to evaluate measurement data, developed in language C, in the environment of LabWindows/CVI, (C for Virtual Instrumentation, product of National Instruments). The results of systematic calibrations and that of international comparisons are resumed, proving that, in spite of simple solutions and methods, the new bridge is offering high accuracy and repeatability, attaining the performance of the bridges of primary laboratories. / [es] En los Institutos Nacionales de Metrologia para la medición de inductancia con alta exatitud se usan circuitos especiales, desarrollados y montados por los proprios laboratorios. Esta disertación de maestría describe el desarrollo y la realización de una nueva construcción del puente de Maxwell-Wien, usada para la padronización y diseminación de la unidad henry del Instituto Nacional de Metrologia, Normalización y Calidad Industrial - INMETRO. En la parte teórica del trabajo, se introduce el concepto de error complejo y, utilizando este método mas generalizado, se analizan los errores en los circuitos de medición y el efecto de impedancias parásitas internas y externas. Son discutidos métodos de compensación para minimizar estos errores. En la parte práctica de la disertación se estudian, a partir de las características de inductores padrón, los esquemas mas conocidos de puentes de Maxwell-Wien. Se descriven detalladamente los conceptos de innovación para desarrollar un nuevo puente de extructura no tradicional, los métodos aplicados y la construcción realizada. EL trabajo es completado por un programa de avaliación de las mediciones, desarrollado en lenguaje C, en el ambiente de LabWindows/CVI (C for Virtual Instrumentation, producto de la National Instruments). Se resumen los resultados de calibraciones sistemáticas y de comparaciones internacionales, comprobando que, apesar de las soluciones y métodos simples, el nuevo puente ofrece buena repititividad y alta exatitud, alcanzando el desempeño de los puentes de laboratorios Primarios.
22

[en] AUTOMATIC SYNTHESIS OF FUZZY INFERENCE SYSTEMS FOR CLASSIFICATION / [pt] SÍNTESE AUTOMÁTICA DE SISTEMAS DE INFERÊNCIA FUZZY PARA CLASSIFICAÇÃO

JORGE SALVADOR PAREDES MERINO 25 July 2016 (has links)
[pt] Hoje em dia, grande parte do conhecimento acumulado está armazenado em forma de dados. Para muitos problemas de classificação, tenta-se aprender a relação entre um conjunto de variáveis (atributos) e uma variável alvo de interesse. Dentre as ferramentas capazes de atuar como modelos representativos de sistemas reais, os Sistemas de Inferência Fuzzy são considerados excelentes com respeito à representação do conhecimento de forma compreensível, por serem baseados em regras linguísticas. Este quesito de interpretabilidade linguística é relevante em várias aplicações em que não se deseja apenas um modelo do tipo caixa preta, que, por mais precisão que proporcione, não fornece uma explicação de como os resultados são obtidos. Esta dissertação aborda o desenvolvimento de um Sistema de Inferência Fuzzy de forma automática, buscando uma base de regras que valorize a interpretabilidade linguística e que, ao mesmo tempo, forneça uma boa acurácia. Para tanto, é proposto o modelo AutoFIS-Class, um método automático para a geração de Sistemas de Inferência Fuzzy para problemas de classificação. As características do modelo são: (i) geração de premissas que garantam critérios mínimos de qualidade, (ii) associação de cada premissa a um termo consequente mais compatível e (iii) agregação de regras de uma mesma classe por meio de operadores que ponderem a influência de cada regra. O modelo proposto é avaliado em 45 bases de dados benchmark e seus resultados são comparados com modelos da literatura baseados em Algoritmos Evolucionários. Os resultados comprovam que o Sistema de Inferência gerado é competitivo, apresentando uma boa acurácia com um baixo número de regras. / [en] Nowadays, much of the accumulated knowledge is stored as data. In many classification problems the relationship between a set of variables (attributes) and a target variable of interest must be learned. Among the tools capable of modeling real systems, Fuzzy Inference Systems are considered excellent with respect to the knowledge representation in a comprehensible way, as they are based on inference rules. This is relevant in applications where a black box model does not suffice. This model may attain good accuracy, but does not explain how results are obtained. This dissertation presents the development of a Fuzzy Inference System in an automatic manner, where the rule base should favour linguistic interpretability and at the same time provide good accuracy. In this sense, this work proposes the AutoFIS-Class model, an automatic method for generating Fuzzy Inference Systems for classification problems. Its main features are: (i) generation of premises to ensure minimum, quality criteria, (ii) association of each rule premise to the most compatible consequent term; and (iii) aggregation of rules for each class through operator that weigh the relevance of each rule. The proposed model was evaluated for 45 datasets and their results were compared to existing models based on Evolutionary Algorithms. Results show that the proposed Fuzzy Inference System is competitive, presenting good accuracy with a low number of rules.
23

[en] DIALOGUE TRANSLATION IN LITERARY WORKS: EXPANDING THE LIMITS OF VEROSSIMILITUDE / [pt] TRADUÇÃO DE DIÁLOGOS EM OBRAS LITERÁRIAS: AMPLIANDO OS LIMITES DA VEROSSIMILHANÇA

DÉBORA LANDSBERG GELENDER COELHO 25 October 2016 (has links)
[pt] Com base no conceito de tradução ilusionista, de Jirí Levý, este estudo investiga a tradução de diálogos em obras literárias. Amparada nas premissas de Marcos Bagno de que nem as camadas cultas da sociedade falam segundo o prescrito nas gramáticas normativas, esta pesquisa subscreve a noção de que vivemos em uma diglossia no que se refere ao registro. A partir da década de 1970, segundo John Milton, o mercado editorial brasileiro cada vez mais adota o princípio do efeito de verossimilhança quando da recriação do discurso direto de personagens em língua portuguesa - conforme estabelecido por meio da comparação de três versões de As aventuras de Huckleberry Finn, de Mark Twain. Em seguida, por meio da tradução comentada do romance May We Be Forgiven, da escritora americana A. M. Homes, verificamos as marcas de oralidade já aceitas no mercado editorial. Por fim, o trabalho busca novas marcas em gramáticas descritivas da língua falada culta. / [en] Based on Jiří Levý s concept of illusionist translation this study investigates the issue of dialogue translation in literary works. Supported Marcos Bagno s observation that not even cultivated people speak according to the rules of prescriptive grammar, this research endorses the notion that we live in a register diglossia. Since the 1970s, according to John Milton, the Brazilian publishing market has been more open to the principle of the verisimilitude effect when it comes to recreating characters direct speech in Portuguese — a statement that will be verified through the comparison of three Brazilian versions of The Adventures of Huckleberry Finn, by Mark Twain. Next, through the commented translation of excerpts from May We Be Forgiven, a novel by American writer A. M. Homes, we verify which orality markers are already accepted by the publishing market. Finally, this study also seeks new markers in descriptive grammars of standard spoken language.
24

[en] DESIGN & DEVELOPMENT OF A STANDARD FOR HIGH VOLTAGE IN DIRECT CURRENT IN THE RANGE OF 1 KV TO 50 KV / [pt] PROJETO & DESENVOLVIMENTO DE UM PADRÃO PARA ALTA TENSÃO EM CORRENTE CONTÍNUA NA FAIXA DE 1 KV A 50 KV

MÁRCIO THELIO FERNANDES DA SILVA 01 August 2011 (has links)
[pt] Metrologia e qualidade estão intimamente relacionadas e constituem-se em poderoso instrumento de transformação da infraestrutura tecnológica de países e organizações. O avanço do desenvolvimento científico e tecnológico está fortemente embasado no avanço da metrologia. O Instituto Nacional de Metrologia, Normalização e Qualidade industrial (INMETRO) é o órgão máximo responsável pela conservação e manutenção das unidades de base e derivadas do Sistema Internacional de Unidades (SI) no país. A grandeza tensão em corrente contínua, até 1 kV, está disponível e rastreada a padrões nacionais na Rede Brasileira de Calibração (RBC). Contudo, para tensões maiores que 1 kV, pois ainda carece de laboratórios acreditados pelo INMETRO para prestar serviços para a indústria de equipamentos elétricos em Alta Tensão em Corrente Contínua (HVDC). Deve-se considerar, ainda, que novos investimentos na geração e transmissão em larga escala de energia mobilizam a indústria e geram demanda para ensaios em novos equipamentos que serão instalados. Para realizar esses ensaios, de forma a garantir exatidão, confiabilidade e rastreabilidade, é necessária uma estrutura metrológica em Alta Tensão, ou seja, é preciso criar padrões e incentivar a acreditação de laboratórios. Nesse sentido o objetivo desta dissertação foi à construção de um protótipo de Divisor para Alta Tensão (DVAT) do tipo resistivo de alta impedância, para medição da grandeza tensão em corrente contínua acima de 1 kV. O padrão foi construído para ser utilizado na faixa de 1 kV a 50 kV e será calibrado em baixa tensão rastreado à RBC. Em alta tensão será o elo na cadeia de rastreabilidade entre o padrão do INMETRO e os divisores dos laboratórios industriais e também na calibração de padrões de trabalho para HVDC na faixa de 1 kV a 250 kV. / [en] Metrology and quality are closely related and constitute a powerful tool for transforming the technological infrastructure of countries and organizations. The advancement of scientific and technological development is strongly grounded in the advancement of metrology. The National Institute of Metrology, Standardization and Industrial Quality (INMETRO) is the highest organism responsible by the conservation and maintenance of base and derived units of the International System of Units (SI) in the country. The quantity voltage, up to 1 kV, is traced to national standards in the Brazilian Calibration Network (RBC), but for voltages above 1 kV there is no laboratory in the country accredited by INMETRO to provide services for the electrical equipment industry in HVDC. It should also be considered that new investments in generation and transmission of large scale energy mobilize the industry and generates demand for testing of new equipment. To perform these tests, so as to ensure reliability, accuracy and traceability, a metrology structure is needed in high voltage, so it is necessary to create standards and encourage the accreditation of laboratories. In this sense the main purpose of this dissertation was to build a prototype for a standard High Voltage Divider (DVAT) of the high impedance resistive type for measuring the quantity voltage above 1 kV. The standard was designed for use in the range of 1kV to 50 kV and will be calibrated in low voltages and traceable to the RBC. In the high voltage range, it will be the link in the chain of traceability between INMETRO standards and the dividers of industrial laboratories, and also to calibrate other working standards for HVDC, especially in the range of 1 kV to 250 kV.
25

[en] A STATISTICAL INVESTIGATION ON TECHNICAL ANALYSIS / [pt] UMA INVESTIGAÇÃO ESTATÍSTICA SOBRE ANÁLISE TÉCNICA

GIULIANO PADILHA LORENZONI 25 October 2006 (has links)
[pt] A análise técnica ou grafismo consiste na identificação visual de padrões geométricos em gráficos de séries de preços de mercado com o objetivo de antecipar tendências de preço. Esta Dissertação revisita a questão da validação estatística da análise técnica, que tem sido estudada na literatura sem os devidos cuidados com os problemas de heterogeneidade e de dependência estatística dos dados analisados - agrupamento de séries de retornos referentes a diversos ativos financeiros distintos. O objetivo central deste estudo consiste em resolver o primeiro problema citado, através de uma metodologia para homogeneizar os ativos no que concerne às distribuições de probabilidades de suas séries de retorno. Os passos gerais desta metodologia envolvem a identificação dos processos estocásticos geradores dos retornos dos ativos, o agrupamento de ativos semelhantes e, finalmente, a análise de presença, ou ausência, de informação advinda dos padrões de preços. Como ilustração, são analisadas séries de diversos ativos do mercado financeiro mundial. A nossa investigação verifica a existência de conteúdo informativo estatisticamente significante em dois dos três padrões usualmente identificados na análise técnica, a saber: triângulos retângulos e head & shoulders. / [en] Technical analysis or charting aims on visually identifying geometrical patterns in price charts in order to anticipate price trends. This dissertation revisits the issue of technical analysis statistical validation, which has been tackled in the literature without taking care of the presence of heterogeneity and statistical dependence in the analyzed data - agglutinated return time series from many distinct securities. The main purpose of this study is to address the first cited problem by suggesting a methodology to homogenize the securities according to the probability distributions of their return series. The general steps of the methodology go through the identification of the data generating stochastic processes for the security returns, the clustering of similar securities and, finally, the analysis of the presence, or absence, of informational content coming from those price patterns. We illustrate the proposed methodology with several financial securities of the global market. Our investigation shows that there is a statistically significant informational content in two out of the three common patterns usually found through technical analysis, namely: triangles, rectangle and head & shoulders.
26

[en] ANALYSIS OF CURRENT TRANSFORMERS FOR MEASUREMENTS / [pt] ANÁLISE DE TRANSFORMADORES DE CORRENTE PARA MEDIÇÃO

PATRICIA CALS DE OLIVEIRA 21 November 2001 (has links)
[pt] Esta Dissertação de Mestrado apresenta uma metodologia para analisar transformadores para instrumentos (TI) em geral, e vários tipos de transformadores de corrente (TC-s) para medição. O funcionamento e as características dos transformadores de potencial (TP-s) e dos TC-s estão sendo analisados, usando-se as ferramentas tradicionais (circuito equivalente e representação fasorial). O tratamento generalizado facilita a comparação entre TP-s e TC-s e a análise qualitativa dos parâmetros que influenciam os erros de relação e de ângulo de fase.Após verificação geral, quatro tipos de TC-s estão sendo estudados detalhadamente. Para analisar construções eletromagnéticas mais complexas, um método não tradicional está sendo aplicado. Usando-se as representações fasoriais,realiza-se o cálculo baseando-se nas equações elétricas e nas equações magnéticas. O erro complexo do TC é o resultado das soluções destas equações, e vem expresso em função dos parâmetros de construção. Os resultados facilitam comparar o desempenho de vários tipos de TC-s existentes e/ou a serem projetados. Um programa de simulação, utilizando a linguagem C no ambiente LabWindows/CVI - C for Virtual Instrumentation (National Instruments), foi desenvolvido com base nas equações para o cálculo do erro. O programa analisa o comportamento de 4 tipos de TC-s, existentes e/ou a serem projetados, quanto ao erro de relação e ao ângulo de fase. A partir do tipo de material, da dimensão do núcleo e do tipo de enrolamentos, em modo interativo, pode-se escolher várias combinações dos parâmetros em etapas repetidas. A eficiência do método aplicado foi verificada e comprovada. Os resultados são coerentes e quando usados no programa de simulação, resultam em um novo método para analisar, projetar ou escolher um TC para uma finalidade específica. / [en] This dissertation for a master degree presents a methodology to analyse Instrument Transformers in general terms and several types of Current Transformers (CT`s) for measurements, in details.At first, operation and characteristics of Potential Transformers (PT` s) and that of CT` s are analysed, using traditional tools (as equivalent circuits and fasorial representation). The generalised treatment facilitates the comparison between PT` s and CT` s as well as a qualitative analysis of the parameters influencing the ratio and phase errors. After giving a general view, four types of CT` s are studied in details. To analyse complex electromagnetic constructions, a non-traditional method is applied. By using fasorial representations, calculus is based on defining separate groups of electrical and magnetic equations to describe a device. The result of the solution of this set of equations is the complex error of the CT, which is being expressed exclusively in terms of parameters of the construction. The results facilitate the comparison of the performance of various types of CT` s, that exist or are to be designed. A simulation program, using language C, in the ambient of LabWindows/CVI - C for Virtual Instrumentation (National Instruments), was developed, in order to calculate the errors, based upon the equations obtained. The program is capable of specifying the parameters and analysing the characteristics of four types of CT` s, representing finally the ratio and phase errors, in terms of the variation of the current or that of the load. Characteristics of various magnet ic materials, dimensions ofstandardized toroidal cores and that of wires can be specified, stored and selected thereafter. The program facilitates experimenting with various combinations of parameters in an interactive mode and to approximate optimised constructions in iterative steps. Efficiency of the method was verified and proved. The results are coherent and when are used in the simulation program, represent a new method to analyse an existing CT or to design a new one, or to select the most adequate model for a specific purpose.
27

[pt] CALIBRAÇÃO DE CÂMERA USANDO PROJEÇÃO FRONTAL-PARALELA E COLINEARIDADE DOS PONTOS DE CONTROLE / [en] CAMERA CALIBRATION USING FRONTO PARALLEL PROJECTION AND COLLINEARITY OF CONTROL POINTS

SASHA NICOLAS DA ROCHA PINHEIRO 17 November 2016 (has links)
[pt] Imprescindível para quaisquer aplicações de visão computacional ou realidade aumentada, a calibração de câmera é o processo no qual se obtém os parâmetros intrínsecos e extrínsecos da câmera, tais como distância focal, ponto principal e valores que mensuram a distorção ótica da lente. Atualmente o método mais utilizado para calibrar uma câmera envolve o uso de imagens de um padrão planar em diferentes perspectivas, a partir das quais se extrai pontos de controle para montar um sistema de equações lineares cuja solução representa os parâmetros da câmera, que são otimizados com base no erro de reprojeção 2D. Neste trabalho, foi escolhido o padrão de calibração aneliforme por oferecer maior precisão na detecção dos pontos de controle. Ao aplicarmos técnicas como transformação frontal-paralela, refinamento iterativo dos pontos de controle e segmentação adaptativa de elipses, nossa abordagem apresentou melhoria no resultado do processo de calibração. Além disso, propomos estender o modelo de otimização ao redefinir a função objetivo, considerando não somente o erro de reprojeção 2D, mas também o erro de colinearidade 2D. / [en] Crucial for any computer vision or augmented reality application, the camera calibration is the process in which one gets the intrinsics and the extrinsics parameters of a camera, such as focal length, principal point and distortions values. Nowadays, the most used method to deploy the calibration comprises the use of images of a planar pattern in different perspectives, in order to extract control points to set up a system of linear equations whose solution represents the camera parameters, followed by an optimization based on the 2D reprojection error. In this work, the ring calibration pattern was chosen because it offers higher accuracy on the detection of control points. Upon application of techniques such as fronto-parallel transformation, iterative refinement of the control points and adaptative segmentation of ellipses, our approach has reached improvements in the result of the calibration process. Furthermore, we proposed extend the optimization model by modifying the objective function, regarding not only the 2D reprojection error but also the 2D collinearity error.
28

[en] A STUDY ON ELLIPSOIDAL CLUSTERING / [pt] UM ESTUDO SOBRE AGRUPAMENTO BASEADO EM DISTRIBUIÇÕES ELÍPTICAS

16 January 2019 (has links)
[pt] A análise de agrupamento não supervisionado, o processo que consistem em agrupar conjuntos de pontos de acordo com um ou mais critérios de similaridade, tem desempenhado um papel essencial em vários campos. O dois algoritmos mais populares para esse processão são o k-means e o Gaussian Mixture Models (GMM). O primeiro atribui cada ponto a um único cluster e usa a distância Euclidiana como similaridade. O último determina uma matriz de probabilidade de pontos pertencentes a clusters, e usa distância de Mahalanobis como similaridade. Além da diferença no método de atribuição - a chamada atribuição hard para o primeiro e a atribuição soft para o último - os algoritmos também diferem em relação à estrutura do cluster, ou forma: o k-means considera estruturas esféricas no dados; enquanto o GMM considera elipsoidais através da estimação de matrizes de covariância. Neste trabalho, um problema de otimização matemática que combina a atribuição hard com a estrutura do cluster elipsoidal é detalhado e formulado. Uma vez que a estimativa da covariância desempenha um papel importante no comportamento de estruturas agrupamentos elipsoidais, técnicas de regularizações são exploradas. Neste contexto, dois métodos de meta-heurística, uma perturbação Random Swap e um algoritmo híbrido genético, são adaptados, e seu impacto na melhoria do desempenho dos métodos é estudado. O objetivo central dividido em três: compreender as condições em que as estruturas de agrupamento elipsoidais são mais benéficas que as esféricas; determinar o impacto da estimativa de covariância com os métodos de regularização; e analisar o efeito das meta-heurísticas de otimização global na análise de agrupamento não supervisionado. Finalmente, a fim de fornecer bases para a comparação das presentes descobertas com futuros trabalhos relacionados, foi gerada uma base de dados com um extenso benchmark contendo análise das variações de diferentes tamanhos, formas, número de grupos e separabilidade, e seu impacto nos resultados de diferentes algoritmos de agrupamento. Além disso, pacotes escritos na linguagem Julia foram disponibilizados com os algoritmos estudados ao longo deste trabalho. / [en] Unsupervised cluster analysis, the process of grouping sets of points according to one or more similarity criteria, plays an essential role in various fields. The two most popular algorithms for this process are the k-means and the Gaussian Mixture Models (GMM). The former assigns each point to a single cluster and uses Euclidean distance as similarity. The latter determines a probability matrix of points to belong to clusters, and the Mahalanobis distance is the underlying similarity. Apart from the difference in the assignment method - the so-called hard assignment for the former and soft assignment for the latter - the algorithms also differ concerning the cluster structure, or shape: the k-means considers spherical structures in the data; while the GMM considers ellipsoidal ones through the estimation of covariance matrices. In this work, a mathematical optimization problem that combines the hard assignment with the ellipsoidal cluster structure is detailed and formulated. Since the estimation of the covariance plays a major role in the behavior of ellipsoidal cluster structures, regularization techniques are explored. In this context, two meta-heuristic methods, a Random Swap perturbation and a hybrid genetic algorithm, are adapted, and their impact on the improvement of the performance of the methods is studied. The central objective is three-fold: to gain an understanding of the conditions in which ellipsoidal clustering structures are more beneficial than spherical ones; to determine the impact of covariance estimation with regularization methods; and to analyze the effect of global optimization meta-heuristics on unsupervised cluster analysis. Finally, in order to provide grounds for comparison of the present findings to future related works, a database was generated together with an extensive benchmark containing an analysis of the variations of different sizes, shapes, number of clusters, and separability and their impact on the results of different clustering algorithms. Furthermore, packages written in the Julia language have been made available with the algorithms studied throughout this work.
29

[pt] ESTUDOS DE SENSIBILIDADE PARA VIOLAÇÃO DE CARGA-PARIDADE NOS DECAIMENTOS D+ -> K-K+Π+ E D+ -> Π-Π+Π+ NO EXPERIMENTO LHCB / [en] SENSITIVITY STUDIES FOR CHARGE-PARITY VIOLATION IN THE DECAYS D+ -> K-K+Π+ AND D+ -> Π-Π+Π+ IN THE LHCB EXPERIMENT

LUCAS NICHOLAS FALCAO FERREIRA 11 January 2022 (has links)
[pt] Na última década, desde o início do funcionamento do LHC, o Modelo Padrão de física de partículas vem sendo posto à prova com precisão sem precedentes, com enorme êxito. Um de seus experimentos é o LHCb, dedicado à física dos hádrons contendo os quarks beauty e charm. Um dos importantes temas de pesquisa do LHCb é o estudo de efeitos de assimetria partícula-antipartícula em processos de decaimento, devido à chamada violação de Carga-Paridade (CP). A violação de CP é prevista pelo Modelo Padrão e, em decaimentos envolvendo o quark charm, pode ocorrer em certos processos chamados de suprimidos por Cabibbo. No entanto, este efeito é muito pequeno, da ordem de 0.1 porcento. Esta pequenez faz com que o ambiente de decaimentos charmosos seja atraente para busca por física além do Modelo Padrão. O objetivo deste trabalho é o estudo de sensibilidade para violação de CP nos canais D+ -> K- K+π+ e D+ -> π- π+π+: no run II do LHCb. Através de uma representação do espaço de fase desses decaimentos, chamado de Dalitz Plot, e a utilização do método de Mirandizing, que se baseia em procurar significâncias locais na diferença da distribuição de eventos no Dalitz Plot de partícula e antipartícula, pode-se buscar por assimetrias de carga que indicariam efeitos de violação de CP nestes decaimentos. Baseando-se nas estatísticas dos dados tomados entre 2016 e 2018 no LHCb, foram desenvolvidos pseudoexperimentos, via método de Monte Carlo, visando reproduzir a dinâmica dos dados reais, e inserindo pequenos efeitos de violação de CP. Verificamos que há sensibilidade para a violação de CP com efeitos da ordem de 10-3 em algumas situações, que condiz com as expectativas do Modelo Padrão, o que indica a possibilidade de observação de violação de CP nos dados reais do run II. / [en] In the last decade, since the beginning of the operation of the LHC, the Standard Model of particle physics has been tested with unprecedented precision, with enormous success. One of its experiment is LHCb, dedicated to the physics of hadrons containing the beauty and charm quarks. One of the important research topics of the LHCb is the study of the effects of particle-antiparticle asymmetry in decay processes, due to the so-called charge-parity violation (CP). CP violation is predicted by the Standard Model and, in decays involving the charm quark, it can occur in certain processes called Cabibbo-suppressed. However, this effect is very small, of the order of 0.1 percent. This smallness makes the environment of charm decays attractive to search for physics beyond the Standard Model. The aim of this work is the study of sensitivity for CP violation in the channels D+ -> K-K+π+ and D+ -> π-π+π+ in run II of the LHCb. Through the phase space of these decays, called Dalitz Plot, and the use of the Mirandizing method, which is based on looking for local significance in the difference in the distribution of events for particle and antiparticle Dalitz Plots, one can seek for local asymmetries that would indicate effects of CP violation in these decays. Based on the data statistics taken between 2016 and 2018 at the LHCb, pseudo experiments were performed, using the Monte Carlo method, aiming to reproduce the dynamics of real data, and inserting small effects of CP violation. We found that there is sensitivity for CP violation with effects of the order of 10−3 in some situations, which is the expected level predicted by the Standard Model, indicating a possibility for observing CP violation in the real data from run II.
30

[en] RANDOMFIS: A FUZZY CLASSIFICATION SYSTEM FOR HIGH DIMENSIONAL PROBLEMS / [pt] RANDOMFIS: UM SISTEMA DE CLASSIFICAÇÃO FUZZY PARA PROBLEMAS DE ALTA DIMENSIONALIDADE

OSCAR HERNAN SAMUDIO LEGARDA 20 December 2016 (has links)
[pt] Hoje em dia, grande parte do conhecimento acumulado está armazenada em forma de dados. Dentre as ferramentas capazes de atuar como modelos representativos de sistemas reais, os Sistemas de Inferência Fuzzy têm se destacado pela capacidade de fornecer modelos precisos e, ao mesmo tempo, interpretáveis. A interpretabilidade é obtida a partir de regras linguísticas, que podem ser extraídas de bases de dados bases históricas e que permitem ao usuário compreender a relação entre as variáveis do problema. Entretanto, tais sistemas sofrem com a maldição da dimensionalidade ao lidar com problemas complexos, isto é, com um grande número de variáveis de entrada ou padrões, gerando problemas de escalabilidade. Esta dissertação apresenta um novo algoritmo de geração automática de regras, denominado RandomFIS, especificamente para problemas de classificação, capaz de lidar com grandes bases de dados tanto em termos de número de variáveis de entrada (atributos) quanto em termos de padrões (instâncias). O modelo RandomFIS utiliza os conceitos de seleção de variáveis (Random Subspace) e Bag of Little Bootstrap (BLB), que é uma versão escalável do Bootstrapping, criando uma estrutura de comitê de classificadores. O RandomFIS é avaliado em várias bases benchmark, demostrando ser um modelo robusto que mantém a interpretabilidade e apresenta boa acurácia mesmo em problemas envolvendo grandes bases de dados. / [en] Nowadays, much of the accumulated knowledge is stored as data. Among the tools capable of acting as representative models of real systems, Fuzzy Inference Systems are recognized by their ability to provide accurate and at the same time interpretable models. Interpretability is obtained from linguistic rules, which can be extracted from historical databases. These rules allow the end user to understand the relationship between variables in a specific problem. However, such systems experience the curse of dimensionality when handling complex problems, i.e. with a large number of input variables or patterns in the dataset, giving origin to scalability issues. This dissertation presents a new algorithm for automatic generation of fuzzy rules, called RandomFIS, specifically for classification problems, which is able to handle large databases both in terms of number of input variables (attributes) and in terms of patterns (instances). The RandomFIS model makes use of feature selection concepts (Random Subspace) and Bag of Little Bootstrap (BLB), which is a scalable version of Bootstrapping, creating a classifier committee structure. RandomFIS is tested in several benchmark datasets and shows to be a robust model that maintains interpretability and good accuracy even in problems involving large databases.

Page generated in 0.0272 seconds