Spelling suggestions: "subject:"padres""
21 |
[en] DEVELOPMENT OF A NEW BRIDGE OF MAXWELL-WIEN / [es] DESARROLLO DE UN NUEVO PUENTE DE MAXWELL-WIEN / [pt] DESENVOLVIMENTO DE UMA NOVA PONTE DE MAXWELL-WIENANDREIA QUINTANA LIMA DE SOUSA 21 November 2001 (has links)
[pt] Nos Institutos Nacionais de Metrologia para a medição da
grandeza de indutância com alta exatidão usam-se circuitos
especiais, desenvolvidos e montados pelos próprios
laboratórios. Esta dissertação de mestrado descreve o
desenvolvimento e a realização de uma nova construção da
ponte de Maxwell-Wien, usada para a padronização e
disseminação da unidade henry do Instituto Nacional de
Metrologia, Normalização e Qualidade Industrial -
INMETRO. Na parte teórica do trabalho o conceito do erro
complexo é introduzido e, usando este método mais
generalizado, os erros nos circuitos de medição e o efeito
de impedâncias parasitas internas e externas são
analisados. Métodos de compensação para minimizar estes
erros são tratados. Na parte prática da dissertação, a
partir das características de indutores padrão, os esquemas
mais conhecidos de pontes de Maxwell-Wien são estudados. Os
conceitos de inovação para desenvolver uma nova ponte de
estrutura não tradicional, os métodos aplicados e a
construção realizada são descritos detalhadamente. O
trabalho é completado por um programa de avaliação das
medições, desenvolvido em linguagem C, no ambiente de
LabWindows/CVI (C for Virtual Instrumentation, produto da
National Instruments). Os resultados de calibrações
sistemáticas e de comparações internacionais são resumidos,
comprovando que, apesar das soluções e métodos simples, a
nova ponte está oferecendo boa repititividade e alta
exatidão, atingindo o desempenho das pontes de laboratórios
Primários. / [en] In national institutes of metrology, for the high precision
measurement of inductance special circuits are used,
developed and constructed by the laboratories themselves.
This dissertation for a master degree describes the
development and realisation of a new Maxwell-Wien bridge
that is used for the standardisation and dissemination of
the unit of inductance in the National Institute of
Metrology, Standardization and Industrial Quality - INMETRO.
In the theoretical part of this work the concept of the
complex error is introduced and, using this generalised
method, the errors of measurement circuits as well as the
effects of internal and external stray impedance are
analysed. Methods of compensation to minimise these errors
are also treated. In the practical part of the
dissertation, starting from the characteristics of standard
inductors, the most known arrangements of Maxwell-Wien
bridges are studied. The innovative concepts to develop a
new bridge of non-traditional structure, the methods
applied and the realised construction are described in
details. The work is completed by a computer program to
evaluate measurement data, developed in language C, in the
environment of LabWindows/CVI, (C for Virtual
Instrumentation, product of National Instruments). The
results of systematic calibrations and that of
international comparisons are resumed, proving that, in
spite of simple solutions and methods, the new bridge is
offering high accuracy and repeatability, attaining the
performance of the bridges of primary laboratories. / [es] En los Institutos Nacionales de Metrologia para la medición
de inductancia con alta exatitud se usan circuitos
especiales, desarrollados y montados por los proprios
laboratorios. Esta disertación de maestría describe el
desarrollo y la realización de una nueva construcción del
puente de Maxwell-Wien, usada para la padronización y
diseminación de la unidad henry del Instituto Nacional de
Metrologia, Normalización y Calidad Industrial - INMETRO.
En la parte teórica del trabajo, se introduce el concepto
de error complejo y, utilizando este método mas
generalizado, se analizan los errores en los circuitos de
medición y el efecto de impedancias parásitas internas y
externas. Son discutidos métodos de compensación para
minimizar estos errores. En la parte práctica de la
disertación se estudian, a partir de las características de
inductores padrón, los esquemas mas conocidos de puentes de
Maxwell-Wien. Se descriven detalladamente los conceptos de
innovación para desarrollar un nuevo puente de extructura
no tradicional, los métodos aplicados y la construcción
realizada. EL trabajo es completado por un programa de
avaliación de las mediciones, desarrollado en lenguaje C,
en el ambiente de LabWindows/CVI (C for Virtual
Instrumentation, producto de la National Instruments). Se
resumen los resultados de calibraciones sistemáticas y de
comparaciones internacionales, comprobando que, apesar de
las soluciones y métodos simples, el nuevo puente ofrece
buena repititividad y alta exatitud, alcanzando el
desempeño de los puentes de laboratorios Primarios.
|
22 |
[en] AUTOMATIC SYNTHESIS OF FUZZY INFERENCE SYSTEMS FOR CLASSIFICATION / [pt] SÍNTESE AUTOMÁTICA DE SISTEMAS DE INFERÊNCIA FUZZY PARA CLASSIFICAÇÃOJORGE SALVADOR PAREDES MERINO 25 July 2016 (has links)
[pt] Hoje em dia, grande parte do conhecimento acumulado está armazenado
em forma de dados. Para muitos problemas de classificação,
tenta-se aprender a relação entre um conjunto de variáveis (atributos) e
uma variável alvo de interesse. Dentre as ferramentas capazes de atuar como
modelos representativos de sistemas reais, os Sistemas de Inferência Fuzzy
são considerados excelentes com respeito à representação do conhecimento
de forma compreensível, por serem baseados em regras linguísticas. Este
quesito de interpretabilidade linguística é relevante em várias aplicações em
que não se deseja apenas um modelo do tipo caixa preta, que, por mais
precisão que proporcione, não fornece uma explicação de como os resultados
são obtidos. Esta dissertação aborda o desenvolvimento de um Sistema
de Inferência Fuzzy de forma automática, buscando uma base de regras que
valorize a interpretabilidade linguística e que, ao mesmo tempo, forneça uma
boa acurácia. Para tanto, é proposto o modelo AutoFIS-Class, um método
automático para a geração de Sistemas de Inferência Fuzzy para problemas
de classificação. As características do modelo são: (i) geração de premissas
que garantam critérios mínimos de qualidade, (ii) associação de cada premissa
a um termo consequente mais compatível e (iii) agregação de regras
de uma mesma classe por meio de operadores que ponderem a influência
de cada regra. O modelo proposto é avaliado em 45 bases de dados benchmark
e seus resultados são comparados com modelos da literatura baseados
em Algoritmos Evolucionários. Os resultados comprovam que o Sistema de
Inferência gerado é competitivo, apresentando uma boa acurácia com um
baixo número de regras. / [en] Nowadays, much of the accumulated knowledge is stored as data. In
many classification problems the relationship between a set of variables
(attributes) and a target variable of interest must be learned. Among
the tools capable of modeling real systems, Fuzzy Inference Systems are
considered excellent with respect to the knowledge representation in a
comprehensible way, as they are based on inference rules. This is relevant
in applications where a black box model does not suffice. This model
may attain good accuracy, but does not explain how results are obtained.
This dissertation presents the development of a Fuzzy Inference System
in an automatic manner, where the rule base should favour linguistic
interpretability and at the same time provide good accuracy. In this sense,
this work proposes the AutoFIS-Class model, an automatic method for
generating Fuzzy Inference Systems for classification problems. Its main
features are: (i) generation of premises to ensure minimum, quality criteria,
(ii) association of each rule premise to the most compatible consequent
term; and (iii) aggregation of rules for each class through operator that
weigh the relevance of each rule. The proposed model was evaluated for
45 datasets and their results were compared to existing models based on
Evolutionary Algorithms. Results show that the proposed Fuzzy Inference
System is competitive, presenting good accuracy with a low number of rules.
|
23 |
[en] DIALOGUE TRANSLATION IN LITERARY WORKS: EXPANDING THE LIMITS OF VEROSSIMILITUDE / [pt] TRADUÇÃO DE DIÁLOGOS EM OBRAS LITERÁRIAS: AMPLIANDO OS LIMITES DA VEROSSIMILHANÇADÉBORA LANDSBERG GELENDER COELHO 25 October 2016 (has links)
[pt] Com base no conceito de tradução ilusionista, de Jirí Levý, este estudo investiga a tradução de diálogos em obras literárias. Amparada nas premissas de Marcos Bagno de que nem as camadas cultas da sociedade falam segundo o prescrito nas gramáticas normativas, esta pesquisa subscreve a noção de que vivemos em uma diglossia no que se refere ao registro. A partir da década de 1970, segundo John Milton, o mercado editorial brasileiro cada vez mais adota o princípio do efeito de verossimilhança quando da recriação do discurso direto de personagens em língua portuguesa - conforme estabelecido por meio da comparação de três versões de As aventuras de Huckleberry Finn, de Mark Twain. Em seguida, por meio da tradução comentada do romance May We Be Forgiven, da escritora americana A. M. Homes, verificamos as marcas de oralidade já aceitas no mercado editorial. Por fim, o trabalho busca novas marcas em gramáticas descritivas da língua falada culta. / [en] Based on Jiří Levý s concept of illusionist translation this study investigates the issue of dialogue translation in literary works. Supported Marcos Bagno s observation that not even cultivated people speak according to the rules of prescriptive grammar, this research endorses the notion that we live in a register diglossia. Since the 1970s, according to John Milton, the Brazilian publishing market has been more open to the principle of the verisimilitude effect when it comes to recreating characters direct speech in Portuguese — a statement that will be verified through the comparison of three Brazilian versions of The Adventures of Huckleberry Finn, by Mark Twain. Next, through the commented translation of excerpts from May We Be Forgiven, a novel by American writer A. M. Homes, we verify which orality markers are already accepted by the publishing market. Finally, this study also seeks new markers in descriptive grammars of standard spoken language.
|
24 |
[en] DESIGN & DEVELOPMENT OF A STANDARD FOR HIGH VOLTAGE IN DIRECT CURRENT IN THE RANGE OF 1 KV TO 50 KV / [pt] PROJETO & DESENVOLVIMENTO DE UM PADRÃO PARA ALTA TENSÃO EM CORRENTE CONTÍNUA NA FAIXA DE 1 KV A 50 KVMÁRCIO THELIO FERNANDES DA SILVA 01 August 2011 (has links)
[pt] Metrologia e qualidade estão intimamente relacionadas e constituem-se em poderoso instrumento de transformação da infraestrutura tecnológica de países e organizações. O avanço do desenvolvimento científico e tecnológico está fortemente embasado no avanço da metrologia. O Instituto Nacional de Metrologia, Normalização e Qualidade industrial (INMETRO) é o órgão máximo responsável pela conservação e manutenção das unidades de base e derivadas do Sistema Internacional de Unidades (SI) no país. A grandeza tensão em corrente contínua, até 1 kV, está disponível e rastreada a padrões nacionais na Rede Brasileira de Calibração (RBC). Contudo, para tensões maiores que 1 kV, pois ainda carece de laboratórios acreditados pelo INMETRO para prestar serviços para a indústria de equipamentos elétricos em Alta Tensão em Corrente Contínua (HVDC). Deve-se considerar, ainda, que novos investimentos na geração e transmissão em larga escala de energia mobilizam a indústria e geram demanda para ensaios em novos equipamentos que serão instalados. Para realizar esses ensaios, de forma a garantir exatidão, confiabilidade e rastreabilidade, é necessária uma estrutura metrológica em Alta Tensão, ou seja, é preciso criar padrões e incentivar a acreditação de laboratórios. Nesse sentido o objetivo desta dissertação foi à construção de um protótipo de Divisor para Alta Tensão (DVAT) do tipo resistivo de alta impedância, para medição da grandeza tensão em corrente contínua acima de 1 kV. O padrão foi construído para ser utilizado na faixa de 1 kV a 50 kV e será calibrado em baixa tensão rastreado à RBC. Em alta tensão será o elo na cadeia de rastreabilidade entre o padrão do INMETRO e os divisores dos laboratórios industriais e também na calibração de padrões de trabalho para HVDC na faixa de 1 kV a 250 kV. / [en] Metrology and quality are closely related and constitute a powerful tool for transforming the technological infrastructure of countries and organizations. The advancement of scientific and technological development is strongly grounded in the advancement of metrology. The National Institute of Metrology, Standardization and Industrial Quality (INMETRO) is the highest organism responsible by the conservation and maintenance of base and derived units of the International System of Units (SI) in the country. The quantity voltage, up to 1 kV, is traced to national standards in the Brazilian Calibration Network (RBC), but for voltages above 1 kV there is no laboratory in the country accredited by INMETRO to provide services for the electrical equipment industry in HVDC. It should also be considered that new investments in generation and transmission of large scale energy mobilize the industry and generates demand for testing of new equipment. To perform these tests, so as to ensure reliability, accuracy and traceability, a metrology structure is needed in high voltage, so it is necessary to create standards and encourage the accreditation of laboratories. In this sense the main purpose of this dissertation was to build a prototype for a standard High Voltage Divider (DVAT) of the high impedance resistive type for measuring the quantity voltage above 1 kV. The standard was designed for use in the range of 1kV to 50 kV and will be calibrated in low voltages and traceable to the RBC. In the high voltage range, it will be the link in the chain of traceability between INMETRO standards and the dividers of industrial laboratories, and also to calibrate other working standards for HVDC, especially in the range of 1 kV to 250 kV.
|
25 |
[en] A STATISTICAL INVESTIGATION ON TECHNICAL ANALYSIS / [pt] UMA INVESTIGAÇÃO ESTATÍSTICA SOBRE ANÁLISE TÉCNICAGIULIANO PADILHA LORENZONI 25 October 2006 (has links)
[pt] A análise técnica ou grafismo consiste na identificação
visual de padrões
geométricos em gráficos de séries de preços de mercado com
o objetivo de
antecipar tendências de preço. Esta Dissertação revisita a
questão da validação
estatística da análise técnica, que tem sido estudada na
literatura sem os devidos
cuidados com os problemas de heterogeneidade e de
dependência estatística dos
dados analisados - agrupamento de séries de retornos
referentes a diversos ativos
financeiros distintos. O objetivo central deste estudo
consiste em resolver o
primeiro problema citado, através de uma metodologia para
homogeneizar os
ativos no que concerne às distribuições de probabilidades
de suas séries de
retorno. Os passos gerais desta metodologia envolvem a
identificação dos
processos estocásticos geradores dos retornos dos ativos,
o agrupamento de ativos
semelhantes e, finalmente, a análise de presença, ou
ausência, de informação
advinda dos padrões de preços. Como ilustração, são
analisadas séries de diversos
ativos do mercado financeiro mundial. A nossa investigação
verifica a existência
de conteúdo informativo estatisticamente significante em
dois dos três padrões
usualmente identificados na análise técnica, a saber:
triângulos retângulos e head
& shoulders. / [en] Technical analysis or charting aims on visually
identifying geometrical
patterns in price charts in order to anticipate price
trends. This dissertation revisits
the issue of technical analysis statistical validation,
which has been tackled in the
literature without taking care of the presence of
heterogeneity and statistical
dependence in the analyzed data - agglutinated return time
series from many
distinct securities. The main purpose of this study is to
address the first cited
problem by suggesting a methodology to homogenize the
securities according to
the probability distributions of their return series. The
general steps of the
methodology go through the identification of the data
generating stochastic
processes for the security returns, the clustering of
similar securities and, finally,
the analysis of the presence, or absence, of informational
content coming from
those price patterns. We illustrate the proposed
methodology with several
financial securities of the global market. Our
investigation shows that there is a
statistically significant informational content in two out
of the three common
patterns usually found through technical analysis, namely:
triangles, rectangle and
head & shoulders.
|
26 |
[en] ANALYSIS OF CURRENT TRANSFORMERS FOR MEASUREMENTS / [pt] ANÁLISE DE TRANSFORMADORES DE CORRENTE PARA MEDIÇÃOPATRICIA CALS DE OLIVEIRA 21 November 2001 (has links)
[pt] Esta Dissertação de Mestrado apresenta uma metodologia para
analisar transformadores para instrumentos (TI) em geral, e
vários tipos de transformadores de corrente (TC-s) para
medição. O funcionamento e as características dos
transformadores de potencial (TP-s) e dos TC-s estão sendo
analisados, usando-se as ferramentas tradicionais (circuito
equivalente e representação fasorial). O tratamento
generalizado facilita a comparação entre TP-s e TC-s e a
análise qualitativa dos parâmetros que influenciam os erros
de relação e de ângulo de fase.Após verificação geral,
quatro tipos de TC-s estão sendo estudados detalhadamente.
Para analisar construções eletromagnéticas mais complexas,
um método não tradicional está sendo aplicado. Usando-se as
representações fasoriais,realiza-se o cálculo baseando-se
nas equações elétricas e nas equações magnéticas. O erro
complexo do TC é o resultado das soluções destas equações, e
vem expresso em função dos parâmetros de construção. Os
resultados facilitam comparar o desempenho de vários tipos
de TC-s existentes e/ou a serem projetados.
Um programa de simulação, utilizando a linguagem C no
ambiente LabWindows/CVI - C for Virtual Instrumentation
(National Instruments), foi desenvolvido com base nas
equações para o cálculo do erro. O programa analisa o
comportamento de 4 tipos de TC-s, existentes e/ou a serem
projetados, quanto ao erro de relação e ao ângulo de fase.
A partir do tipo de material, da dimensão do núcleo e do
tipo de enrolamentos, em modo interativo, pode-se escolher
várias combinações dos parâmetros em etapas repetidas.
A eficiência do método aplicado foi verificada e
comprovada. Os resultados são coerentes e quando usados no
programa de simulação, resultam em um novo método para
analisar, projetar ou escolher um TC para uma finalidade
específica. / [en] This dissertation for a master degree presents a
methodology to analyse Instrument Transformers in general
terms and several types of Current Transformers (CT`s) for
measurements, in details.At first, operation and
characteristics of Potential Transformers (PT` s) and that
of CT` s are analysed, using traditional tools (as
equivalent circuits and fasorial representation).
The generalised treatment facilitates the comparison
between PT` s and CT` s as well as a qualitative analysis
of the parameters influencing the ratio and phase errors.
After giving a general view, four types of CT` s are
studied in details. To analyse complex electromagnetic
constructions, a non-traditional method is applied. By using
fasorial representations, calculus is based on defining
separate groups of electrical and magnetic equations to
describe a device. The result of the solution of this set of
equations is the complex error of the CT, which is being
expressed exclusively in terms of parameters of the
construction. The results facilitate the comparison of the
performance of various types of CT` s, that exist or are to
be designed. A simulation program, using language C, in the
ambient of LabWindows/CVI - C for Virtual Instrumentation
(National Instruments), was developed, in order to
calculate the errors, based upon the equations obtained.
The program is capable of specifying the parameters and
analysing the characteristics of four types of CT` s,
representing finally the ratio and phase errors, in terms
of the variation of the current or that of the load.
Characteristics of various magnet ic materials, dimensions
ofstandardized toroidal cores and that of wires can be
specified, stored and selected thereafter. The program
facilitates experimenting with various combinations of
parameters in an interactive mode and to approximate
optimised constructions in iterative steps.
Efficiency of the method was verified and proved.
The results are coherent and when are used in the
simulation program, represent a new method to analyse an
existing CT or to design a new one, or to select the most
adequate model for a specific purpose.
|
27 |
[pt] CALIBRAÇÃO DE CÂMERA USANDO PROJEÇÃO FRONTAL-PARALELA E COLINEARIDADE DOS PONTOS DE CONTROLE / [en] CAMERA CALIBRATION USING FRONTO PARALLEL PROJECTION AND COLLINEARITY OF CONTROL POINTSSASHA NICOLAS DA ROCHA PINHEIRO 17 November 2016 (has links)
[pt] Imprescindível para quaisquer aplicações de visão computacional ou
realidade aumentada, a calibração de câmera é o processo no qual se obtém
os parâmetros intrínsecos e extrínsecos da câmera, tais como distância
focal, ponto principal e valores que mensuram a distorção ótica da lente.
Atualmente o método mais utilizado para calibrar uma câmera envolve
o uso de imagens de um padrão planar em diferentes perspectivas, a
partir das quais se extrai pontos de controle para montar um sistema de
equações lineares cuja solução representa os parâmetros da câmera, que
são otimizados com base no erro de reprojeção 2D. Neste trabalho, foi
escolhido o padrão de calibração aneliforme por oferecer maior precisão na
detecção dos pontos de controle. Ao aplicarmos técnicas como transformação
frontal-paralela, refinamento iterativo dos pontos de controle e segmentação
adaptativa de elipses, nossa abordagem apresentou melhoria no resultado
do processo de calibração. Além disso, propomos estender o modelo de
otimização ao redefinir a função objetivo, considerando não somente o erro
de reprojeção 2D, mas também o erro de colinearidade 2D. / [en] Crucial for any computer vision or augmented reality application, the
camera calibration is the process in which one gets the intrinsics and the
extrinsics parameters of a camera, such as focal length, principal point
and distortions values. Nowadays, the most used method to deploy the
calibration comprises the use of images of a planar pattern in different
perspectives, in order to extract control points to set up a system of linear
equations whose solution represents the camera parameters, followed by
an optimization based on the 2D reprojection error. In this work, the
ring calibration pattern was chosen because it offers higher accuracy on
the detection of control points. Upon application of techniques such as
fronto-parallel transformation, iterative refinement of the control points and
adaptative segmentation of ellipses, our approach has reached improvements
in the result of the calibration process. Furthermore, we proposed extend
the optimization model by modifying the objective function, regarding not
only the 2D reprojection error but also the 2D collinearity error.
|
28 |
[en] A STUDY ON ELLIPSOIDAL CLUSTERING / [pt] UM ESTUDO SOBRE AGRUPAMENTO BASEADO EM DISTRIBUIÇÕES ELÍPTICAS16 January 2019 (has links)
[pt] A análise de agrupamento não supervisionado, o processo que consistem em agrupar conjuntos de pontos de acordo com um ou mais critérios de similaridade, tem desempenhado um papel essencial em vários campos. O dois algoritmos mais populares para esse processão são o k-means e o Gaussian Mixture Models (GMM). O primeiro atribui cada ponto a um único cluster e usa a distância Euclidiana como similaridade. O último determina uma matriz de probabilidade de pontos pertencentes a clusters, e usa distância de Mahalanobis como similaridade. Além da diferença no método de atribuição - a chamada atribuição hard para o primeiro e a atribuição soft para o último - os algoritmos também diferem em relação à estrutura do
cluster, ou forma: o k-means considera estruturas esféricas no dados; enquanto o GMM considera elipsoidais através da estimação de matrizes de covariância. Neste trabalho, um problema de otimização matemática que combina a atribuição hard com a estrutura do cluster elipsoidal é detalhado e formulado. Uma vez que a estimativa da covariância desempenha um papel importante no comportamento de estruturas agrupamentos elipsoidais, técnicas de regularizações são exploradas. Neste contexto, dois métodos de meta-heurística, uma perturbação Random Swap e um algoritmo híbrido genético, são adaptados, e seu impacto na melhoria do desempenho dos métodos é estudado. O objetivo central dividido em três: compreender as condições em que as estruturas de agrupamento elipsoidais são mais benéficas que as esféricas; determinar o impacto da estimativa de covariância com os métodos de regularização; e analisar o efeito das meta-heurísticas de otimização global na análise de agrupamento não supervisionado. Finalmente, a fim de fornecer bases para a comparação das presentes descobertas com futuros trabalhos relacionados, foi gerada uma base de dados com um extenso benchmark contendo análise das variações de diferentes tamanhos, formas, número de grupos e separabilidade, e seu impacto nos resultados de
diferentes algoritmos de agrupamento. Além disso, pacotes escritos na linguagem Julia foram disponibilizados com os algoritmos estudados ao longo deste trabalho. / [en] Unsupervised cluster analysis, the process of grouping sets of points according to one or more similarity criteria, plays an essential role in various fields. The two most popular algorithms for this process are the k-means and the Gaussian Mixture Models (GMM). The former assigns each point to a single cluster and uses Euclidean distance as similarity. The latter determines a probability matrix of points to belong to clusters, and the Mahalanobis distance is the underlying similarity. Apart from the difference in the assignment method - the so-called hard assignment for the former and soft assignment for the latter - the algorithms also differ concerning the cluster structure, or shape: the k-means considers spherical structures in the data; while the GMM considers ellipsoidal ones through the estimation of covariance matrices. In this work, a mathematical optimization problem that combines the hard assignment with the ellipsoidal cluster structure is detailed and formulated. Since the estimation of the covariance plays a
major role in the behavior of ellipsoidal cluster structures, regularization techniques are explored. In this context, two meta-heuristic methods, a Random Swap perturbation and a hybrid genetic algorithm, are adapted, and their impact on the improvement of the performance of the methods is studied. The central objective is three-fold: to gain an understanding of the conditions in which ellipsoidal clustering structures are more beneficial than spherical ones; to determine the impact of covariance estimation with regularization methods; and to analyze the effect of global optimization meta-heuristics on unsupervised cluster analysis. Finally, in order to provide grounds for comparison of the present findings to future related works, a database was generated together with an extensive benchmark containing an analysis of the variations of different sizes, shapes, number of clusters, and separability and their impact on the results of different clustering algorithms. Furthermore, packages written in the Julia language have been made available with the algorithms studied throughout this work.
|
29 |
[pt] ESTUDOS DE SENSIBILIDADE PARA VIOLAÇÃO DE CARGA-PARIDADE NOS DECAIMENTOS D+ -> K-K+Π+ E D+ -> Π-Π+Π+ NO EXPERIMENTO LHCB / [en] SENSITIVITY STUDIES FOR CHARGE-PARITY VIOLATION IN THE DECAYS D+ -> K-K+Π+ AND D+ -> Π-Π+Π+ IN THE LHCB EXPERIMENTLUCAS NICHOLAS FALCAO FERREIRA 11 January 2022 (has links)
[pt] Na última década, desde o início do funcionamento do LHC, o Modelo Padrão de física de partículas vem sendo posto à prova com precisão sem precedentes, com enorme êxito. Um de seus experimentos é o LHCb, dedicado à física dos hádrons contendo os quarks beauty e charm. Um dos importantes temas de pesquisa do LHCb é o estudo de efeitos de assimetria partícula-antipartícula em processos de decaimento, devido à chamada violação de Carga-Paridade (CP). A violação de CP é prevista pelo Modelo Padrão e, em decaimentos envolvendo o quark charm, pode ocorrer em certos processos chamados de suprimidos por Cabibbo. No entanto, este efeito é muito pequeno, da ordem de 0.1 porcento. Esta pequenez faz com que o
ambiente de decaimentos charmosos seja atraente para busca por física além do Modelo Padrão. O objetivo deste trabalho é o estudo de sensibilidade para violação de CP nos canais D+ -> K- K+π+ e D+ -> π- π+π+: no run II do LHCb. Através de uma representação do espaço de fase desses decaimentos, chamado de Dalitz Plot, e a utilização do método de Mirandizing, que se baseia em procurar significâncias locais na diferença da distribuição de eventos no Dalitz Plot de partícula e antipartícula, pode-se buscar por assimetrias de carga que indicariam efeitos de violação de CP nestes decaimentos. Baseando-se nas estatísticas dos dados tomados entre 2016 e 2018 no LHCb, foram desenvolvidos pseudoexperimentos, via método de Monte Carlo, visando reproduzir a dinâmica dos dados reais, e inserindo pequenos
efeitos de violação de CP. Verificamos que há sensibilidade para a violação de CP com efeitos da ordem de 10-3 em algumas situações, que condiz com as expectativas do Modelo Padrão, o que indica a possibilidade de observação de violação de CP nos dados reais do run II. / [en] In the last decade, since the beginning of the operation of the LHC, the Standard Model of particle physics has been tested with unprecedented precision, with enormous success. One of its experiment is LHCb, dedicated to the physics of hadrons containing the beauty and charm quarks. One of the important research topics of the LHCb is the study of the effects of particle-antiparticle asymmetry in decay processes, due to the so-called charge-parity violation (CP). CP violation is predicted by the Standard
Model and, in decays involving the charm quark, it can occur in certain processes called Cabibbo-suppressed. However, this effect is very small, of the order of 0.1 percent. This smallness makes the environment of charm decays attractive to search for physics beyond the Standard Model.
The aim of this work is the study of sensitivity for CP violation in the channels D+ -> K-K+π+ and D+ -> π-π+π+ in run II of the LHCb. Through the phase space of these decays, called Dalitz Plot, and the use
of the Mirandizing method, which is based on looking for local significance in the difference in the distribution of events for particle and antiparticle Dalitz Plots, one can seek for local asymmetries that would indicate effects of CP violation in these decays. Based on the data statistics taken between
2016 and 2018 at the LHCb, pseudo experiments were performed, using the Monte Carlo method, aiming to reproduce the dynamics of real data, and inserting small effects of CP violation. We found that there is sensitivity for CP violation with effects of the order of 10−3 in some situations, which is the expected level predicted by the Standard Model, indicating a possibility for observing CP violation in the real data from run II.
|
30 |
[en] RANDOMFIS: A FUZZY CLASSIFICATION SYSTEM FOR HIGH DIMENSIONAL PROBLEMS / [pt] RANDOMFIS: UM SISTEMA DE CLASSIFICAÇÃO FUZZY PARA PROBLEMAS DE ALTA DIMENSIONALIDADEOSCAR HERNAN SAMUDIO LEGARDA 20 December 2016 (has links)
[pt] Hoje em dia, grande parte do conhecimento acumulado está armazenada em forma de dados. Dentre as ferramentas capazes de atuar como modelos representativos de sistemas reais, os Sistemas de Inferência Fuzzy têm se destacado pela capacidade de fornecer modelos precisos e, ao mesmo tempo, interpretáveis. A interpretabilidade é obtida a partir de regras linguísticas, que podem ser extraídas de bases de dados bases históricas e que permitem ao usuário compreender a relação entre as variáveis do problema. Entretanto, tais sistemas sofrem com a maldição da dimensionalidade ao lidar com problemas complexos, isto é, com um grande número de variáveis de entrada ou padrões, gerando problemas de escalabilidade. Esta dissertação apresenta um novo algoritmo de geração automática de regras, denominado RandomFIS, especificamente para problemas de classificação, capaz de lidar com grandes bases de dados tanto em termos de número de variáveis de entrada (atributos) quanto em termos de padrões (instâncias). O modelo RandomFIS utiliza os conceitos de seleção de variáveis (Random Subspace) e Bag of Little Bootstrap (BLB), que é uma versão escalável do Bootstrapping, criando uma estrutura de comitê de classificadores. O RandomFIS é avaliado em várias bases benchmark, demostrando ser um modelo robusto que mantém a interpretabilidade e apresenta boa acurácia mesmo em problemas envolvendo grandes bases de dados. / [en] Nowadays, much of the accumulated knowledge is stored as data. Among the tools capable of acting as representative models of real systems, Fuzzy Inference Systems are recognized by their ability to provide accurate and at the same time interpretable models. Interpretability is obtained from linguistic rules, which can be extracted from historical databases. These rules allow the end user to understand the relationship between variables in a specific problem. However, such systems experience the curse of dimensionality when handling complex problems, i.e. with a large number of input variables or patterns in the dataset, giving origin to scalability issues. This dissertation presents a new algorithm for automatic generation of fuzzy rules, called RandomFIS, specifically for classification problems, which is able to handle large databases both in terms of number of input variables (attributes) and in terms of patterns (instances). The RandomFIS model makes use of feature selection concepts (Random Subspace) and Bag of Little Bootstrap (BLB), which is a scalable version of Bootstrapping, creating a classifier committee structure. RandomFIS is tested in several benchmark datasets and shows to be a robust model that maintains interpretability and good accuracy even in problems involving large databases.
|
Page generated in 0.0272 seconds