• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 164
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 174
  • 174
  • 174
  • 57
  • 37
  • 29
  • 27
  • 27
  • 19
  • 18
  • 16
  • 16
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Simulação Monte Carlo de fluidos magnéticos voltados a aplicações tecnológicas e biomédicas

Castro, Leonardo Luiz e 19 October 2009 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Física, 2009. __________________________________________________________________________________________ / O arquivo é programado para ser impresso em frente e verso, por isso aparecem páginas em branco na parte pré-textual: essas páginas são os versos. Isso é feito através do recurso Clear Double Page do LATEX ® / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-01-29T10:33:13Z No. of bitstreams: 1 2009_LeonardoLuizeCastro.pdf: 4474736 bytes, checksum: a52ac17211718ec50d10f7901b922ad5 (MD5) / Rejected by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br), reason: on 2013-01-31T12:11:38Z (GMT) / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-01-31T12:31:25Z No. of bitstreams: 1 2009_LeonardoLuizeCastro.pdf: 4474736 bytes, checksum: a52ac17211718ec50d10f7901b922ad5 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-02-01T14:11:07Z (GMT) No. of bitstreams: 1 2009_LeonardoLuizeCastro.pdf: 4474736 bytes, checksum: a52ac17211718ec50d10f7901b922ad5 (MD5) / Made available in DSpace on 2013-02-01T14:11:07Z (GMT). No. of bitstreams: 1 2009_LeonardoLuizeCastro.pdf: 4474736 bytes, checksum: a52ac17211718ec50d10f7901b922ad5 (MD5) / Neste trabalho, simulamos um fluido magnético surfactado, composto de nanopartículas de magnetita (Fe3O4) surfactadas com ácido dodecanóico e dispersas em hidrocarboneto, e um fluido magnético iônico-surfactado, também formado por nanopartículas de magnetita, mas surfactadas com ácido tartárico e dispersas em solução aquosa de NaCl. Tomando como referência amostras caracterizadas experimentalmente, por microscopia eletrônica de transmissão, ressonância magnética eletrônica e magneto-óptica, realizamos simulações computacionais através do algoritmo de Metropolis. Por meio destas simulações, calculamos grandezas relacionadas ao nível de aglomeração das nanopartículas e a distância entre suas superfícies, especificamente escolhidas de modo a permitir comparação com as medidas experimentais. Além dessas, grandezas referentes à distribuição espacial e padrões de aglomeração das nanopartículas, dificilmente acessíveis por experimentos, foram também calculadas. Utilizamos um modelo de interação entre as nanopartículas mais detalhado que os utilizados em simulações Monte Carlo anteriores, considerando essas nanopartículas como esferas que interagem individualmente com um campo magnético externo, e aos pares através de momentos de dipolo magnético, forças de van der Waals, repulsões estérica e iônica. Por integração explícita, mostramos que as nanopartículas esféricas podem ser propriamente representadas por dipolos pontuais, no que concerne às suas interações magnéticas. Como os diâmetros das nanopartículas geralmente estão distribuídos segundo uma função do tipo log-normal, criamos um método estocástico para gerar configurações de nanopartículas com diâmetros realísticos. Através de uma análise conjunta de dados experimentais e das simulações, fizemos uma generalização do modelo de Langmuir para sistemas com aglomeração, através da qual foi possível descrever a dinâmica de adsorção e dessorção das moléculas surfactantes nas superfícies das nanopartículas dos fluidos magnéticos surfactados. Esse modelo, combinado com uma análise dos resultados experimentais, sugere uma migração das moléculas das nanopartículas aglomeradas em direção às que estão isoladas. Uma nova expressão que relaciona as repulsões estérica e iônica entre si foi obtida a partir de princípios básicos, reduzindo a quantidade de parâmetros necessários para simular fluidos magnéticos iônico-surfactados. Foi possível fazer uma estimativa da densidade superficial de moléculas adsorvidas nas superfícies das nanopartículas, quantidade chamada de grafting, tanto para os fluidos magnéticos surfactados quanto para os iônico-surfactado, através da variação de seu valor como parâmetro das simulações e da comparação dos resultados com dados experimentais. Os valores estimados para o grafting são da ordem de grandeza de medidas experimentais independentes. O padrão de aglomeração das nanopartículas observado nas simulações concordam com previsões teóricas e observações de bactérias magnetotáticas. _______________________________________________________________________________________ ABSTRACT / In this work, we simulated a surfacted magnetic fluid, composed of magnetite nanoparticles (Fe3O4) covered with dodecanoic acid and dispersed in hydrocarbon, and an ionic-surfacted magnetic fluid, also consisting of magnetite nanoparticles, but covered with tartaric acid and dispersed in an aqueous solution of NaCl. We selected samples that were previously characterized by experiments and then we performed computer simulations by means of the Metropolis algorithm. Quantities related to the level of agglomeration of the nanoparticles and the distance between their surfaces, specifically chosen to allow comparison with the experimental measurements, were calculated. In addition, quantities related to the spatial distribution and the agglomeration patterns of the nanoparticles, not easily accessed by experiments, were also studied by these simulations. We modeled the interactions between the nanoparticles in more details than previous Monte Carlo simulations, considering the interaction of each nanoparticle with an applied magnetic field, and the following pair interactions: magnetic dipolar, van der Waals forces, ionic and steric repulsions. By explicit integration, we showed that spherical nanoparticles with uniform magnetization can have their magnetic interaction properly represented by point dipoles with magnitudes proportional to their volume. As the diameters of nanoparticles are usually distributed according to a log-normal function, we created a stochastic method to generate configurations of nanoparticles with realistic diameters. Through a combined analysis of experimental data and simulation results, we generalize the Langmuir model for systems with agglomeration. By applying this model to our data, it was possible to describe the dynamics of adsorption and desorption of surfactant molecules on the surfaces of surfacted ferrofluid nanoparticles. This analysis suggested a migration of the surfactant from the agglomerated nanoparticles toward those that are isolated. A new expression that relates the ionic and steric repulsions was obtained from basic principles, reducing the number of parameters needed to simulate ionic-surfacted magnetic fluids. We estimated the surface density of adsorbed molecules on the surfaces of nanoparticles (the grafting) for both surfacted and ionic-surfacted magnetic fluids, by varying its value in the simulations and comparing the results with experimental measurements. The estimated values agree with independent experiments. The agglomeration patterns observed in the simulations are in agreement with previous theoretical calculation and observations in magnetotactics bacterias.
52

Regressão ordinal Bayesiana

Cella, Leonardo Oliveira Gois January 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-01-27T13:38:48Z No. of bitstreams: 1 2013_LeonardoOliveiraGoisCella.pdf: 783579 bytes, checksum: c7b0917eb8cf3bdcf8dfba759c5c0d04 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-02-11T12:30:18Z (GMT) No. of bitstreams: 1 2013_LeonardoOliveiraGoisCella.pdf: 783579 bytes, checksum: c7b0917eb8cf3bdcf8dfba759c5c0d04 (MD5) / Made available in DSpace on 2014-02-11T12:30:19Z (GMT). No. of bitstreams: 1 2013_LeonardoOliveiraGoisCella.pdf: 783579 bytes, checksum: c7b0917eb8cf3bdcf8dfba759c5c0d04 (MD5) / Este trabalho apresenta a inferência do modelo de regressão ordinal, considerando a ligação Logit e a abordagem da verossimilhança multinomial. Foi proposta uma reparametrização do modelo de regressão. As inferências foram realizadas dentro de um cenário bayesiano fazendo-se o uso das técnicas de MCMC (Markov Chain Monte Carlo). São apresentadas estimativas pontuais dos parâmetros e seus respectivos intervalos HPD, assim como um teste de significância genuinamente bayesiano FBST (Full Bayesian Significance Test) para os parâmetros de regressão. A metodologia adotada foi aplicada em dados simulados e ilustrada por um problema genético que verificou a influência de um certo tipo de radiação na ocorrência de danos celulares. A abordagem da verossimilhança multinomial combinada à reparametrização do modelo é de fácil tratamento devido ao aumento da capacidade computacional e do avanço dos métodos MCMC. Além disso, o FBST se mostrou um procedimento simples e útil para testar a significância dos coeficientes de regressão, motivando assim a utilização de uma abordagem bayesiana na modelagem de dados ordinais. _______________________________________________________________________________________ ABSTRACT / This work presents inferences of ordinal regression models considering the Logit link functions and the multinomial likelihood approach. A new reparametrization was proposed for the regression model. The inferences were performed in a bayesian scenario, using the MCMC (Markov Chain Monte Carlo) technics. Point estimates of the parameters and their respective HPD credibility intervals are presented, as well a Full Bayesian Significance Test (FBST) for the regression parameters. This methodology was applied on simulated data and illustrated in a genetic problem which was to verify the inuence of certain radiation on the occurrence of cellular damage. The multinomial likelihood approach combined with the model reparametrization is easy to treat due the increasing computing power and the advancement of MCMC methods. Moreover, the FBST proved being a simple and useful procedure for testing the significance of regression coeficients, thus motivating the use of a bayesian approach in ordinal data modeling.
53

Otimização no tempo de simulação de cascatas eletromagnéticas na atmosfera

Carvalho, Luiz Américo de 18 July 1996 (has links)
Orientador: Carola Dobrigkeit Chinellato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-07-22T10:51:25Z (GMT). No. of bitstreams: 1 Carvalho_LuizAmericode_M.pdf: 4498055 bytes, checksum: f8ef48bca1dbefcc4473f16004b6cefc (MD5) Previous issue date: 1996 / Resumo: Estudamos e utilizamos dois procedimentos com o objetivo de diminuir o tempo gasto na simulação de cascatas eletromagnéticas a altas energias para grandes profundidades na atmosfera. O primeiro procedimento é baseado no transporte longitudinal das partículas, ou seja, sem considerar as deflexões devidas ao espalhamento múltiplo coulombiano e a influência do campo magnético terrestre. As subcascatas que não contribuírem com partículas de energia acima do limiar na profundidade de detecção são eliminadas. Aquelas partículas que contribuírem são então transportadas, agora considerando o espalhamento e a influência do campo magnético. O segundo procedimento é baseado no corte de subcascatas, sem nem mesmo transportá-Ias longitudinalmente. Para isto foi estudada uma função corte dependente da profundidade que a partícula ainda deve atravessar até o nível de detecção. Com o uso conjunto destes procedimentos conseguimos um considerável ganho no tempo de simulação, sem comprometer os resultados / Abstract: We have studied and applied two procedures with the aim of reducing the time for simulation of high energy electromagnetic cascades for high depths in the atmosphere. The first procedure is based on the longitudinal transport of particles, i.e., without considering the deflections due to the multiple Coulomb scattering and the influence of the magnetic field of the Earth; in this way we remove subcascades that do not contribute with particles above threshold energy at the detection level. Those that contribute are then transported, now considering scattering and the influence of the magnetic field. The second procedure is based on the cut of subcascades avoiding even the longitudinal transport. For this we have studied a cut function that depends only on the depth the particle has to move till the detection level. With the use of both procedures we get a considerable profit in the time of simulation without jeopardizing the results / Mestrado / Física / Mestre em Física
54

Previsão da manutenção de disjuntores dos alimentadores de distribuição de energia eletrica pelo metodo de curto-circuito probabilistico

Mamede, Juracy Pereira 14 April 2004 (has links)
Orientador : Fujio Sato / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T22:11:01Z (GMT). No. of bitstreams: 1 Mamede_JuracyPereira_M.pdf: 875289 bytes, checksum: 56b8672cc598f340b2cf3b5140e18e84 (MD5) Previous issue date: 2004 / Resumo: As empresas de distribuição de energia elétrica adotam como critério para determinação do intervalo de manutenção dos disjuntores que toda falta ocorreu com o máximo valor da corrente de curto-circuito do alimentador, que é calculada por método determinístico, devido à dificuldade de se considerar as variáveis aleatórias que influenciam o valor desta corrente. Este critério reduz o intervalo de manutenção e gera manutenções, muitas vezes, desnecessárias. Este trabalho apresenta uma nova metodologia da previsão de manutenção de disjuntores, através do cálculo de curto-circuito probabilístico para alimentadores radiais de distribuição de energia elétrica. São consideradas as características físicas dos padrões de estruturas das redes para a polarização de variáveis aleatórias que geram um perfil das correntes de curto-circuito da rede. São efetuados milhares de curto-circuito por quilômetro de rede, gerando-se a função densidade de probabilidade da corrente numa determinada área de interesse do alimentador, através do método de simulação de Monte Carlo. A avaliação da densidade acumulada de probabilidade da corrente de curto-circuito permite a otimização das manutenções dos disjuntores, mediante a utilização do valor da corrente mais provável na determinação do intervalo de manutenção, resultando na redução de custos com mão de obra e materiais, além de diminuir o tempo de indisponibilidade do equipamento. No primeiro capítulo são apresentados os problemas da manutenção das redes de distribuição relacionadas às ocorrências das faltas, bem como a inexistência de uma metodologia apropriada para o cálculo do valor da corrente utilizado na determinação do intervalo da manutenção do disjuntor do alimentador por operações em curto-circuito. No segundo capítulo são descritos os principais tipos de padrões das redes de distribuição utilizados na construção de alimentadores, enfocado neste estudo, seu comportamento em relação às faltas, característica de disjuntores pelo tipo do meio de extinção do arco elétrico e os critérios de manutenção dos mesmos. No terceiro capítulo são tratados as definições e conceitos das expressões de cálculos, às variáveis aleatórias, bem como o algoritmo necessário para conformação da metodologia desenvolvida para o cálculo de curto-circuito probabilístico e sua utilização na determinação do intervalo da manutenção de disjuntores. No quarto capítulo é apresentada a aplicação da metodologia desenvolvida, onde se nota a redução de custo proporcionada pelo novo intervalo de programação da manutenção de disjuntores. As conclusões são apresentadas no quinto capítulo / Abstract: The electric power utilities adopt a circuit breaker maintenance schedule based on maximum short-circuit current magnitude, which is calculated using a deterministic method due to difficulties of considering random variables that influence the currents in the model. This criterion reduces the maintenance interval and generates a high number of maintenance actions, which are, in most of times, unnecessary. This work presents a new circuit breaker maintenance planning based on probabilistic short-circuit calculations of electric power distribution system radial feeders. The physical characteristics of network structure patterns are considered for polarization of random variables that generates short-circuits current profile. Thousands of short-circuits simulations per kilometer are performed by the application of Monte Carlo simulation to generate current's probability density function in a certain area of interest of the feeder. The evaluation of short-circuit cumulative density function allows the optimization of the circuit breaker maintenance by using the most probable current values in the determination of maintenance interval, thus resulting in reduction of costs with operation, materials and equipment's unavailability time. In the first Chapter the maintenance problems due to faults in distribution network are presented, as well as the problem of the inexistence of an appropriate methodology for the calculation of breaker's maintenance interval due to short-circuit operations. In the second Chapter the main types of distribution networks standards used in the construction of feeders, its behavior under fault condition; the circuit breakers, which operates with electric arch extinction and its behavior under fault condition, are described. In the third Chapter are treated the definitions and interpretations of random variables, mathematical expressions, as well as, the algorithm developed for the proposed methodology for short-circuit ca1culation and determination of maintenance interval. In the fourth Chapter an application of the developed methodology is presented, where is noticed the influence over circuit breaker maintenance schedule, mainly the cost reduction is noticed. We present the conc1usions in fifth Chapter considering the methodology of probabilistic short-circuit ca1culation to the distribution system, and its application for the determination of circuit breakers maintenance interval is described. / Mestrado / Energia Eletrica / Mestre em Engenharia Elétrica
55

Parametrizações para a distribuição lateral de elétrons em chuveiros atmosféricos extensos a energias E < = 10 15 eV

Ortiz, Jeferson Altenhofen 17 December 1998 (has links)
Orientador: Jose Augusto Chinellato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-07-24T19:20:21Z (GMT). No. of bitstreams: 1 Ortiz_JefersonAltenhofen_M.pdf: 2485834 bytes, checksum: 8d34adba74571305fa4b2dbd113e9835 (MD5) Previous issue date: 1998 / Resumo: Chuveiros atmosféricos extensos (CAE's) iniciados por prótons primários com energia variando de 1.00 x 1013 eV a 2.15 x 1015 eV, injetados em diferentes profundidades da atmosfera, foram simulados. O programa CORSIKA (COsmic Ray SImulations for KAscade), o qual é um detalhado programa de Monte Carlo foi utilizado para simular os CAE's tridimensionais. Os resultados das simulações concentram-se na distribuição lateral de elétrons, tendo-se o intuito de melhorar a reconstrução de eventos observados em experimentos, tais como EASCAMP, do Grupo de Léptons (DRCC), e KASCADE, do Centro de Pesquisa de Karlsruhe, na Alemanha. Uma função de estrutura lateral é proposta para ajustar a densidade de elétrons, de modo a obter uma melhor concordância com dados experimentais, do que a função Nishimura-Kamata-Greisen (NKG), tradicionalmente utilizada. Variação do parâmetro idade, densidade de elétrons e seus correspondentes ajustes são apresentados. Através dos procedimentos de ajuste, obteve-se uma boa concordância entre a função de estrutura proposta e as densidades de elétrons simuladas / Abstract: Not informed. / Mestrado / Física / Mestre em Física
56

Estudos teoricos de solvatação ionica usando simulação computacional de Monte Carlo

Silva, Luciene Borges 20 July 2018 (has links)
Orientador: Luiz Carlos Gomide Freitas / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Quimica / Made available in DSpace on 2018-07-20T19:43:40Z (GMT). No. of bitstreams: 1 Silva_LucieneBorges_M.pdf: 1907308 bytes, checksum: cf4e1a3b928a2f66faaa252df1fb5873 (MD5) Previous issue date: 1995 / Mestrado
57

Simulação de sistemas de comunicações moveis de grande porte com a variação do limiar de bloqueio

Shinoda, Ailton Akira 02 April 1993 (has links)
Orientador: Michel Daoud Yakoub / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-18T09:01:58Z (GMT). No. of bitstreams: 1 Shinoda_AiltonAkira_M.pdf: 7331839 bytes, checksum: 7f02e589ecf7086d410f1fd26c741c9e (MD5) Previous issue date: 1993 / Resumo: Muitos aspectos de projetos de sistemas de rádio móvel celular e medidas de desempenho são estudados considerando as fronteiras entre as células como fixas. Na realidade, as fronteiras não são bem definidas e mudam à propagação de rádio ser variável, tanto no espaço como no tempo. Se um assinante móvel se encontra perto da fronteira entre duas células, ele poderá ter boa comunicação com mais de uma estação base. o objetivo deste trabalho é o estudo do desempenho de tráfego de um sistema de rádio móvel celular de grande porte através da simulação, onde o tráfego da fronteira entre duas células é utilizado para técnicas de encaminhamento alternativo. A estratégia analisada se baseia na Variação do Limiar de Bloqueio, de cada uma das células envolvidas. Nesta técnica o que se propõe é direcionar os assinantes com acesso a mais de uma estação rádio base, para aquela com menor número de canais ocupados, antes mesmo que sua própria célula fique com todos os seus canais bloqueados. O momento da tomada de decisão do reroteamento é definido pelo valor do limiar de bloqueio escolhido, que pode assumir um valor entre 0 e N + 1, onde N é o número de canais em cada célula. Esta técnica é aplicada a um sistema infinito de células e a um sistema celular real (finito). A análise é feita através de simulação de Monte Carlo / Abstract: Not informed. / Mestrado / Mestre em Engenharia Elétrica
58

Modelo enxuto de gerenciamento multiprojetos baseado na corrente crítica /

Moellmann, Artur Henrique. January 2013 (has links)
Orientador: Fernando Augusto Silva Marins / Banca: Otávio José de Oliveira / Banca: Henrique Martins Rocha / Banca: Reinaldo Fagundes dos Santos / Banca: Jorge Muniz Junior / Resumo: O presente trabalho tem como propósito apresentar uma proposta de modelo para gerenciamento em ambientescommúltiplos projetos simultâneos, baseado no método da Corrente Crítica, demonstrando também como seus princípios podem ser complementados junto às premissas do Sistema Enxuto de Desenvolvimento de Produto, tanto no planejamento quanto na gestão de um portfólio de projetos. Isto pode ocorrer por meio da priorização edo sequenciamento entre os projetos na fase de planejamento do portfólio, aplicando-se o nivelamento pela capacidade dos recursos restritivos e estratégicos de uma organização, a fim de minimizar a sobrecarga sobre os recursos do sistema, e complementando,ainda, com a redução dos desperdícios e das variabilidades durante os processos de desenvolvimento. Em adição a isto, é estruturada a proposta de um modelo,delineando-se os estágios desde o planejamento do portfólio até a fase de gestão e controle do sistema, propiciando a discussão de cenários e a exposição das delimitações de aplicação.Na sequência, o trabalho emprega a Simulação de Monte Carlo, a fim de demonstrar quantitativamente os resultados da solução da Corrente Crítica em termos de desempenho de prazos de uma carteira hipotética de projetos, indicando prováveis resultados similares à realidade dos ambientes multiprojetos. Por último, são elencadas possíveis perspectivas de contribuições, sugerindo, ainda, futuras pesquisas do tema agregado a outros modelos de gestão / Abstract: This work aims to present a proposed model of management in environments with multiple simultaneous projects based on Critical Chain method, also demonstrating how its principles can be complemented with the assumptions of the Lean Product Development System, both the planning and management of a project portfolio. This can occur by prioritizing and sequencing the projects in the planning phase of the portfolio, applying the leveling according to the capacity of the constrained and strategic resources of an organization in order to minimize the overload on the system's resources and, moreover, reducing waste and variability during the development processes. In addition to this, is structured proposal for a model, scaling the stages from portfolio planning until management and system control phase, providing a discussion of scenarios and exposuring the delimitations of the application. Following, this research uses the Monte Carlo Simulation in order to quantitatively demonstrate the results of the Critical Chain solution in terms of schedule performance of a hypothetical portfolio of projects, indicating possible results similar to the reality of multiproject environments. Finally, there are possible prospects contributions, suggesting future research theme added to other management models / Doutor
59

Proposta de algoritmos para aumento de dados via arquétipos

CAVALCANTI, Pórtya Piscitelli 11 July 2016 (has links)
Arquétipos, na estatística, são os elementos extremos mais representativos de uma amostra ou população, a partir dos quais todos os outros podem ser reescritos. A Análise de Arquétipos (AA) é uma técnica multivariada que visa reduzir a dimensionalidade dos dados, por meio de combinações convexas dos próprios dados, proporcionando encontrar e selecionar seus arquétipos. Existem aplicações da AA em diversas áreas do conhecimento, contudo ainda não foi explorado o seu potencial no aumento de dados amostrais. Quando um conjunto de dados é caracterizado como incompleto ou não possui o tamanho necessário para cometer o erro desejado no procedimento de inferência estatística, surge a ideia, ou necessidade, de aumentar essa amostra. Para esse fim, a técnica de aumento de dados consiste em introduzir dados não observados ou variáveis latentes por meio de métodos iterativos ou algoritmos de amostragem. Sendo assim, como os arquétipos permitem reescrever os elementos amostrais com um erro mínimo, gerando elementos não observados, esses poderiam ser utilizados para o aumento de dados. Então, o objetivo deste trabalho foi propor e avaliar a eficiência do aumento de dados por meio dos arquétipos. Foram programados três algoritmos para aumento de dados amostrais via arquétipos (Algoritmos 1, 2 e 3 - A1, A2 e A3, respectivamente), e foram realizados dois estudos de simulação para avaliar e comparar cada algoritmo quanto à sua eficiência; sendo testada a distribuição da variável aleatória e as estimativas de seus parâmetros, e também para verificar se esse aumento pode ser executado sucessivas vezes. Além disso, foi feita a aplicação dos algoritmos em um conjunto de dados reais sobre análise sensorial. Os três algoritmos apresentaram resultados semelhantes, destacando-se o A3, por ter apresentado um desempenho apropriado em todos os cenários. Esse algoritmo permitiu aumentar 10% do tamanho da amostra inicial, sem alterar a distribuição de probabilidade, bem como as estimativas de seus parâmetros. O estudo sobre aumentos sucessivos de dados também indicou o A3 como o mais eficiente, que foi capaz de aumentar a amostra em 110% de seu tamanho inicial, através de 11 aumentos sucessivos de 10% cada. O estudo com dados reais permitiu aumentar o tamanho da amostra e proporcionar maior precisão na inferência praticada. Portanto, parece seguro realizar o aumento de dados via arquétipos sugerindo-se o algoritmo 3. / In statistics, archetypes are the most representative extreme observations of a sample or population, from which all others can be written. The Archetypal Analysis (AA) is a multivariate technique that aims to reduce the dimensionality of data through convex combinations of data itself, providing to find and select their archetypes. There are applications of AA in several areas of knowledge, but its potential in sample data augmentation still has not been exploited. When our data set is characterized as missing data or does not have the size needed to make the desired error in statistical inference procedure, there is the idea or need to increase this sample. For this purpose, data augmentation technique consists to introduce non observed data or latent variables by iterative methods or sampling algorithms. Thus, as archetypes allow rewriting the sample elements with a minimum error, generating elements not observed, these could be used to augment data. So the aim of this work was to propose and evaluate the efficiency of data augmentation through archetypes. Three algorithms were programmed to augment sample data using the archetypes (Algorithms 1, 2 and 3 - A1, A2 and A3, respectively), and two simulation studies were conducted to assess and compare the algorithms about the efficacy; testing the random variable distribution, and the estimatives of its parameters, and also to check whether this augment can be run successive times. In addition, was made an application of the algorithms into a real sensory analysis data. All algorithms showed similar results, highlighting the A3, that present an appropriate performance in all scenarios. This algorithm allowed to augment 10% of the initial sample size, without changing the probability distribution, as well as estimatives of its parameters. The study about successive augments also indicated A3 as the most efficient, that was able to augment the sample up to 110% of their initial size by 11 successive augments of 10%. The study with real data allowed to augment the sample size and improve the precision in practiced inference. So it seems safe to perform data augmentation by archetypes suggesting the algorithm 3.
60

Simulação de Monte Carlo: de modelos de spin à teoria de campos na rede

Pinheiro, M. P. de S [UNESP] 20 December 2007 (has links) (PDF)
Made available in DSpace on 2016-05-17T16:51:00Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-12-20. Added 1 bitstream(s) on 2016-05-17T16:54:18Z : No. of bitstreams: 1 000855902.pdf: 1054323 bytes, checksum: 8821779dca285c4030ab51997270af7e (MD5) / Revisamos o método de Monte Carlo aplicado a modelos de spin discretos e a uma teoria de campos escalar na rede, com espcial ênfase no algoritmo de Metropolis. Inicialmente consideramos um modelo de spins de Ising com interacções de longo alcance em uma rede complexa de mundo pequeno. Em vista da não extensividade do modelo, generalizamos o modelo de Metropolis para a termoestatística não extensiva de Tsallis. Simulações numéricas são implementadas com o algoritmo generalizado para redes bi- e tridimensionais. A seguir, revisamos o método de regularização na rede para a teoria quântica de um campo escalar autointeragente. Empregamos o algoritmo de Metropolis para simular a teoria nar ede e estudamos o comportamento das constantes de acoplamento renormalizadas quártica and sêxtupla em função da constante de acoplamento não renormalizada. Apresentamos resultados de simulações para redes Euclideanas em duas e três dimensões nos regimes de acoplamento intermediário e forte / We review the application of the Monte Carlo method to a discrete spin model and to a scalar field theory on the lattice with special emphasis on the Metropolis algorithm. Initially we consider an Ising spin model with long range interactions on a complex small world network. In view of the nonextensive nature of the model, we have have generalized the Metropolis algorithm to the Tsallis nonextensive thermostatistics. Numerical simulations with the generalized algorithm are implemented for two-and three-dimensional lattices. Next we review the lattice regularization method for the quantum theory of a selfinteracting scalar field. We use the Metropolis algorithm to simulate the theory on the lattice and study the behavior of the renormalized quartic and sextic coupling constants as a function of the unrenormalized coupling constant. Results of simulations are presented for Euclidean lattices in two and three dimensions at intermediate and strong couplings

Page generated in 1.4193 seconds