• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 264
  • 122
  • 11
  • 9
  • 9
  • 9
  • 9
  • 8
  • 2
  • 1
  • 1
  • Tagged with
  • 411
  • 64
  • 63
  • 60
  • 58
  • 54
  • 53
  • 51
  • 48
  • 45
  • 39
  • 38
  • 35
  • 35
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Dimensionamento de sistemas de distribuição através do diagrama multiplicativo de Voronoi com pesos

Galvão, Lauro César January 2003 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-21T04:20:39Z (GMT). No. of bitstreams: 1 190154.pdf: 2672817 bytes, checksum: 061ecab04093d34d4c4276a074872a3b (MD5) / Na área de distribuição de materiais em logística, existe um problema difícil de resolver, que é o atendimento de todos os pontos de uma área de distribuição, no menor tempo e na menor distância possíveis. O presente trabalho tem como objetivo dividir uma determinada área de distribuição de materiais a fim de obter um conjunto de zonas para cada uma das quais está associado um veículo que percorrerá uma distância a ser aproximada de forma a satisfazer restrições espaciais e temporais, minimizando o custo de operação da frota. O processo utilizado transforma o espaço contínuo em discreto e mantém ao mesmo tempo a robustez do modelo. Isso é possível, graças à aproximação baseada em uma função contínua para a obtenção das zonas dentro do espaço de distribuição. Para se conseguir a função contínua, é utilizada a aproximação em uma malha que cobre toda a área através de splines de ordem 2. Utilizando aproximações contínuas sobre a malha, a divisão da área em sub áreas (zonas), inicialmente será obtida de forma seqüencial através de uma distribuição por coordenadas polares. Após a 1a divisão, os baricentros de cada distrito são fixados para dar base a ajustes feitos em todas as zonas, com a aplicação do diagrama de Voronoi multiplicativo com pesos. Estes ajustes visam apropriar melhor estes distritos (zonas), modificando suas fronteiras. Os resultados obtidos com a aplicação do método demonstraram robustez com um custo computacional muito baixo, o que propicia uma utilização continuada possibilitando variações de configurações para se determinar o tipo ou capacidade de veículos mais adequados ao material objeto de distribuição.
142

Uma solução alternativa para problemas de colisões do padrão IEEE 802.11B

Michel, Neylor January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T22:52:45Z (GMT). No. of bitstreams: 1 188792.pdf: 1822327 bytes, checksum: 20143a744be235b45757fb6a1829124e (MD5) / O desenvolvimento das telecomunicações e da informática, nos últimos anos unido à necessidade do homem de estar cada vez mais informado esteja onde estiver, tem provocado que as redes wireless sejam a próxima geração nas redes de computadores. As redes Wireless, surgem como a quarta revolução na computação, antecedida pelos centros de processamento de dados na década de sessenta, o surgimento dos terminais nos anos setenta e das redes de computadores na década de oitenta. A evolução conjunta da comunicação sem fio e da tecnologia da informática busca atender muitas das necessidades do mercado: serviços celulares, redes locais sem fio, transmissões de dados via satélites, TV, rádio modem, sistemas de navegação, base de dados geográfica. A combinação da comunicação sem fio com a mobilidade de computadores criou novos problemas nas áreas de informática e telecomunicações, em especial, com o problema de interferências entre equipamentos transmissores/receptores pela padronização não estar completamente pronta. Este dissertação procura concentrar através de uma revisão da literatura juntamente com implementações de outras tecnologias, mostrando uma solução alternativa para os problemas de colisões da tecnologia Spread Spectrum.
143

Análise de confiabilidade aplicada aos ensaios de óleos lubrificantes para motores de tratores

Alves, Gilmar Ferreira [UNESP] 29 June 2007 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:35Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-06-29Bitstream added on 2014-06-13T19:01:55Z : No. of bitstreams: 1 alves_gf_dr_botfca.pdf: 791343 bytes, checksum: 65b805fc57ff5b43c1ebf92385c2d12d (MD5) / Outros / As análises de óleos lubrificantes de motores de tratores agrícolas são importantes como meio gerador de informações à manutenção mecânica e da racionalização quando da substituição dos mesmos. Porém, a confiabilidade da permanência destes óleos no cárter pode ser tratada de maneira formal através de métodos estatísticos. Foram utilizados dados referentes ao tempo, em horas, de uso dos óleos lubrificantes dos motores de dois grupos de tratores, marca Massey Ferguson, modelo 275 4x2. Os dados do primeiro grupo são oriundos de seis tratores onde foram obtidas setenta observações. Os do segundo grupo de sete tratores foram verificadas quarenta e seis observações. Avaliou-se o tempo de uso do óleo através das seguintes variáveis explanatórias: viscosidade, ponto de fulgor, diluição por combustível, fuligem, presença de água e desgaste metálico (Fe, Cu, Cr, Pb, Al e Si) para ambos os grupos de tratores. No segundo grupo foram verificados também níquel e molibdênio. O modelo de Cox foi utilizado para análise de tais variáveis. Estudaram-se as curvas de confiabilidade do óleo lubrificante para cada trator, utilizando-se o estimador de Kaplan-Meier. No primeiro grupo, as variáveis explanatórias não foram significativas para o período de troca do óleo lubrificante de motores dos tratores. Para o segundo grupo apenas o Pb apresentou diferença significativa com relação ao tempo de troca do óleo lubrificante. A utilização do estimador de Kaplan-Meier permitiu identificar o comportamento do óleo lubrificante durante o período de uso. O modelo de Cox mostrou-se apropriado para explicar o comportamento das variáveis explanatórias. / The analysis of the motors lubricant oil of agricultural tractors are important as information generating to the mechanical maintenance and to the rationalization when of its substitution. However, the permanence reliability of these oils in the crankcase can be treated to formal way through the statistical methods. Data over time, in hours, of the use of motor lubricant oils of two tractors groups, all Massey Ferguson 275 model 4x2 were utilized. The data of the first group are from six tractors and seventy observations were obtained. The data of the second group are fom seven tractors, obtaining forty-six observations. It was evaluated the oil use time according to the following explanatory variables: viscosity, glow point, dilution by fuel, soot, water and metallic wear (Fe, Cu, Cr, Pb, Al, Si) for both groups; molybdenum for the second group. The Cox model was utilized for analyses of these variables. The reliability curves were studied for each tractor using Kaplan-Meier estimator. In the first group, the explanatory variables were not significant for the time of lubricant oil exchange to the motors of tractors second group only Pb showed difference in relation to time of lubricant oil exchange. The Kaplan-Meier estimator allowed to visualize the lubricant oil behavior during the use time. The Cox model was appropriated to explain the explanatory variables behavior.
144

Intervalo de confiança Bootstrap para valores da função de confiabilidade estimados pelo método de Kaplan-Meier

Abreu, André Luiz Emidio de 25 May 2012 (has links)
Resumo: A análise de confiabilidade é uma área importante, tanto para a indústria que lança novos produtos quanto para os consumidores que sempre exigem produtos cada vez melhores e que tenham uma grande durabilidade. Com isso varias técnicas foram, e ainda são, desenvolvidas para esta finalidade. Uma delas é o estimador de Kaplan-Meier, estimador da função de confiabilidade, o estimador de Kaplan-Meier é um estimador não-paramétrico assintótico, pois a assintoticidade exige que as amostras sejam grandes para que as estimativas dos valores da confiabilidade fiquem próximas aos valores reais. Uma maneira de tentar corrigir isso é a utilização de técnicas computacionalmente intensivas, tais como o método bootstrap, que é uma técnica de reamostragem proposto por Efron em 1979, que foi utilizado para avaliar a variabilidade de uma estatística qualquer. O trabalho apresenta a aplicação do método bootstrap ao estimador não-paramétrico Kaplan-Meier, e assim obter intervalos de confiança bootstrap para os valores das estimativas da confiabilidade. Foi desenvolvido um programa computacional em linguagem Fortran do método bootstrap aliado ao estimador de Kaplan-Meier, foram testadas diversas amostras de tempo de falha e comparados os resultados com os do estimador. Ao final concluiu-se que a aplicação do método resultou em resultados satisfatórios.
145

Análisis del Comportamiento del Usuario Web

Román Asenjo, Pablo January 2011 (has links)
Desde los orígenes de la Web en el CERN, ha existido una pregunta recurrente entre los investigadores y desarrolladores: ¿Cual es la estructura y contenido correcto para que un sitio web atraiga y/o retenga a sus visitantes? En parte, la respuesta a esta interrogante, se encuentra fuertemente relacionada con una mayor comprensión de las motivaciones que posee un usuario al visitar un sitio. En efecto, mientras más información y conocimiento se obtenga acerca de qué es lo que el usuario busca al visitar un sitio web, mejores serán los contenidos y estructuras que se le puedan ofrecer, permitiendo la implementación de sistemas que personalicen la experiencia del usuario en un sitio. Por otra parte, el análisis del comportamiento humano, ha sido abordado por una gran cantidad de disciplinas como Psicología, Sociología, Economía, Lingüística, Marketing y Computación, entre otras. Lo anterior permite la creación de un marco teórico práctico con un altísimo potencial de ser aplicado en otras áreas del conocimiento, en particular el análisis del comportamiento del usuario web. Las disciplinas antes mencionadas, recurren fundamentalmente a encuestas y a muestreos experimentales para extrapolar el comportamiento de una persona ante determinadas circunstancias. En el caso del usuario web, la mayor fuente de datos respecto de su comportamiento de navegación y preferencias queda almacenada en archivos de Web Log, los cuales dan cuenta de cada una de las acciones que un usuario ha efectuado cuando visita a un sitio. Dependiendo de la cantidad de visitas del sitio, estos archivos pueden contener millones de registros, constituyendo una de las mayores fuentes de datos sobre comportamiento humano. El presente trabajo describe un nuevo enfoque que aplica teorías sobre la neurofisiología de la toma de decisiones para describir el comportamiento de navegación del usuario web. La hipótesis de investigación corresponde a: “Es posible aplicar teorías de la neurofisiología de la toma de decisiones para explicar el comportamiento de navegación de los usuarios web”. Para el análisis del comportamiento del usuario web, primero se requiere de una etapa de preprocesamiento de datos. Esto es, reconstruir las secuencias de páginas visitadas (sesiones) de cada visitante, el contenido de texto y la estructura de link del sitio web. Históricamente, el siguiente paso es aplicar algoritmos y técnicas de minería de datos para la identificación y extracción de patrones de comportamiento de los usuarios. Una importante contribución de este trabajo corresponde al realizado en la etapa de pre-procesamiento. Es necesario asegurar la calidad de los datos debido a que la etapa de calibración es sensible al conjunto de datos usados. Para estos fines, fueron desarrollados nuevos algoritmos basados en programación entera para la extracción optima de de las sesiones de usuario. Esta tesis también propone un modelo estocástico para describir el proceso de navegación del usuario web. Éste se basa en la teoría neurofisiológica de la toma de decisiones LCA (Leaky Competing Accumulator). En ella se describe la actividad neuronal de diferentes regiones de la corteza cerebral durante el proceso de determinación, por medio de un proceso estocástico que evoluciona hasta que se alcance un cierto umbral que gatilla la decisión. Esta clase de modelos estocásticos han sido estudiados experimentalmente por más de 40 años. En este contexto, un usuario web se enfrenta a la decisión de elegir que link visitar de acuerdo a sus propias motivaciones, el proceso se repite en cada visita a las paginas hasta salir del sitio. Los parámetros del modelo son ajustados por medio del método de máxima verosimilitud, usando las secuencias de páginas reales. Se concluye que cerca del 70% de la distribución real de sesiones de recupera mediante este método. Este es un importante avance debido a su rendimiento sobresaliente en relación a algoritmos tradicionales de web mining. Entonces se prueba la plausibilidad de la hipótesis.
146

Distribuição Weibull discreta exponenciada para dados com presença de censura : uma abordagem clássica e bayesiana / Exponentiated discrete Weibull distribution for censored data : a classical and bayesian approach

Cardial, Marcílio Ramos Pereira 27 March 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-05-25T18:14:50Z No. of bitstreams: 1 2017_MarcílioRamosPereiraCardial.pdf: 859702 bytes, checksum: a5faefeaa2144ea4d0b78a886b29b065 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-06-06T20:43:26Z (GMT) No. of bitstreams: 1 2017_MarcílioRamosPereiraCardial.pdf: 859702 bytes, checksum: a5faefeaa2144ea4d0b78a886b29b065 (MD5) / Made available in DSpace on 2017-06-06T20:43:26Z (GMT). No. of bitstreams: 1 2017_MarcílioRamosPereiraCardial.pdf: 859702 bytes, checksum: a5faefeaa2144ea4d0b78a886b29b065 (MD5) Previous issue date: 2017-06-06 / Este trabalho faz um estudo inferencial da distribuição Weibull Discreta Exponenciada para dados de sobrevivência discretos. A distribuição em estudo é uma extensão da distribuição Weibull Discreta de Nakagawa e Osaki. Esta generalização da distribuição Weibull Discreta fornece um ajuste paramétrico em que se permite trabalhar com taxas de falha crescente, decrescente, constante, forma de banheira e unimodal. A formulação do modelo foi realizada no contexto de Análise de Sobrevivência, que considera a existência de dados censurados, e a inferência foi realizada nas abordagens clássica e bayesiana. Na abordagem clássica, a partir do método de máxima verossimilhança, foram utilizados métodos computacionais de otimização para encontrar as estimativas pontuais e intervalares e utilizou-se o Teste de Razão de Verossimilhanças (TRV) para realização de testes de hipóteses como forma de seleção de modelos. Na abordagem bayesiana foram utilizadas técnicas de MCMC (Markov Chain Monte Carlo) para obtenção das estimativas pontuais dos parâmetros do modelo e seus respectivos intervalos de credibilidade HPD (Highest Posterior Density) e o teste de significância genuinamente bayesiano (FBST - Full Bayesian Significance Test). A metodologia apresentada foi aplicada em dados simulados e ilustrada em dois conjuntos de dados reais: o primeiro refere-se ao tempo de sobrevivência de pacientes diagnosticados com câncer de pescoço e cabeça e o segundo considera o tempo até o alivio da dor em pacientes com dor lombar crônica não específica. Todas as simulações e estimativas foram obtidas por meio do software livre R. / This work presented an inferential study of the Exponentiated Discrete Weibull distribution for discrete survival data. This distribution is an extension of the Nakagawa e Osaki's Discrete Weibull distribution. This generalization of the Discrete Weibull distribution provides a parametric adjustment that allows to work with increasing, decreasing, constant, bathtub shape and unimodal hazard rates. The model was formulated in the context of Survival Analysis, which considers the existence of censored data, and inferences were made in the classical and bayesian approaches. In the classical approach, from the maximum likelihood method, computational optimization methods were used to find the point and interval estimates and the Likelihood Ratio Test was used to perform hypothesis tests as a form of model selection. In addition, in the Bayesian approach, the use of the MCMC (Markov Chain Monte Carlo) techniques was used to obtain the point estimates of the model's parameters and their respective HPD (Highest Posterior Density) credible intervals and the FBST (Full Bayesian Significance Test). The methodology presented was applied in simulated data and illustrated in two real data sets: the first refers to the survival time of patients diagnosed with head and neck cancer and the second performed an analysis of the time to relieving pain in patients with chronic non-specific back pain. All simulations and estimates were obtained by the free software R.
147

Intervalo de confiança para o parâmetro estimado pelo estimador de Horvitz-Thompson

Santos, Thuany de Aguiar 05 May 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2016. / Submitted by Nayara Silva (nayarasilva@bce.unb.br) on 2016-06-24T14:50:41Z No. of bitstreams: 1 2016_ThuanydeAguiarSantos.pdf: 928072 bytes, checksum: 2cab3bf37f2544536607e2306efff0f0 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-07-07T21:55:28Z (GMT) No. of bitstreams: 1 2016_ThuanydeAguiarSantos.pdf: 928072 bytes, checksum: 2cab3bf37f2544536607e2306efff0f0 (MD5) / Made available in DSpace on 2016-07-07T21:55:28Z (GMT). No. of bitstreams: 1 2016_ThuanydeAguiarSantos.pdf: 928072 bytes, checksum: 2cab3bf37f2544536607e2306efff0f0 (MD5) / Em um problema de amostragem sem reposição com probabilidades desiguais de seleção, Horvitz e Thompson (1952) propuseram um estimador não viesado capaz de estimar o total, a média de uma variável de interesse ou o tamanho populacional. Além dos estimadores pontuais, pode-se estimar intervalos de possíveis estimativas do parâmetro estudado por meio de estimadores intervalares. Portanto, este trabalho visa apresentar uma revisão da metodologia utilizada para calcular os Intervalos de Confiança (IC) baseados no estimador de Horvitz-Thompson. Verificou-se que o intervalo de confiança clássico, baseado na distribuição normal, é o mais utilizado na literatura. Este IC necessita da variância populacional para ser calculado, por isso, utilizou-se também o IC baseado na distribuição t-student, devido a variância ser estimada e comparou-se o desempenho de diferentes estimadores da variância apresentados na literatura com relação ao tamanho amostral. Verificou-se que nem sempre os IC baseados na distribuição normal atingiram a cobertura nominal e que os estimadores da variância, que independem da probabilidade de seleção conjunta, tiveram desempenho parecido ao estimador proposto por Yates e Grundy (1953) e Sem (1953), em populações pequenas. ________________________________________________________________________________________________ ABSTRACT / In a problem of sampling without replacement with unequal probability of selection, Horvitz e Thompson (1952) have given an estimator without bias capable of estimates the total, the mean of a variable or the population size. Besides the point estimators, it is possible to estimate the ranges of possibles estimates of the parameter analyzed, by the intervals estimators. Therefore, this research has the main purpose to show an overview about the methodologies used to compute the con dence interval based on the Horviz-Thompson estimator. It was found that the classic con dence interval, based on the normal distribution, it is the most used in the literature. This interval needs that the population variance must be calculated, that is why, it was also used the con dence interval based on the t-student distribution, because the variance is estimated and then it was compared the performance of the di erent estimators of variance showed in the literature with relation to the sample size. It was concluded that not always the con dence interval based on the normal distribution reached the nominal cover and that the estimators of variance that are independent of the joint probability of selection had similar performance to the estimator given by Yates e Grundy (1953) and Sen (1953) in small populations.
148

PR-OWL 2 RL : um formalismo para tratamento de incerteza na web semântica

Santos, Laécio Lima dos 15 July 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graducação em Informática, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-08-15T19:28:04Z No. of bitstreams: 1 2016_LaécioLimadosSantos.pdf: 8101789 bytes, checksum: cfa3494dd6c9cb6bcef19bad2ae8150d (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-10-11T21:17:42Z (GMT) No. of bitstreams: 1 2016_LaécioLimadosSantos.pdf: 8101789 bytes, checksum: cfa3494dd6c9cb6bcef19bad2ae8150d (MD5) / Made available in DSpace on 2016-10-11T21:17:42Z (GMT). No. of bitstreams: 1 2016_LaécioLimadosSantos.pdf: 8101789 bytes, checksum: cfa3494dd6c9cb6bcef19bad2ae8150d (MD5) / A Web Semântica (WS) adiciona informações semânticas a Web tradicional, permitindo que os computadores entendam conteúdos antes acessíveis apenas aos humanos. A Ontology Web Language (OWL), linguagem padrão para criação de ontologias na WS, se baseia em lógica descritiva para permitir uma modelagem formal de um domínio de conhecimento. A OWL, no entanto, não possui suporte para tratamento de incerteza, presente em diversas situações, o que motivou o estudo de várias alternativas para tratar este problema. O Probabilistic OWL (PR-OWL) adiciona suporte à incerteza ao OWL utilizando Multi-Entity Bayesian Networks (MEBN), uma linguagem probabilística de primeira ordem. A inferência no MEBN ocorre através da geração de uma rede bayesiana específica de situação (SSBN). O PR-OWL 2 estende a linguagem original oferecendo uma maior integração com o OWL e permitindo a construção de ontologias que mesclam conhecimento determinístico e probabilístico. PR-OWL não permite lidar com domínios que contenham bases assertivas muito grandes. Isto se deve a alta complexidade computacional da lógica descritiva na qual a OWL é baseada e ao fato de que as máquinas de inferência utilizadas nas implementações das versões do PR-OWL requerem que a base assertiva esteja carregada em memória. O presente trabalho propõe o PR-OWL 2 RL, uma versão escalável do PR-OWL baseada no profile OWL 2 RL e em triplestores. O OWL 2 RL permite raciocínio em tempo polinomial para as principais tarefas de inferência. Triplestores permitem armazenar triplas RDF (Resource Description Framework) em bancos de dados otimizados para trabalhar com grafos. Para permitir a geração de SSBN para bases contendo muitas evidências, este trabalho propõe um novo algoritmo, escalável ao instanciar nós de evidência apenas caso eles influenciem o nó objetivo. O plug-in PR-OWL 2 RL para o framework UnBBayes foi desenvolvido para permitir uma avaliação experimental dos algoritmos propostos. O estudo de caso abordado foi o de fraudes em licitações públicas. _______________________________________________________________________________________________ ABSTRACT / Semantic Web (SW) adds semantic information to the traditional Web, allowing computers to understand content before accessible only by human beings. The Web Ontology Language (OWL), main language for building ontologies in SW, allows a formal modeling of a knowledge domain based on description logics. OWL, however, does not support uncertainty. This restriction motivated the creation of several extensions of this language. Probabilistic OWL (PROWL) improves OWL with the ability to treat uncertainty using Multi-Entity Bayesian Networks (MEBN). MEBN is a first-order probabilistic logic. Its inference consists of generating a Situation Specific Bayesian Network (SSBN). PR-OWL 2 extends the PR-OWL offering a better integration with OWL and its underlying logic, allowing the creation of ontologies with deterministic and probabilistic parts. PR-OWL, however, does not deal with very large assertive bases. This is due to the high computational complexity of the description logic of OWL. Another fact is that reasoners used in PR-OWL implementation require that the data be fully load into memory at the time of inference. To address this issue, this work proposes PR-OWL 2 RL, a scalable version of PR-OWL based on OWL 2 RL profile and on triplestores. OWL 2 RL allows reasoning in polynomial time for the main reasoning tasks. Triplestores can store RDF (Resource Description Framework) triples in databases optimized to work with graphs. To allow the generation of SSBNs for databases with large evidence base, this work proposes a new algorithm that is scalable because it instantiates an evidence node only if it influence a target node. A plug-in for the UnBBayes framework was developed to allow an empirical evaluation of the new algorithms proposed. A case study over frauds into procurements was carried on.
149

Algoritmos híbridos proximais extragradientes para os problemas de ponto de sela e equilíbrio de Nash

Kolossoski, Oliver January 2016 (has links)
Orientador : Luiz Carlos Matioli / Coorientador : Renato Monteiro / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Matemática. Defesa: Curitiba, 02/09/2016 / Inclui referências : f. 106-108 / Resumo: Neste trabalho são descritos métodos para determinar uma solução (aproximada) para os problemas de ponto-de-sela (PS) e equilíbrio de Nash. Os algoritmos são instâncias especiais do método híbrido extragradiente proximal introduzido por Svaiter e Solodov [Solodov; Svaiter, 2000] onde os sub-problemas de inclusão são resolvidos com o uso de um método de gradiente acelerado. Os métodos propostos generalizam o algoritmo acelerado de [He; Monteiro, 2014] das seguintes maneiras: a) em uma generalização os problemas considerados são problemas PS gerais ao invés de problemas PS com estrutura bilinear; b) em outra generalização o algoritmo é baseado em distâncias de Bregman ao invés da distância Euclidiana; c) em outra generalização o problema considerado é o de equilíbrio de Nash ao invés do problema de ponto-de-sela. Assim como no método de He e Monteiro, os métodos propostos têm a vantagem de que qualquer escolha de escalar para o tamanho do passo pode ser utilizada. Ainda, no contexto de problemas de ponto-de-sela, para certa escolha do tamanho do passo pode-se obter uma complexidade ótima para o método. Resultados computacionais ilustram a performance dos métodos em comparação com o método de suavização de Nesterov [Nesterov, 2005]. Palavras-chaves: programação convexa, complexidade, convergência ergódica, operador monótono maximal, método híbrido extragradiente proximal, método de gradiente acelerado, problema de ponto de sela, problema de equilíbrio de Nash, distância de Bregman. / Abstract: In this work we describe methods to find an (approximate) solution for the saddle-point (SP) and Nash equilibrium problems. The algorithms are special instances of a hybrid extragradient proximal method introduced by Svaiter and Solodov [Solodov; Svaiter, 2000] where the inclusion sub-problems are solved using an accelerated gradient method. The proposed methods generalize the accelerated algorithm of [He; Monteiro, 2014] in the following ways: a) in a generalization, the considered problems are general SP problems instead of SP problems with a bilinear structure; b) in other generalization, the algorithm is based on Bregman distances rather than the Euclidian one; c) in other generalization, the considered problem is the Nash equilibrium problem instead of the saddle-point. As in He and Monteiro's method, the proposed methods have the advantage that any scalar choice for the stepsize can be used. Also, for the saddle-point problems, a certain choice for the stepsize can yield an optimal complexity for the method. Computational results show the performance of the methods in comparison with Nesterov's suavization scheme [Nesterov, 2005]. Key-words: convex programming, complexity, ergodic convergence, maximal monotone operator, hybrid proximal extragradient method, accelerated gradient method, inexact proximal method, saddle point problem, Nash equilibrium problem, Bregman distances.
150

Agregação e viés em medidas de diversidade: uma abordagem computacional intensiva

Butturi-Gomes, Davi [UNESP] 25 February 2011 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:23:03Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-02-25Bitstream added on 2014-06-13T20:29:43Z : No. of bitstreams: 1 butturigomes_d_me_botib.pdf: 420214 bytes, checksum: aac06b3aca61cdb7205ba4e36b9d3b5c (MD5) / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / É bastante comum no estudo de ecologia de comunidades o uso de índices de diversidade. Historicamente, os principais índices são os derivados por Shannon e por Simpson. Atualmente, existe uma família de índices, derivada da entropia de Tsallis, que inclui os índices supracitados. Igualmente importantes para descrever os padrões observados na natureza, são os modelos de distribuição de espécie/abundância. Sabe-se também que a amostragem em comunidades naturais geralmente é realizada por quadratins e que as populações das espécies na natureza exibem um padrão agregado de distribuição espacial, ao invés de uma distribuição aleatória. Esta dissertação tem como objetivo central avaliar os possíveis efeitos que a estrutura da comunidade imposta por meio de modelos clássicos, como as séries logarítmica e geométrica e a distribuição lognormal, que a agregação populacional e que o método de amostragem (por quadratins ou aleatória de indivíduos) podem ter sobre a estimação dos índices da família de Tsallis. Foram realizadas simulações baseadas no método modificado de Thomas (seguindo outros estudos na área), nas quais foram gerados diferentes cenários, representando comunidades naturais, com os três tratamentos: (i) distribuição de espécie/abundância, (ii) nível de agregação populacional e (iii) método de amostragem. Então foi verificado o desempenho dos métodos de estimação de máxima verossimilhança (EMV), jackknife e bootstrap . O desempenho desses métodos foi medido pelo viés percentual calculado em relação ao parâmetro populacional, pela amplitude do intervalo de confiança e também pela porcentagem de casos em que o intervalo de confiança cobriu o verdadeiro valor do parâmetro populacional. Foi observado que o EMV, em todos os cenários, produziu estimativas mais enviesadas do que os métodos intensivos de estimação... / Community ecology is often studied by the use of diversity indices. Historically, the most important indices are derived from Shannon and from Simpson’s formulas. Presently, there is a family of diversity indices, derived from Tsallis entropy, which include the above ones. The species/abundance models are also important to describe the observed patterns in nature. It is well known that, when sampling in natural communities, quadrats are used and that species populations usually exhibit an aggregated pattern of spatial distribution, instead of a random one. The main objective of this dissertation is to evaluate the possible effects that the community structure imposed by the classic species/abundance models, such as the logarithmic and geometric series and the lognormal distribution, the level of aggregation and the sampling method (by quadrats or individual sampling) would interfere with the estimation of the Tsallis diversity indices family. Simulations based on the modified Thomas method were performed (following other studies on the field), in which different scenarios were computationally created, representing the biological communities, with three treatments: (i) the species/abundance model, (ii) the aggregation level and, (iii) the sampling method. Then the performances of the maximum likelihood (MLE), jackknife and boostrap estimators were evaluated. The performances are measured by the relative bias around the population parameter, the length of the confidence intervals and also by the relative number of cases in which the confidence intervals covered the population parameter. It is observed that the MLE, in every scenario, generated more biased estimations than the two evaluated resampling methods. Also it is observed that the geometric series is the species/abundance distribution which caused less bias among the tested models, especially for species richness estimation... (Complete abstract click electronic access below)

Page generated in 0.0267 seconds