• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 855
  • 56
  • 54
  • 24
  • 16
  • 14
  • 14
  • 13
  • 13
  • 11
  • 10
  • 8
  • 2
  • 1
  • 1
  • Tagged with
  • 1036
  • 605
  • 138
  • 121
  • 115
  • 106
  • 106
  • 98
  • 98
  • 87
  • 87
  • 84
  • 79
  • 71
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Configurações centrais no problema restrito dos 4-corpos no plano

Fernandes Barros, Jean 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T18:28:23Z (GMT). No. of bitstreams: 2 arquivo4246_1.pdf: 1330348 bytes, checksum: 1a7b0bc74eca2991f866660cf076d055 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Universidade Estadual de Feira de Santana / Neste trabalho de pesquisa encontram-se demonstrados de forma analítica os resultados numéricos, obtidos na década de 40, e confirmados, também, numericamente, por Simó, na década de 70. Até nosso trabalho, o melhor que se tinha, neste sentido, era a tese de doutorado de J. R. Gannaway, na Vanderbilt University, Nashville, Tennessee, U.S.A., 1981, intitulada ``Determination of all central configurations in the planar four-body problem with one inferior mass' , orientada por Arenstorf, na qual, usando métodos analíticos, demonstrou casos particulares de alguns resultados do Pedersen. Porém, a parte substancial do trabalho do Pedersen ainda estava sem demonstração analítica, principalmente, a parte referente à curva de degenerescência. A intenção de Pedersen era contar o número de configurações centrais no Problema Restrito dos 4 Corpos no Plano (PR4CP). Para isso, Pedersen procurou saber, inicialmente, aonde o problema degenerava-se. E então, concluiu que as configurações centrais na condição de degenerescência formam uma curva fechada e simples no interior do triângulo equilátero, cujos vértices definem a solução Lagrangeana do problema. No Capítulo 2, ocupamo-nos por descrever analiticamente esta curva. E como uma consequência, obtivemos a caracterização algébrica da condição de degenerescência, a qual torna nosso método eficaz. O nosso método é inspirado no trabalho de Vincent, cujo método diz respeito à separação de raízes de um polinômio. Conjuntamente ao método de Vincent, utilizamos: o Resultante de Polinômios, a Regra de Sinais de Descartes, o Teorema Fundamental sobre Polinômios Simétricos, as Fórmulas de Cardano e a Natureza das Raízes da Equação Cúbica. Para realizarmos os cálculos utilizamos o software MAPLE. No Capítulo 3, demonstramos, por métodos analíticos, que as configurações centrais convexas (ver Teorema 18) e não-convexas exteriores ao triângulo (ver Teorema 19) são não-degeneradas. Estes teoremas são nossas primeiras contribuições ao PR4CP. No Capítulo 4, mostramos, por métodos analíticos, que a curva de degenerescência é fechada e simples, em conformidade com os resultados numéricos de Pedersen. Além disso, obtivemos algo inédito: a curva de degenerescência é analítica (ver Capítulo 4, Seções 4.3 e 4.4). Estes resultados são mais uma das nossas contribuições ao PR4CP. No capítulo 5, passamos a realizar a contagem do número de configurações no PR4CP. Inicialmente, mapeamos a curva de degenerescência no espaço dos parâmetros, mais precisamente, no interior do 2-simplexo. E verificamos que a curva mapeada é fechada e simples (ver Capítulo 5, Seção 5.1). Desta forma, utilizando o Teorema da Curva de Jordan e o Teorema da Aplicação Inversa, realizamos a contagem do número de configurações centrais no PR4CP (ver Capítulo 5, Seção 5.2)
222

Abordagem neuro-genética para mapeamento de problemas de conexão em otimização combinatória / Neurogenetic approach for mapping connection problems in combinatorial optimization

Pires, Matheus Giovanni 21 May 2009 (has links)
Devido a restrições de aplicabilidade presentes nos algoritmos para a solução de problemas de otimização combinatória, os sistemas baseados em redes neurais artificiais e algoritmos genéticos oferecem um método alternativo para solucionar tais problemas eficientemente. Os algoritmos genéticos devem a sua popularidade à possibilidade de percorrer espaços de busca não-lineares e extensos. Já as redes neurais artificiais possuem altas taxas de processamento por utilizarem um número elevado de elementos processadores simples com alta conectividade entre si. Complementarmente, redes neurais com conexões realimentadas fornecem um modelo computacional capaz de resolver vários tipos de problemas de otimização, os quais consistem, geralmente, da otimização de uma função objetivo que pode estar sujeita ou não a um conjunto de restrições. Esta tese apresenta uma abordagem inovadora para resolver problemas de conexão em otimização combinatória utilizando uma arquitetura neuro-genética. Mais especificamente, uma rede neural de Hopfield modificada é associada a um algoritmo genético visando garantir a convergência da rede em direção aos pontos de equilíbrio factíveis que representam as soluções para os problemas de otimização combinatória. / Due to applicability constraints involved with the algorithms for solving combinatorial optimization problems, systems based on artificial neural networks and genetic algorithms are alternative methods for solving these problems in an efficient way. The genetic algorithms must its popularity to make possible cover nonlinear and extensive search spaces. On the other hand, artificial neural networks have high processing rates due to the use of a massive number of simple processing elements and the high degree of connectivity between these elements. Additionally, neural networks with feedback connections provide a computing model capable of solving a large class of optimization problems, which refer to optimization of an objective function that can be subject to constraints. This thesis presents a novel approach for solving connection problems in combinatorial optimization using a neurogenetic approach. More specifically, a modified Hopfield neural network is associated with a genetic algorithm in order to guarantee the convergence of the network to the equilibrium points, which represent feasible solutions for the combinatorial optimization problems.
223

Abordagem neuro-genética para mapeamento de problemas de conexão em otimização combinatória / Neurogenetic approach for mapping connection problems in combinatorial optimization

Matheus Giovanni Pires 21 May 2009 (has links)
Devido a restrições de aplicabilidade presentes nos algoritmos para a solução de problemas de otimização combinatória, os sistemas baseados em redes neurais artificiais e algoritmos genéticos oferecem um método alternativo para solucionar tais problemas eficientemente. Os algoritmos genéticos devem a sua popularidade à possibilidade de percorrer espaços de busca não-lineares e extensos. Já as redes neurais artificiais possuem altas taxas de processamento por utilizarem um número elevado de elementos processadores simples com alta conectividade entre si. Complementarmente, redes neurais com conexões realimentadas fornecem um modelo computacional capaz de resolver vários tipos de problemas de otimização, os quais consistem, geralmente, da otimização de uma função objetivo que pode estar sujeita ou não a um conjunto de restrições. Esta tese apresenta uma abordagem inovadora para resolver problemas de conexão em otimização combinatória utilizando uma arquitetura neuro-genética. Mais especificamente, uma rede neural de Hopfield modificada é associada a um algoritmo genético visando garantir a convergência da rede em direção aos pontos de equilíbrio factíveis que representam as soluções para os problemas de otimização combinatória. / Due to applicability constraints involved with the algorithms for solving combinatorial optimization problems, systems based on artificial neural networks and genetic algorithms are alternative methods for solving these problems in an efficient way. The genetic algorithms must its popularity to make possible cover nonlinear and extensive search spaces. On the other hand, artificial neural networks have high processing rates due to the use of a massive number of simple processing elements and the high degree of connectivity between these elements. Additionally, neural networks with feedback connections provide a computing model capable of solving a large class of optimization problems, which refer to optimization of an objective function that can be subject to constraints. This thesis presents a novel approach for solving connection problems in combinatorial optimization using a neurogenetic approach. More specifically, a modified Hopfield neural network is associated with a genetic algorithm in order to guarantee the convergence of the network to the equilibrium points, which represent feasible solutions for the combinatorial optimization problems.
224

Heurísticas para o problema de cobertura em redes de sensores sem fio hierárquicas com sorvedouro móvel

Araújo, André Ricardo Melo 01 March 2013 (has links)
Made available in DSpace on 2015-04-11T14:02:47Z (GMT). No. of bitstreams: 1 Andre Ricardo Melo Araujo.pdf: 3722790 bytes, checksum: 1876d821e1e927795304f1c1ee7bbb67 (MD5) Previous issue date: 2013-03-01 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / Wireless Sensor Network (WSN) is a special kind of ad hoc networks composed of devices capable of processing, storing, sensing the environment, and transmitting data via wireless communication interface. The sensor nodes have several limitations, among them the capacity of energy because to the reduced size. For this reason, many searches have been done with a view to improving the energy consumption of sensor nodes. This work aims to address the Problem of Coverage, Clustering and Routing with Mobile Sink (PCAR-SM, in portuguese Problema de Cobertura, Agrupamento e Roteamento com Sorvedouro Móvel) in WSN with mobile sink consisting of: given a set of sensor nodes and a monitoring area, develop algorithms to find the best subset of sensor nodes to cover the monitoring area, group them in a smaller number of clusters and find the shortest route to mobile sink navigate. The PCAR-SM is a strategy used to reduce the energy consumption of sensor nodes, data collisions, interference and redundant data in networks with high concentration of sensor nodes per area. The purpose of this paper is to solve each problem separately and together, in order to evaluate the impact of each problem on the other. The Coverage Problem has been solved with two metaheuristics: an Genetic Algorithm (GA) and a Greedy Randomized Adaptive Search Procedure (GRASP) algorithm. In the latter we used two representations of solution: (a) representation by sensor, where each element of the solution vector represents a sensor node that must be switched on or off; (b) representation by demand, where each element of the solution vector represents a demand point will indicate which sensor node cover it. The AG uses only the representation by demand. The computational results for Coverage Problem used the benchmark of Beasley s OR Library and it was possible seen that the GRASP with representation by demand achieved better results than the GA and the GRASP with representation by sensor when the optimization criterion is to minimize the total cost of each sensor node used in the solution. For Clustering Problem was created approach of virtual grids. In this approach, we divide the area into grids and clusters are formed by a set of adjacent grids (maximum 5 grids in group) forming a cross schematic. The aim of the problem is to minimize the number of clusters in the area. With this approach, we can model the Clustering Problem as a Set Cover Problem (SCP) without overlapping (an element does not belong to more than one set), which was treated by a greedy heuristic called Greedy Clustering Algorithm (GCA). The virtual grids proved to be a good solution because it is simple to identify a node which grid it belongs. Its simplicity also makes it a appropriate method for a distributed version. The Routing Problem of sink was modeled as the Travelling Salesman Problem (TSP), where the mobile sink part of a corner of the monitoring area, runs through the area visiting all clusters and returns to the starting point. For this, we propose two greedy approaches based on nearest neighbor, the Routing Greedy Algorithm - Center (RGA-C) and Routing Greedy Algorithm - Border (RGA-B). The route of the sink was also solved by a heuristic based on algorithm Centralized Spatial Partitioning (CSP). In CSP approach, the route is fixed and reminds the movement of a snake. The results show that fixed route produces a path with smaller size compared to the greedy heuristic for TSP. We analyze also the PCAR-SM, creating heuristic strategies. The union of the Clustering Problem and Routing Problem proved more beneficial in relation to the size of the sink s route. The union of Coverage Problem and Clustering Problem only proved beneficial when the communication radius was about 3,9 times greater than the sensing radius. Our results show that solve problems together allows some changes in the algorithms will lead to better results. / As Redes de Sensores Sem Fio (RSSFs) são um tipo especial de redes ad hoc constituídas por dispositivos capazes de processar, armazenar, sensoriar o ambiente e transmitir dados via interface de comunicação sem fio, denominados nós sensores. Os nós sensores possuem várias limitações, dentre elas, a capacidade de energia devido ao tamanho reduzido. Por isto, muitas pesquisas foram feitas tendo em vista a melhoria no consumo de energia dos nós sensores. Este trabalho tem como objetivo tratar o Problema de Cobertura, Agrupamento e Roteamento com Sorvedouro Móvel (PCAR-SM) em RSSF com nó sorvedouro móvel, que consiste em: dado um conjunto de nós sensores e uma área de monitoramento, desenvolver algoritmos para encontrar o melhor subconjunto de nós sensores que cubra a área de monitoramento, juntá-los no menor número de grupos possíveis e encontrar a menor rota para um nó sorvedouro móvel percorrer. O PCAR-SM é uma estratégia utilizada para diminuir o consumo de energia dos nós sensores, a colisão de dados, as interferências e os dados redundantes em redes com alta concentração de nós sensores por área. A proposta deste trabalho é resolver cada problema separadamente e em conjunto, de modo a avaliar o impacto de cada problema na solução do outro. O Problema de Cobertura foi resolvido com duas metaheurísticas: um Algoritmo Genético (AG) e um algoritmo Greedy Randomized Adaptive Search Procedure (GRASP). Neste último foram utilizadas duas representações de solução: (a) representação por sensor, onde cada elemento do vetor de solução representa um nó sensor que estará ligado ou desligado; (b) representação por demanda, onde cada elemento do vetor de solução representa um ponto de demanda no qual indicará qual o nó sensor o cobre. O AG utiliza apenas a representação por demanda. Os resultados computacionais para o Problema de Cobertura utilizaram o benchmark da Beasley s OR Library e foi possível constatar que o GRASP com representação por demanda obteve melhores resultados que o AG e o GRASP com representação por sensor quando o critério de otimização é minimizar a soma total dos custos de cada nó sensor utilizado na solução. Para o Problema de Agrupamento foi criada uma abordagem de grades virtuais. Nesta abordagem dividimos a área em grades e os grupos são formados por um conjunto de grades adjacentes (no máximo 5 grades) formando um esquema de cruz. O objetivo do problema é minimizar o número de grupos na área. A partir desta abordagem, pode-se modelar o Problema de Agrupamento como um Problema de Cobertura de Conjuntos (PCC) sem sobreposição (um elemento não pertence a mais de um conjunto), que foi tratada por uma heurística gulosa denominada Greedy Clustering Algorithm (GCA). Os grades virtuais provou ser uma boa solução por ser simples para um nó identificar a qual grade ele pertence. Sua simplicidade ainda o torna uma método adequado para uma versão distribuída. O Problema de Roteamento do nó sorvedouro foi modelado como o Problema do Caixeiro Viajante (PCV), onde o nó sorvedouro móvel parte de um canto da área de monitoramento, percorre a área visitando todos os grupos e retorna ao ponto inicial. Para isto, propomos duas abordagens gulosas baseadas no vizinho mais próximo, o Routing Greedy Algorithm - Center (RGA-C) e o Routing Greedy Algorithm - Border (RGA-B). A rota do nó sorvedouro também foi resolvida por uma heurística baseada no algoritmo Centralized Spatial Partitioning (CSP). Na abordagem CSP, a rota é fixa e lembra o movimento de uma cobra. Os resultados mostram que a rota fixa gera um percurso com tamanho menor em comparação com as heurísticas gulosas para o PCV. Analisamos, ainda, o PCAR-SM, criando estratégias heurísticas. Aunião dos Problema de Agrupamento e Roteamento, provou ser mais benéfica em relação ao tamanho da rota do nó sorvedouro, já a união do Problema de Cobertura com o Problema de Agrupamento só mostrou ser benéfica quando o raio de comunicação era aproximadamente 3, 9 vezes maior que o raio de sensoriamento. Nossos resultados, mostram que resolver os problemas em conjunto permite que algumas mudanças nos algoritmos levem a melhores resultados.
225

Modelos para o problema de roteamento de veículos com restrições de empacotamento bidimensional / Models for the vehicle routing problem with two-dimensional loading constraints

Silva, Lorrany Cristina da 28 June 2017 (has links)
Submitted by Franciele Moreira (francielemoreyra@gmail.com) on 2017-10-20T16:09:47Z No. of bitstreams: 2 Dissertação - Lorrany Cristina da Silva - 2017.pdf: 8394886 bytes, checksum: 9cc1461b937a65a8c50964b3dea86623 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-10-23T10:05:52Z (GMT) No. of bitstreams: 2 Dissertação - Lorrany Cristina da Silva - 2017.pdf: 8394886 bytes, checksum: 9cc1461b937a65a8c50964b3dea86623 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-10-23T10:05:52Z (GMT). No. of bitstreams: 2 Dissertação - Lorrany Cristina da Silva - 2017.pdf: 8394886 bytes, checksum: 9cc1461b937a65a8c50964b3dea86623 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-06-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Three different integer linear programming models for the Vehicle Routing Problem with Two-dimensional Loading Constraints are developed in this work. The version of the problem studied considers that the unloading of the rectangular items can respect or not the sequence of the clients visited on the route, that is, we solve the sequential and unrestricted versions of the problem. The first model deals with the problem completely, that is, with all constraints inserted at once. The second and third models are based, respectively, on a three- and two-index formulation. Separation routines are considered to detect violated inequalities related with packing on the second and third models, while the third model also considers cuts on connectivity and capacity. Computational experiments were carried out over instances of the literature with the quantity of customers ranging from 15 to 36 and items from 15 to 114, besides to consider the cases in which the cost of traversing an edge is integer and real. The models with cuts on demand were better in relation to the first model, besides being competitive when comparing with the results fromthe literature. The first model solved 4 of the 80 instances, the three-index model solved 7 and, the two-index model solved 53. On the sequential version, the adopted model solved 33 instances for the case with integer costs (and 37 for the case with real costs). In comparing with a recent heuristic from the literature, the best model was capable of tying in 48 instances in the unrestricted version and 24 in the sequential version. / Neste trabalho desenvolvem-se três modelos de programação linear inteira para o Problema de Roteamento de Veículos com Restrições de Empacotamento Bidimensional. A versão do problema estudado considera que o descarregamento dos itens retangulares pode respeitar (ou não) a sequência de clientes visitados na rota, ou seja, resolve-se as versões sequencial e irrestrita do problema. O primeiro modelo trata do problema de forma completa, isto é, com todas as restrições inseridas de uma só vez. O segundo e o terceiro modelo são baseados, respectivamente, em uma formulação de três e dois índices. Rotinas de separação são consideradas para detectar desigualdades violadas de empacotamento no segundo e no terceiro modelo, enquanto o último modelo considera também cortes de conectividade e capacidade. Experimentos computacionais foram realizados em instâncias da literatura com número de clientes variando de 15 a 36 e itens de 15 até 114, além de considerar os casos em que o custo da aresta é inteiro ou real. Os modelos com cortes sob demanda foram melhores em relação ao primeiro modelo, além de serem competitivos quando comparado com a literatura. O modelo completo encontrou a solução ótima em 4 das 80 instâncias, o modelo de três índices 7 e o modelo de dois índices 53. Na versão sequencial, o modelo adotado resolveu 33 instâncias para o custo inteiro (e 37 para o custo real). Na comparação com uma heurística recente da literatura, o melhor modelo conseguiu empatar em 48 instâncias na versão irrestrita e em 24 na versão sequencial.
226

Efeitos de um vácuo dinâmico na evolução cósmica e no colapso gravitacional / Running vacuum effects in cosmic evolution and gravitational collapse

Perico, Eder Leonardo Duarte 12 March 2015 (has links)
As observações astronômicas dos últimos 15 anos revelaram que o universo atualmente está expandindo aceleradamente. No contexto da relatividade geral se acredita que a energia escura, cujo melhor candidato é a densidade do vácuo ($\\Lambda/8\\pi G$), é o agente responsável por este estado acelerado. No entanto, o termo $\\Lambda$ tem duas sérias dificuldades: o problema da constante cosmológica e o problema da coincidência. Com o objetivo de aliviar o problema da constante cosmológica, muitos modelos adotam um termo $\\Lambda$ dinâmico, permitindo seu decrescimento ao longo de toda a história cósmica. Neste tipo de modelo, a equação de conservação do tensor momento energia total exige uma troca de energia entre a densidade do vácuo e as outras componentes energéticas do universo; o que também alivia o problema da coincidência. Neste trabalho discutimos diferentes consequências de um vácuo dinâmico no âmbito cosmológico e no processo de colapso gravitacional. Em particular, analisamos o caso em que a densidade do vácuo possui uma dinâmica não trivial com a escala de energia típica do universo, que depende monotonamente do parâmetro de Hubble, decrescendo ao longo de toda a história cósmica. Nos referiremos a este modelo como modelo deflacionário. Nesse contexto, utilizando os primeiros termos da expansão para a densidade do vácuo, sugerida pela teoria do grupo de renormalização em espaço-tempos curvos, propomos um novo cenário cosmológico baseado numa densidade do vácuo dinâmica. O cenário proposto é completo no sentido de que o mesmo vácuo é responsável pelas duas fases aceleradas do universo, conectadas por uma fase de radiação e um estágio de domínio da matéria. Neste cenário o universo plano é não singular, iniciando sua evolução a partir de um estágio do tipo de Sitter e, portanto, toda a história cósmica ocorre entre duas fases de Sitter limites. Este modelo não apresenta o problema de horizonte, e nele a nucleossíntese cosmológica ocorre como no modelo de Friedmann, e embora este modelo seja muito próximo do modelo $\\Lambda$CDM, o grande acúmulo de observações no estágio recente do universo permitirão que este poda ser testado. Adicionalmente, mostraremos que generalizações do modelo deflacionário incluindo curvatura espacial apresentam propriedades e vantagens similares. Usando observações de $H(z)$, da luminosidade de supernovas tipo Ia, da função de crescimento linear das perturbações escalares, e da posição do pico das oscilações acústicas de bárions conseguimos vincular um dos parâmetros do modelo. Por outro lado, analisando a física do universo primordial, assumindo um vácuo não perturbado, conseguimos limitar um segundo parâmetro fazendo uso do índice espectral das perturbações escalares. Com o objetivo de fazer uma análise mais completa do modelo no âmbito cosmológico, analisamos também as possíveis restrições oriundas da validade da segunda lei da termodinâmica em sua forma generalizada (GSLT). Para isto investigamos a evolução tanto da entropia associada ao horizonte aparente do universo, que é um horizonte atrapante devido a que o escalar de Ricci é positivo, como do seu conteúdo material. Motivados pela forma como a singularidade primordial do universo é evitada devido aos efeitos do decaimento do vácuo, incluímos no presente trabalho outra linha de desenvolvimento: a análise dos estágios finais do processo de colapso gravitacional em presença de uma densidade do vácuo dinâmica. Centraremos esta análise na determinação de modelos que possam ou não evitar a formação de um buraco negro. Mostraremos que modelos com um termo de vácuo proporcional à densidade de energia total do sistema, não podem evitar a formação de uma singularidade no estágio final do processo de colapso. Adicionalmente obteremos correções para a massa colapsada, para o tempo de formação do horizonte e para o tempo de colapso como função dos parâmetros do modelo e da curvatura espacial. Por último analisaremos a influência de uma densidade do vácuo capaz de dominar sobre as outras componentes no regime de altas energias, mostrando que este tipo de dinâmica na densidade do vácuo evita a formação de um estado final singular. / The astronomical observations of the last 15 years revealed that the universe is currently undergoing an expanding accelerating phase. In the general relativity context is believed that dark energy, whose best candidate is the vacuum energy density $ho_v \\equiv \\Lambda/8\\pi G$, is the fuel responsible for the present accelerating stage. However, the so-called $\\Lambda$-term has two serious drawnbacks, namely: the cosmological constant problem and the coincidence problem. In order to alleviate the cosmological constant problem, many models adopt a dynamical $\\Lambda$ term, thereby allowing its decreasing throughout the cosmic history. In this kind of model, the total energy conservation law defined in terms of the energy momentum tensor requires an energy exchange between the vacuum and the material components of the universe, which also contributes to alleviate the coincidence problem. In the present thesis we discuss different consequences of an interacting vacuum component both in the cosmological scenario as well as in the process of gravitational collapse. In particular, in the cosmological domain, we examine the case where the vacuum has a nontrivial dynamics dependent on a typical energy scale, the Hubble parameter, that decreases in the course of the cosmic history. We will refer to this model as deflationary model. In this context, by using a truncated expansion for the vacuum energy density, as suggested by the renormalization group theory in curved space-time, we propose a new cosmological scenario based on a dynamical $\\Lambda$-term. The proposed scenario is complete in the sense that the same vacuum is responsible for both accelerating phases of the universe, which are linked by two subsequent periods of radiation and non-relativistic matter domination. In this scenario the flat universe is nonsingular and starts its evolution from an asymptotic de Sitter stage, so that the cosmic story takes place between two extreme de Sitter phases. The model is free of the horizon problem as well as of the \"graceful exit\" problem plaguing many inflationary variants. In addition, the cosmological nucleosynthesis occurs as in the Friedmann model and the observations in the latest stages of the universe can potentially differentiate between the deflationary and the standard $\\Lambda$CDM model. The generalizations including spatial curvature are aslo discussed in detail. On the other hand, by using the late time tests like type Ia supernovae, the redshift dependence of the Hubble parameter, $H(z)$, the linear growth function of scalar perturbations, and the peak position of baryon acoustic oscillations we have constrained the basic parameters of the model. Conversely, analyzing the physics of the primordial universe and assuming that the vacuum is a smooth component, we have also constrained the spectral index of scalar density perturbations. In order to establish a more complete analysis of our cosmological scenario, we also discuss the possible constraints arising from the validity of the generalized second law of thermodynamics, that is, by including the horizon thermodynamics. Since the apparent horizon of the universe behaves like a trapped horizon because the Ricci scalar is positive, we investigate the evolution of both the entropy of the material components and the entropy associated to the horizon. Motivated by the avoidance of the Big-Bang singularity due to the decaying vacuum effects, we have explored another line of development: the analysis of the final stages of gravitational collapse process in the presence of a dynamic vacuum. This analysis focused on the determination of models able to prevent or not the formation of a black hole. In this connection, we shown that the presence of an interacting vacuum proportional to the total energy density of the system does not prevent the formation of a singularity in the final stages of the collapsing process. In addition, we obtain corrections for the collapsed mass, the horizon time formation and the collapsing time as a function of the free parameters and the spatial curvature of the models. Finally, we have also analyzed the influence of a vacuum contribution which dominates the other components into the high energy limit (due to the presence of higher orders terms in the contraction rate), and shown that for this kind of models the growth of the vacuum energy density prevents the formation of the singularity.
227

Planejamento de rotas dirigidas com base no problema de roteamento humano

Rodrigues, Rafael Emidio Murata 30 August 2018 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2018-10-19T11:51:51Z No. of bitstreams: 1 Rafael Emídio Murata Rodrigues.pdf: 1071545 bytes, checksum: 468e0f7e27e278e12eed0dd52f4198cc (MD5) / Made available in DSpace on 2018-10-19T11:51:51Z (GMT). No. of bitstreams: 1 Rafael Emídio Murata Rodrigues.pdf: 1071545 bytes, checksum: 468e0f7e27e278e12eed0dd52f4198cc (MD5) Previous issue date: 2018-08-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In our lives, we constantly move in streets and neighborhoods. In general, we consider time and (or distance) when planning the route. However, their solutions may face complex problems arising from the different possibilities of solutions. Similar to route planning, the Vehicle Routing Problem was introduced by George B. Dantzig and John H. Ramser in 1959 and consists of delivering gasoline to several fuel stations; at first a mathematical proposal, later became an algorithmic approach, for planning of routes of delivery of products in an optimized way (searching the "shortest path"). Although, during the search of shortest path, they are limited to the use of the streets. In this context emerges the Human Routing Problem, such an approach is not limited to streets, but makes use of all possible paths, by vehicles and humans. Such a problem can be observed in route planning at airports, museums and a supply chain company that wants to optimize the route of delivery of its products and increase customer satisfaction. Based on the Vehicle Routing Problem, the Human Routing Problem will be proposed. Its problematic will be demonstrated in a prototype, capable of assisting in the planning of human routes and three use cases. Ideas of Human Routing Problem had inspiration in the collective foraging insects / Na nossa vida, nos locomovemos constantemente em ruas e bairros. Em geral, consideramos o tempo e (ou a distância), ao planejar a rota. Contudo, suas soluções podem enfrentar problemas complexos, decorrentes das diversas possibilidades de soluções. Semelhante a planejamento de rotas, o Problema de Roteamento de Veículos foi introduzido por George B. Dantzig, e John H. Ramser em 1959 e consiste em entregar gasolina diversos postos de combustível; a princípio uma proposta matemática, mais tarde tornou-se uma abordagem algorítmica, para planejamento de rotas de entrega de produtos de forma otimizada (buscando o “menor caminho”). Embora, durante a busca de menor caminho, limitam-se ao uso de ruas. Neste contexto emerge o Problema de Roteamento Humano, tal abordagem não se limita a ruas, mas faz uso de todos os caminhos possíveis, por veículos e humanos. Tal problemática, pode ser observada nos planejamentos de rotas em aeroportos, museus e em uma empresa de supply chain que deseja otimizar a rota de entrega dos seus produtos, e aumentar a satisfação dos seus clientes. Tomando como base central, o Problema de Roteamento de Veículos será proposto o Problema de Roteamento Humano. Sua problemática, será demonstrado em um protótipo, capaz de auxiliar no planejamento de rotas humanas e três casos de uso. As ideias do Problema de Roteamento Humano tiveram inspiração no forrageamento dos insetos coletivos
228

Extensões em problemas de corte: padrões compartimentados e problemas acoplados / Extensions for cutting stock problems: compartmentalized cutting patterns and integrated problems

Leão, Aline Aparecida de Souza 08 February 2013 (has links)
Nesta tese é abordado o problema da mochila compartimentada e o problema de corte de estoque unidimensional acoplado ao problema dimensionamento de lotes. Para o problema da mochila compartimentada é apresentada a versão unidimensional e proposta a versão bidimensional, denominados como problema da mochila compartimentada unidimensional e problema da mochila compartimentada bidimensional, respectivamente. Para o problema de corte de estoque acoplado ao dimensionamento de lotes são apresentadas três variações: uma máquina para produzir um tipo de objeto; uma máquina para produzir vários tipos de objetos; múltiplas máquinas para produzir vários tipos de objetos. Algumas formulações matemáticas de programação inteira e inteira-mista, decomposições dos problemas em problema mestre e subproblemas e heurísticas baseadas no método geração de colunas são propostas para os problemas da mochila compartimenta e o problema acoplado. Em específico, para o problema acoplado são aplicadas decomposições Dantzig-Wolfe, que podem ser por período, por máquina ou por período e máquina. Além disso, uma heurística baseada em grafo E/OU é proposta para o problema da mochila compartimentada bidimensional / In this thesis we present the constrained compartmentalized knapsack problem and the one dimensional cutting stock problem integrated with the capacitated lot sizing problem. For the constrained compartmentalized knapsack problem, the one dimensional version is presented and the two dimensional version is proposed, called one-dimensional compartmentalized knapsack problem and two-dimensional compartmentalized knapsack problem, respectively. For the cutting stock problem integrated with the capacitated lot sizing problem three variations are considered: one machine to produce one type of object; one machine to produce multiple types of objects; multiple machines to produce multiple types of objects. Some integer and mixed programming formulations, decompositions of the problems in master problem and subproblems and heuristics based on column generation method are proposed for the compartmentalized knapsack problem and the cutting stock problem integrated with the capacitated lot sizing problem. In particular, the period, the machine, and the period and machine Dantzig- Wolfe decompositions are applied for the integrated problem. Moreover, a heuristic based on the graph AND/OR is proposed for the two-dimensional compartmentalized knapsack problem. Computational results show that these mathematical formulations and methods provide good solutions
229

Algoritmos para o problema da cobertura por sensores / Algorithms for the sensor cover problem

Barbosa, Rafael da Ponte 12 December 2011 (has links)
Neste trabalho estudamos aspectos algorítmicos do Problema da Cobertura por Sensores. Em linhas gerais, este problema a entrada consiste em uma região a ser monitorada por um conjunto de sensores previamente posicionados, cada qual dotado de bateria com duração limitada, e o objetivo é atribuir a cada sensor um tempo de início, de modo que toda a região seja coberta o maior tempo possível. Focamos nosso estudo no caso unidimensional do problema, chamado Problema da Cobertura de Faixa Restrita, no qual a região a ser monitorada é um intervalo (da reta real). Estudamos diversas variantes, de acordo com os subintervalos que os sensores cobrem (se de tamanhos fixos ou variados), e de acordo com a duração das baterias (se uniformes ou não). Estudamos também o caso preemptivo: quando os sensores podem ser ligados mais de uma vez. Para este último caso, projetamos um algoritmo polinomial bem simples. O Problema da Cobertura de Faixa Restrita é NP-difícil no caso não-preemptivo em que os sensores têm bateria de duração variável. Para este caso, em 2009 Gibson e Varadarajan apresentaram um algoritmo polinomial que provaram ser uma 5-aproximação. Provamos que este algoritmo tem fator de aproximação 4, e mostramos que este fator é justo. Apresentamos também formulações lineares inteiras para este caso, e os resultados computacionais obtidos. / We study the algorithmic aspects of the Sensor Cover Problem. Broadly speaking, in this problem the input consists of a region to be covered by a set of sensors previously positioned, each one powered with a battery of limited duration, and the objective is to assign to each sensor an initial time, so as to cover the given region for as long as possible. We focus our study on the one-dimensional case of the problem, called Restricted Strip Cover Problem, in which the region to be covered is an interval (of the real line). We study several variants, according to the type of the subintervals the sensors cover (if they have fixed length or not), to the duration of the batteries (if uniform or not). We also study the preemptive case: when the sensors can be turned on and off more than once. For this case, we designed a simple polynomial-time algorithm. The Restricted Strip Cover Problem is NP-hard in the non-preemptive case in which the sensors have non-uniform duration batteries. For this case, in 2009 Gibson and Varadarajan designed a polynomial-time algorithm which they proved to be a 5-aproximation. We prove that this algorithm has approximation ratio 4, and show that this ratio is tight. We also present two integer linear formulations for this case, and report on the computational results obtained with this approach.
230

Algoritmos para o problema da cobertura por sensores / Algorithms for the sensor cover problem

Rafael da Ponte Barbosa 12 December 2011 (has links)
Neste trabalho estudamos aspectos algorítmicos do Problema da Cobertura por Sensores. Em linhas gerais, este problema a entrada consiste em uma região a ser monitorada por um conjunto de sensores previamente posicionados, cada qual dotado de bateria com duração limitada, e o objetivo é atribuir a cada sensor um tempo de início, de modo que toda a região seja coberta o maior tempo possível. Focamos nosso estudo no caso unidimensional do problema, chamado Problema da Cobertura de Faixa Restrita, no qual a região a ser monitorada é um intervalo (da reta real). Estudamos diversas variantes, de acordo com os subintervalos que os sensores cobrem (se de tamanhos fixos ou variados), e de acordo com a duração das baterias (se uniformes ou não). Estudamos também o caso preemptivo: quando os sensores podem ser ligados mais de uma vez. Para este último caso, projetamos um algoritmo polinomial bem simples. O Problema da Cobertura de Faixa Restrita é NP-difícil no caso não-preemptivo em que os sensores têm bateria de duração variável. Para este caso, em 2009 Gibson e Varadarajan apresentaram um algoritmo polinomial que provaram ser uma 5-aproximação. Provamos que este algoritmo tem fator de aproximação 4, e mostramos que este fator é justo. Apresentamos também formulações lineares inteiras para este caso, e os resultados computacionais obtidos. / We study the algorithmic aspects of the Sensor Cover Problem. Broadly speaking, in this problem the input consists of a region to be covered by a set of sensors previously positioned, each one powered with a battery of limited duration, and the objective is to assign to each sensor an initial time, so as to cover the given region for as long as possible. We focus our study on the one-dimensional case of the problem, called Restricted Strip Cover Problem, in which the region to be covered is an interval (of the real line). We study several variants, according to the type of the subintervals the sensors cover (if they have fixed length or not), to the duration of the batteries (if uniform or not). We also study the preemptive case: when the sensors can be turned on and off more than once. For this case, we designed a simple polynomial-time algorithm. The Restricted Strip Cover Problem is NP-hard in the non-preemptive case in which the sensors have non-uniform duration batteries. For this case, in 2009 Gibson and Varadarajan designed a polynomial-time algorithm which they proved to be a 5-aproximation. We prove that this algorithm has approximation ratio 4, and show that this ratio is tight. We also present two integer linear formulations for this case, and report on the computational results obtained with this approach.

Page generated in 0.1017 seconds