Spelling suggestions: "subject:"programación""
381 |
Implementa??o paralela escal?vel e eficiente do algoritmo simplex padr?o em arquitetura multicoreCoutinho, Demetrios Ara?jo Magalh?es 24 January 2014 (has links)
Made available in DSpace on 2014-12-17T14:56:18Z (GMT). No. of bitstreams: 1
DemetriusAMC_DISSERT.pdf: 2429364 bytes, checksum: 57aaf24560c189720b218dbca0ef1a56 (MD5)
Previous issue date: 2014-01-24 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / This work presents a scalable and efficient parallel implementation of the Standard
Simplex algorithm in the multicore architecture to solve large scale linear programming
problems. We present a general scheme explaining how each step of the standard Simplex
algorithm was parallelized, indicating some important points of the parallel implementation.
Performance analysis were conducted by comparing the sequential time using the Simplex
tableau and the Simplex of the CPLEXR
IBM. The experiments were executed on a shared
memory machine with 24 cores. The scalability analysis was performed with problems of
different dimensions, finding evidence that our parallel standard Simplex algorithm has a
better parallel efficiency for problems with more variables than constraints. In comparison
with CPLEXR
, the proposed parallel algorithm achieved a efficiency of up to 16 times
better / Este trabalho apresenta uma implementa??o paralela escal?vel e eficiente do algoritmo
Simplex padr?o em arquitetura de processadores multicore para resolver problemas de
programa??o linear de grande escala. Apresenta-se um esquema geral explicando como foi
paralelizado cada passo do algoritmo simplex padr?o, apontando pontos importantes da
implementa??o paralela. Foram realizadas an?lises de desempenho atrav?s da compara??o
dos tempos sequenciais utilizando o Simplex tableau e Simplex do CPLEXR
da IBM.
Os experimentos foram realizados em uma m?quina de mem?ria compartilhada com 24
n?cleos. A an?lise de escalabilidade foi feita com problemas de diferentes dimens?es,
encontrando evid?ncias de que a implementa??o paralela proposta do algoritmo simplex
padr?o tem melhor efici?ncia paralela para problemas com mais vari?veis do que restri??es.
Na compara??o com CPLEXR
, o algoritmo proposto paralelo obteve uma efici?ncia de at?
16 vezes maior
|
382 |
EXTRAÇÃO CEGA DE SINAIS COM ESTRUTURAS TEMPORAIS UTILIZANDO ESPAÇOS DE HILBERT REPRODUZIDOS POR KERNEIS / BLIND SIGNAL EXTRACTION WITH TEMPORAL STRUCTURES USING HILBERT SPACE REPRODUCED BY KERNELSantana Júnior, Ewaldo éder Carvalho 10 February 2012 (has links)
Made available in DSpace on 2016-08-17T14:53:18Z (GMT). No. of bitstreams: 1
Dissertacao Ewaldo.pdf: 1169300 bytes, checksum: fc5d4b9840bbafe39d03cd1221da615e (MD5)
Previous issue date: 2012-02-10 / This work derives and evaluates a nonlinear method for Blind Source Extraction (BSE) in a
Reproducing Kernel Hilbert Space (RKHS) framework. For extracting the desired signal from
a mixture a priori information about the autocorrelation function of that signal translated in a
linear transformation of the Gram matrix of the nonlinearly transformed data to the Hilbert
space. Our method proved to be more robust than methods presented in the literature of BSE
with respect to ambiguities in the available a priori information of the signal to be extracted.
The approach here introduced can also be seen as a generalization of Kernel Principal
Component Analysis to analyze autocorrelation matrices at specific time lags. Henceforth, the
method here presented is a kernelization of Dependent Component Analysis, it will be called
Kernel Dependent Component Analysis (KDCA). Also in this dissertation it will be show a
Information-Theoretic Learning perspective of the analysis, this will study the transformations
in the extracted signals probability density functions while linear operations calculated in the
RKHS. / Esta dissertação deriva e avalia um novo método nãolinear para Extração Cega de Sinais
através de operações algébricas em um Espaço de Hilbert Reproduzido por Kernel (RKHS, do
inglês Reproducing Kernel Hilbert Space). O processo de extração de sinais desejados de
misturas é realizado utilizando-se informação sobre a estrutura temporal deste sinal desejado.
No presente trabalho, esta informação temporal será utilizada para realizar uma transformação
linear na matriz de Gram das misturas transformadas para o espaço de Hilbert. Aqui, mostrarse-
á também que o método proposto é mais robusto, com relação a ambigüidades sobre a
informação temporal do sinal desejado, que aqueles previamente apresentados na literatura
para realizar a mesma operação de extração. A abordagem estudada a seguir pode ser vista
como uma generalização da Análise de Componentes Principais utilizando Kerneis para
analisar matriz de autocorrelação dos dados para um atraso específico. Sendo também uma
kernelização da Análise de Componentes Dependentes, o método aqui desenvolvido é
denominado Análise de Componentes Dependentes utilizando Kerneis (KDCA, do inglês
Kernel Dependent Component Analysis). Também será abordada nesta dissertação, a
perspectiva da Aprendizagem de Máquina utilizando Teoria da Informação do novo método
apresentado, mostrando assim, que transformações são realizadas na função densidade de
probabilidade do sinal extraído enquanto que operação lineares são calculadas no RKHS.
|
383 |
[en] REFINERY SCHEDULING OPTIMIZATION USING GENETIC ALGORITHMS AND COOPERATIVE COEVOLUTION / [pt] OTIMIZAÇÃO DA PROGRAMAÇÃO DA PRODUÇÃO EM REFINARIAS DE PETRÓLEO UTILIZANDO ALGORITMOS GENÉTICOS E CO-EVOLUÇÃO COOPERATIVALEONARDO MENDES SIMAO 28 February 2005 (has links)
[pt] Esta dissertação investiga a aplicação de Algoritmos
Genéticos e de Co-Evolução Cooperativa na otimização da
programação da produção em refinarias de petróleo.
Refinarias de petróleo constituem um dos mais importantes
exemplos de plantas contínuas multiproduto, isto é, um
sistema de processamento contínuo gerador de múltiplos
produtos simultâneos. Uma refinaria, em geral, processa
um
ou mais tipos de petróleo, produzindo uma série de
produtos derivados, como o GLP (gás liquefeito de
petróleo), a nafta, o querosene e o óleo diesel. Trata-
se
de um problema complexo de otimização, devido ao número
e
diversidade de atividades existentes e diferentes
objetivos. Além disso, neste problema, algumas
atividades
dependem de que outras atividades já tenham sido
planejadas para que possam então ser planejadas. Um caso
típico é o das retiradas de produtos de uma unidade de
processo, que dependem de que a carga já tenha sido
planejada, assim como em qual campanha a unidade estará
naquele instante. Por isso, o uso de modelos
revolucionários convencionais, como os baseados em
ordem,
pode gerar muitas soluções inválidas, que deverão ser
posteriormente corrigidas ou descartadas, comprometendo
o
desempenho e a viabilidade do algoritmo. O objetivo do
trabalho foi, então, desenvolver um modelo evolucionário
para otimizar a programação da produção (scheduling),
segundo objetivos bem definidos, capaz de lidar com as
restrições do problema, gerando apenas soluções viáveis.
O trabalho consistiu em três etapas principais: um
estudo
sobre o refino de petróleo e a programação da produção
em
refinarias; a definição de um modelo usando algoritmos
genéticos e co-evolução cooperativa para otimização da
programação da produção e a implementação de uma
ferramenta para estudo de caso. O estudo sobre o refino
e
a programação da produção envolveu o levantamento das
várias etapas do processamento do petróleo em uma
refinaria, desde o seu recebimento, destilação e
transformação em diversos produtos acabados, que são
então
enviados a seus respectivos destinos. Neste estudo,
também
foi levantada a estrutura de tomada de decisão em uma
refinaria e seus vários níveis, diferenciando os
objetivos
destes níveis e explicitando o papel da programação da
produção nesta estrutura. A partir daí, foram estudadas
em
detalhes todas as atividades que normalmente ocorrem na
refinaria e que são definidas na programação, e seus
papéis na produção da refinaria. A decisão de quando e
com
que recursos executar estas atividades é o resultado
final
da programação e, portanto, a saída principal do
algoritmo.
A modelagem do algoritmo genético consistiu inicialmente
em um estudo de representações utilizadas para problemas
de scheduling. O modelo coevolucionário adotado
considera
a decomposição do problema em duas partes e,portanto,
emprega duas populações com responsabilidades
diferentes:
uma é responsável por indicar quando uma atividade deve
ser planejada e a outra é responsável por indicar com
quais recursos essa mesma atividade deve ser realizada.
A
primeira população teve sua representação baseada em um
modelo usado para problemas do tipo Dial-A-Ride (Moon et
al, 2002), que utiliza um grafo para indicar à função de
avaliação a ordem na qual o planejamento deve ser
construído. Esta representação foi elaborada desta forma
para que fosse levada em conta a existência de
restrições
de precedência (atividades que devem ser planejadas
antes
de outras), e assim não fossem geradas soluções
inválidas
pelo algoritmo. A segunda população, que se
responsabiliza
pela alocação dos recursos para a execução das
atividades,
conta com uma representação onde os operadores genéticos
podem atuar na ordem de escolha dos recursos que podem
realizar cada uma das atividades. Finalmente, des / [en] This work investigates the use of Genetic Algorithms and
Cooperative Coevolution in refinery scheduling
optimization. Oil refineries are one of the most important
examples of multiproduct continuous plants, that is, a
continuous processing system that generates a number of
products simultaneously. A refinery processes various
crude oil types and produces a wide range of products,
including LPG (liquefied petroleum gas), gasoline,
kerosene and diesel. It is a complex optimization problem,
mainly due to the number of different tasks involved and
different objective criteria. In addition, some of the
tasks have precedence constraints that require other tasks
to be scheduled first. For example, in order to schedule a
task that transfers one of the yields of a certain crude
distillation unit, both the task that feeds the crude oil
into the unit and the task that sets the unit`s current
operation mode must already be scheduled. Therefore,
applying traditional evolutionary models, like the order-
based ones, can create many infeasible solutions that will
have to be corrected or rejected later on, thereby
jeopardizing the algorithm performance and feasibility.
The main goal was the development an evolutionary model
satisfying well-defined objectives, which would optimize
production scheduling and address the various constraints
entailed in the problem, thus generating only feasible
solutions. This work consisted on three main steps: a
survey on crude oil refining and refinery scheduling; the
development of a cooperative coevolutionary model to
optimize the refinery scheduling and the development of a
software tool for case studies. The study about refining
and scheduling involved gathering information about the
existent processes in a refinery, starting from the
arrival of crude oil, its distillation and transformation
into several products and, finally, the delivery of these
products to their respective destination. The levels of
decision making in a refinery were surveyed too, in order
to identify the main goals for each one, and how the
scheduling level fits into the structure as whole. Then,
all the routine scheduling tasks and their roles in a
refinery were carefully studied. The decision of when and
how to assign those tasks is the final output of the
scheduling task, so it must be the main output of the
algorithm too. The development of the evolutionary model
consisted of a survey on some of the most common
evolutionary approaches to scheduling. The adopted
coevolutionary model breaks the problem down into two
parts, thus using two species with different
responsibilities: One is responsible for deciding when a
task should be scheduled, while the other is responsible
for assigning a resource for this task. The first species
representation was based on a model used for the Dial-a-
Ride (Moon et al, 2002) kind of problems, and uses a graph
to help the fitness evaluation function find the right
order in which to schedule the tasks. This representation
was devised in such a way that the precedence constraints
were satisfied and no infeasible solutions were generated.
The representation of the second species, which assigns
resources for the tasks, let genetic operators change the
selection order when picking a resource for a task.
Finally, a software tool was developed to be used for
implement this model and for performing a case study. This
case study should comprise all the needed characteristics,
in order to test the quality of the representation as well
as evaluate the results. A simple refinery was designed,
containing all equipment types, tasks and constraints
found in a real-world refinery. The constraints mentioned
are the precedence constraints, handled by the graph used
by the first species, plus other operational constraints
found in refinery scheduling. It was possible, then, to
see the decoding of chromosomes into feasible solutions,
always satisfying all the constraints. Several tests
|
384 |
[en] RAY TRACING DYNAMIC SCENES ON THE GPU / [pt] TRAÇADO DE RAIOS DE CENAS DINÂMICAS NA GPUPAULO IVSON NETTO SANTOS 14 September 2017 (has links)
[pt] O objetivo deste trabalho é desenvolver uma solução completa para o traçado de raios de cenas dinâmicas utilizando a GPU. Para que este algoritmo atinja desempenho interativo, é necessário utilizar uma estrutura
espacial para reduzir os testes de interseção entre raios e triângulos da cena. Observa-se que, quando há movimento na cena, é necessário atualizar esta estrutura de aceleração, seja alterando-a parcialmente ou reconstruindo-a inteiramente. Adotamos a segunda estratégia por ser capaz de tratar o caso geral de movimento não-estruturado. Como a construção da estrutura deve ser feita da forma mais eficiente possível, escolhemos utilizar uma Grade Uniforme como foco de nossa pesquisa. Suas vantagens incluem um algoritmo de construção simples e um percurso de raios eficiente. Para explorar o poder de processamento em paralelo de uma GPU, é necessário manter os dados da cena e da estrutura de aceleração dentro da placa gráfica, evitando transferências custosas de memória entre a GPU e a CPU. Propomos neste trabalho uma técnica para construir uma grade uniforme inteiramente na GPU. Usando nosso método, é possível reconstruir toda a estrutura em poucos milissegundos, enquanto mantém-se a alta qualidade da grade obtida. Além disso, propomos uma implementaçoes do algoritmo de traçado de
raios de forma a aproveitar o processamento em paralelo da GPU. Nosso procedimento é implementado inteiramente dentro da placa gráfica, onde há acesso direto para os dados dos triângulos da cena, bem como as informações da grade uniforme construída. Utilizando a solução proposta, somos capazes de obter taxas de visualização interativas mesmo para cenas com movimentos não-estruturados, incluindo texturas, sombras e até mesmo reflexões. / [en] We present a technique for ray tracing dynamic scenes using the GPU. In order to achieve interactive rendering rates, it is necessary to use a spatial structure to reduce the number of ray-triangle intersections performed. Whenever there is movement in the scene, this structure is entirely rebuilt. This way, it is possible to handle general unstructured motion. For this purpose, we have developed an algorithm for reconstructing
Uniform Grids entirely inside the graphics hardware. In addition, we present ray-traversal and shading algorithms fully implemented on the GPU, including textures, shadows and reections. Combining these techniques, we demonstrate interactive ray tracing performance for dynamic scenes, even with unstructured motion and advanced shading effects.
|
385 |
[en] FREQUENCY PLANNING OPTIMIZATION USING ISOLATION AND COMPATIBILITY MATRICES / [es] OPTIMIZACIÓN DEL PLAN DE FRECUENCIAS DE UNA RED CELULAR POR EL USO DE LAS MATRICES DE AISLAMIENTO Y COMPATIBILIDADE / [pt] OTIMIZAÇÃO DE PLANEJAMENTO DE FREQÜÊNCIA DE UMA REDE CELULAR PELO USO DAS MATRIZES DE ISOLAÇÃO E DE COMPATIBILIDADEROBSON DOMINGOS VIEIRA 21 September 2001 (has links)
[pt] Um algoritmo de alocação de freqüência eficiente deve
considerar aspectos de propagação e detalhes de equipamento
de modo a minimizar a relação a sinal interferência, e
conseqüentemente, aumentar a eficiência do espectro. Essa
dissertação tem o objetivo de propor uma melhor solução
para alocação de freqüência nas rede TDMA e GSM, levando em
consideração os aspectos citados. A abordagem utilizada é
diferente das técnicas de alocação de freqüências usuais,
que são baseadas na distância de reuso. O algoritmo
proposto utiliza uma matriz que representa os aspectos de
propagação (matriz de isolação) e uma matriz que representa
os detalhes do equipamento (matriz de compatibilidade).
A matriz de isolação mostra a relação sinal interferência
que cada célula tem com as outras. Um estudo de como
coletar os dados (seleção da rota no interior do setor) e
de como trabalhar com os dados coletados foram realizados,
objetivando-se ter matriz que melhor caracterizasse a rede
utilizada. A matriz de compatibilidade mostra a distância
em freqüência no qual se devem alocar os canais em uma
mesma célula, células adjacentes e células co-sites. Os
valores de espaçamento entre freqüências, sugeridos nesta
dissertação, são valores práticos e dependem das técnicas
utilizadas no planejamento e do equipamento utilizado em
questão. O problema de alocação foi modelado com um
problema inteiro. Uma heurística (divide and conquer) foi
utilizada para particionar a rede em menores partes, em que
o algoritmo branch and bound foi implementado. O algoritmo
foi testado em duas redes com sessenta e trezentos e
quarenta e oito setores respectivamente. As redes foram
construída levando em consideração os dados topográficos e
morfológicos da cidade de Brasília. / [en] An efficient frequency assignment algorithm should consider
both propagation conditions and equipment details, in order
to minimize the carrier-to-interference ratio (C/I) and, as
a result, to increase spectrum efficiency. This
dissertation proposes a way to obtain a better solution for
frequency assignment in TDMA and GSM networks, taking into
account propagation conditions and equipment details. The
proposed approach is different from usual frequency
assignment techniques based on reuse distance. A frequency
assignment algorithm proposed uses one matrix that
represents the propagation features (isolation matrix) and
another which represents the equipment details
(compatibility matrix). The isolation matrix shows the
signal to interference ratio between any two sectors in
the whole network. A survey to define how to collect the
data ( selection of the route inside the sector) and how to
work with data collected was developed, aiming to obtain the
best matrix representation of the network. The
compatibility matrix shows the frequency distance between
channels in the same sector, adjacent sector and co-site
sectors. The frequency space values used in this matrix
are practical values, which depend upon the technique used
on the planning and on the utilized hardware. The frequency
assignment was formulated as an integer problem. An
heuristic (divide and conquer) was used to split the
network into smaller parts where an exact algorithm branch
and bound was implemented. The algorithm was tested on two
networks with 60 and 348 sectors respectively. The networks
were built having the topographical and morphological data
from Brasilia city. / [es] Un algoritmo eficiente de asignación de frecuencia debe considerar aspectos de propagación y
detalles del equipo de modo tal que se minimize la relación señal-interferencia, y onsecuentemente,
aumente la eficiencia del espectro. Esta disertación tiene como objetivo proponer una solución para
la asignación de frecuencia en las redes TDMA y GSM, considerando los aspectos anteriormente
citados. El enfoque utilizado difiere de las técnicas de asignación de frecuencias usuales, baseadas
en la distancia de reuso. EL algoritmo propuesto utiliza una matriz que representa los aspectos de
propagación (matriz de aislamiento) y una matriz que representa los detalles del equipo (matriz de
compatibilidade). La matriz de aislamiento muestra la relación señal-interferencia que cada célula
tiene con las otras. Se realiza un estudio de como recolectar los datos (selección de la ruta en el
interior del sector) y de como trabajar con los datos recolectados, con el objetivo de obtener la matriz
que mejor caracteriza la red utilizada. La matriz de compatibilidad muestra la distancia en frecuencia
en la cual se deben alocar los canales en una misma célula, células adyacentes y células co-sites. Los
valores de espacio entre frecuencias, sugeridos en esta disertación, son valores prácticos y dependen
de las técnicas utilizadas en el planificación y del equipo utilizado. El problema de asignación fue
modelado como un problema entero. Fue utilizada una heurística (divide and conquer) para
particionar la red en menores partes, donde se implementó el algoritmo branch and bound. EL
algoritmo fue probado en dos redes con sesenta y trezentos y quarenta y oito sectores
respectivamente. Las redes fueron construidas considerando los datos topográficos y morfológicos de
la ciudad de Brasilia.
|
386 |
[en] A METHOD FOR THE OPERATIONAL DISTRIBUTION PLANNING: APPLICATION FOR CASES WITH SUPPLY OF LIQUID BULKS / [pt] UM MÉTODO PARA O PLANEJAMENTO OPERACIONAL DA DISTRIBUIÇÃO: APLICAÇÃO PARA CASOS COM ABASTECIMENTO DE GRANÉIS LÍQUIDOSLEONARDO GONDINHO BOTELHO 23 March 2004 (has links)
[pt] Esta dissertação apresenta o estudo de um método para o
planejamento operacional da distribuição de granéis
líquidos, que visa à otimização dos recursos corporativos e
a redução de custos operacionais. Iniciando pelo conceito
da gestão do conhecimento, procura-se extrair as melhores
práticas da empresa através da experiência dos seus
profissionais. Todas as informações obtidas são
estruturadas e organizadas em um sistema de apoio a
decisão (SAD), a fim de montar uma base de conhecimento
para suportar e assistir os processos de negócio
relacionados à distribuição: previsão de demanda,
programação de abastecimentos e roteirização de veículos.
Baseado em pesquisas bibliográficas fundamentadas em
disciplinas relacionadas à análise dos processos supra
descritos e, principalmente, no conhecimento adquirido na
própria empresa, são sugeridas soluções heurísticas para
os problemas de planejamento da distribuição. Com o
objetivo de validar a utilização deste método, é
apresentado um estudo de caso realizado em uma empresa
distribuidora de GLP (Gás Liquefeito de Petróleo),
comparando os resultados obtidos antes e depois da sua
aplicação. Os indicadores de desempenho adotados pela
mesma apresentam os benefícios e valores agregados,
ratificando a eficiência do referido método. / [en] This dissertation presents the study of a method for the
operational distribution planning of liquid bulks, that
aims the optimization of the corporate resources and the
operational cost reduction. Starting by the concept of the
knowledge management, it pursuits to extract the company`s
best practices through the experience of its
professionals. All the information obtained are structured
and organized in a support decision system (SAD), in order
to build a knowledge base to support and to assist
the business processes related with the distribution:
demand forecast, supply programming and vehicle routing.
Based on bibliography researches well-founded in
disciplines related with the analysis of the processes
described above and, specially, from the knowledge gained
in the company, heuristics solutions are proposed for the
distribution planning problems. With the purpose of
validating this method utilization, it is presented a
study case in a LPG distribution company (liquid
petroleum gas), comparing the results achieved before and
after its application. The key performance indicators
adopted present benefits and add values, ratifying the
efficiency of the method above mentioned.
|
387 |
[en] SELECTION OF LOGISTICS PROJECTS OF A COMPANY IN OIL AND GAS INDUSTRY / [pt] SELEÇÃO DE PROJETOS DE LOGÍSTICA EM UMA EMPRESA DA INDÚSTRIA DE ÓLEO E GÁS05 November 2021 (has links)
[pt] Em um cenário mundial de intensa competição, com indústrias cada vez
mais complexas e dinâmicas, a tomada de decisão se tornou um fator chave que
muitas vezes pode determinar a sobrevivência e o sucesso de uma empresa. A
indústria do petróleo possui investimentos anuais na ordem de bilhões de dólares e
por isso toda decisão é considerada vital para esta indústria. Em função da grande
quantidade de projetos sendo estudados e propostos, tanto de ampliação quanto de
manutenção da estrutura das empresas, do alto valor de cada um e da restrição
orçamentária de cada empresa, a tomada de decisão é um passo importante e
complexo, devido às inúmeras variáveis e restrições envolvidas. Esta dissertação
elabora uma proposta de método de apoio para o processo de tomada de decisão
usado na seleção de projetos de investimento em logística de uma grande empresa
do setor de óleo e gás. Na maioria das vezes, os critérios utilizados para a tomada
de decisão na seleção de projetos consideram apenas os aspectos financeiros, sem
levar em consideração outros critérios, que são abordados nesse trabalho. Em
função da importância dos projetos e da quantidade de variáveis envolvidas
durante a seleção e priorização deles, esse trabalho utiliza o método AHP
(Analytic Hierarchy Process) Simplificado e os conceitos de Programação Linear
Inteira Mista (PLIM) para determinar os projetos prioritários e otimizar a
satisfação do grupo tomador de decisão. Foram estudados seis dos principais
projetos da empresa, que juntos somam, aproximadamente, 2,7 bilhões de doláres e
representam quase 80 por cento da carteira da área de logística da empresa estudada. Este
estudo possibilitou uma seleção mais eficaz, resultando em uma maior integração
entre os tomadores de decisão e um maior conhecimento sobre cada um dos
projetos avaliados. / [en] In a global scenario of intense competition with increasingly complex and
dynamic industries, decision-making has become a key factor that can often
determine the survival and success of a company. The oil and gas industry has
annual investments of billions of dollars and every decision is considered vital for
this industry. Due to the large number of projects being proposed and studied,
involving both expansion and maintenance of business structure, the high value of
each and the budget constraint of each company, the decision-making is important
and complex, due to numerous variables and constraints involved. This
dissertation develops a proposed method of support to the process of decision
making used in the selection of logistics investment projects, in a large company
in the oil and gas industry. In most cases, the criteria used for decision making in
project selection only considers the financial aspects, without taking into account
other ones, which are addressed in this work. Due to the importance of the
projects and the amount of variables involved when selecting and prioritizing
them, this work uses the Simplified AHP (Analytic Hierarchy Process) and
concepts of Mixed Integer Linear Programming (MILP) to determine priority
projects and optimize the satisfaction of the decision-making group. Six of the
main projects of the enterprise were studied, which together sum up to
approximately 2.7 billion dollars and represent almost 80 per cent of the logistics portfolio
of the studied company. This study allowed a more effective selection, resulting in
a greater integration between decision makers and a greater knowledge of each of
the evaluated projects.
|
388 |
[pt] GESTÃO DA CADEIA DE PETRÓLEO SOB INCERTEZA: MODELOS E ALGORITMOS / [en] PETROLEUM SUPPLY CHAIN MANAGEMENT UNDER UNCERTAINTY: MODELS AND ALGORITHMS10 November 2021 (has links)
[pt] Nesta tese é abordado o problema de planejamento de investimentos para a cadeia de fornecimento de petróleo sob incerteza. Neste contexto, um modelo de programação estocástica de dois estágios é formulado e resolvido. Tal modelo busca representar com precisão as características particulares
que são inerentes ao planejamento de investimentos para a infra-estrutura logística de petróleo. A incorporação da incerteza neste contexto inevitavelmente aumenta a complexidade do problema, o qual se torna rapidamente intratável conforme cresce o número de cenários. Tal dificuldade é contornada baseando-se na aproximação por média amostral (AMA) para controlar o número de
cenários necessários para atingir um nível pré-especificado de tolerância em relação à qualidade da solução. Além disso, é considerado o desenvolvimento de técnicas que resolvam de maneira eficiente o problema, explorando sua estrutura especial, através de decomposiçãoo por cenários. Seguindo esta
ideia, propõe-se duas novas abordagens para decompor o problema de forma que o mesmo possa ser eficientemente resolvido. O primeiro algoritmo é baseado na decomposição estocástica de Benders,
a qual é aprimorada usando-se novas técnicas de aceleração propostas. O segundo consiste de um novo algoritmo baseado em decomposição Lagrangeana que foi projetado para lidar com o caso onde temos variáveis inteiras no problema de segundo estágio. A característica inovadora desse algoritmo
está relacionada com a estratégia híbrida utilizada para atualizar os multiplicadores de Lagrange, combinando subgradientes, planos de cortes e regiões de confiança. Em ambos os casos as abordagens propostas foram avaliadas considerando um exemplo de grande escala do mundo real e os resultados
sugerem que os mesmos apresentam desempenho superior quando comparados com outras técnicas disponíveis na literatura. / [en] In this thesis we investigate the investment planning problem for the petroleum
supply chain under demand uncertainty. We formulate and solve a
two-stage stochastic programming model that seeks to accurately represent
the particular features that are inherent to the investment planning for the
petroleum logistics infrastructure.
The incorporation of uncertainty in this case inevitably increases the complexity
of the problem, which becomes quickly intractable as the number of
scenarios grows. We circumvent this drawback by relying on Sample Average
Approximation (SAA) to control the number of scenarios required to
reach a prespecified level of tolerance regarding solution quality. We also
focus on efficiently solving the stochastic programming problem, exploiting
its particular structure by means of a scenario-wise decomposition. Following
this idea, we propose two novel approaches that focus on decomposing
the problem in a way that it could be efficiently solved.
The first algorithm is based on stochastic Benders decomposition, which
we further improve by using new acceleration techniques proposed in this
study. The second is a novel algorithm based on Lagrangean decomposition
that was designed to deal with the case where we have integer variables in
the second-stage problem. The novel feature in this algorithm is related
with the hybrid strategy for updating the Lagrange multipliers, which
combines subgradient, cutting-planes and trust region ideas. In both cases,
we have assessed the proposed approaches considering a large-scale realworld
instances of the problem. Results suggests that they attain superior
performance.
|
389 |
[en] PARALLEL PROGRAMING IN THE REDIS KEY-VALUE DATASTORE / [pt] PROGRAMAÇÃO PARALELA NO BANCO DE DADOS CHAVE-VALOR REDISJUAREZ DA SILVA BOCHI 12 April 2016 (has links)
[pt] Redis é um banco de dados chave-valor de código livre que dá suporte à
avaliação de scripts Lua, mas sua implementação utiliza apenas uma tarefa
de sistema operacional. Scripts longos são desencorajados porque a avaliação
do código é bloqueante, o que pode causar degradação de desempenho para
os demais usuários. Através da aplicação do modelo de concorrência M:N,
que combina tarefas de nível de sistema operacional com tarefas do nível
de usuário, adicionamos no Redis a capacidade de execução de scripts em
paralelo, permitindo que todos os núcleos do servidor sejam explorados.
Com a utilização de corotinas Lua, implementamos um escalonador capaz
de alocar e suspender a execução de tarefas de nível de usuário nos núcleos
disponíveis sem necessidade de alteração do código dos scripts. Este modelo
permitiu proteger o programador das complexidades naturais do paralelismo
como sincronização no acesso a recursos compartilhados e escalonamento
das tarefas. / [en] Redis is an open source key-value database that supports Lua programming
language scripts, but it s implementation is single threaded. Long running
scripts are discouraged because script evaluation is blocking, which may
cause service levels deterioration. Applying the M:N threading model,
which combines user and operating system threads, we added to Redis the
ability of running scripts in parallel, leveraging all server cores.With the use
of Lua coroutines, we implemented a scheduler able to allocate and suspend
user-level tasks in the available cores without the need of changing scripts
source code. The M:N model allowed us to protect the programmer from the
natural complexities that arise from parallel programming, such as access
to shared resources synchronization and scheduling of tasks into different
operational system threads.
|
390 |
[pt] ALGORITMOS DE RETORNO À SUPERFÍCIE PARA PLASTICIDADE ASSOCIATIVA UTILIZANDO PROGRAMAÇÃO CÔNICA / [en] RETURN-MAPPING ALGORITHMS FOR ASSOCIATIVE PLASTICITY USING CONIC OPTIMIZATION17 September 2020 (has links)
[pt] Esse trabalho apresenta uma abordagem baseada em programação
matemática para a solução de problemas de valor inicial de contorno constitutivo
elastoplástico. Considerando a plasticidade associativa, as equações
constitutivas locais, em sua forma discreta, são formuladas como problemas
de otimização cônica. Especificamente, é demonstrado que métodos implícitos
de retorno a superfície para os critérios mais conhecidos da literatura,
como o de Rankine, von Mises, Tresca, Drucker-Prager e Mohr Coulomb, podem
ser expressos como problemas de otimização cônica de segunda ordem
e semidefinida. Além disso, um novo método numérico para a determinação
do operador elastoplástico consistente, baseado na derivada paramétrica de
primeira ordem das soluções ótimas, é proposto. / [en] This work presents a mathematical programming approach for elastoplastic
constitutive initial boundary value problems. Considering associative
plasticity, the local discrete constitutive equations are formulated as conic
programs. Specifically, it is demonstrated that implicit return-mapping schemes
for well-known yield criteria, such as the Rankine, von Mises, Tresca,
Drucker-Prager, and Mohr-Coulomb criteria, can be expressed as secondorder
and semidefinite conic programs. Additionally, a novel scheme for the
numerical evaluation of the consistent elastoplastic tangent operator, based
on a first-order parameter derivative of the optimal solutions, is proposed.
|
Page generated in 0.2643 seconds