• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 366
  • 72
  • 3
  • Tagged with
  • 442
  • 247
  • 246
  • 98
  • 84
  • 62
  • 58
  • 54
  • 53
  • 52
  • 52
  • 50
  • 47
  • 46
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Implementa??o paralela escal?vel e eficiente do algoritmo simplex padr?o em arquitetura multicore

Coutinho, Demetrios Ara?jo Magalh?es 24 January 2014 (has links)
Made available in DSpace on 2014-12-17T14:56:18Z (GMT). No. of bitstreams: 1 DemetriusAMC_DISSERT.pdf: 2429364 bytes, checksum: 57aaf24560c189720b218dbca0ef1a56 (MD5) Previous issue date: 2014-01-24 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / This work presents a scalable and efficient parallel implementation of the Standard Simplex algorithm in the multicore architecture to solve large scale linear programming problems. We present a general scheme explaining how each step of the standard Simplex algorithm was parallelized, indicating some important points of the parallel implementation. Performance analysis were conducted by comparing the sequential time using the Simplex tableau and the Simplex of the CPLEXR IBM. The experiments were executed on a shared memory machine with 24 cores. The scalability analysis was performed with problems of different dimensions, finding evidence that our parallel standard Simplex algorithm has a better parallel efficiency for problems with more variables than constraints. In comparison with CPLEXR , the proposed parallel algorithm achieved a efficiency of up to 16 times better / Este trabalho apresenta uma implementa??o paralela escal?vel e eficiente do algoritmo Simplex padr?o em arquitetura de processadores multicore para resolver problemas de programa??o linear de grande escala. Apresenta-se um esquema geral explicando como foi paralelizado cada passo do algoritmo simplex padr?o, apontando pontos importantes da implementa??o paralela. Foram realizadas an?lises de desempenho atrav?s da compara??o dos tempos sequenciais utilizando o Simplex tableau e Simplex do CPLEXR da IBM. Os experimentos foram realizados em uma m?quina de mem?ria compartilhada com 24 n?cleos. A an?lise de escalabilidade foi feita com problemas de diferentes dimens?es, encontrando evid?ncias de que a implementa??o paralela proposta do algoritmo simplex padr?o tem melhor efici?ncia paralela para problemas com mais vari?veis do que restri??es. Na compara??o com CPLEXR , o algoritmo proposto paralelo obteve uma efici?ncia de at? 16 vezes maior
382

EXTRAÇÃO CEGA DE SINAIS COM ESTRUTURAS TEMPORAIS UTILIZANDO ESPAÇOS DE HILBERT REPRODUZIDOS POR KERNEIS / BLIND SIGNAL EXTRACTION WITH TEMPORAL STRUCTURES USING HILBERT SPACE REPRODUCED BY KERNEL

Santana Júnior, Ewaldo éder Carvalho 10 February 2012 (has links)
Made available in DSpace on 2016-08-17T14:53:18Z (GMT). No. of bitstreams: 1 Dissertacao Ewaldo.pdf: 1169300 bytes, checksum: fc5d4b9840bbafe39d03cd1221da615e (MD5) Previous issue date: 2012-02-10 / This work derives and evaluates a nonlinear method for Blind Source Extraction (BSE) in a Reproducing Kernel Hilbert Space (RKHS) framework. For extracting the desired signal from a mixture a priori information about the autocorrelation function of that signal translated in a linear transformation of the Gram matrix of the nonlinearly transformed data to the Hilbert space. Our method proved to be more robust than methods presented in the literature of BSE with respect to ambiguities in the available a priori information of the signal to be extracted. The approach here introduced can also be seen as a generalization of Kernel Principal Component Analysis to analyze autocorrelation matrices at specific time lags. Henceforth, the method here presented is a kernelization of Dependent Component Analysis, it will be called Kernel Dependent Component Analysis (KDCA). Also in this dissertation it will be show a Information-Theoretic Learning perspective of the analysis, this will study the transformations in the extracted signals probability density functions while linear operations calculated in the RKHS. / Esta dissertação deriva e avalia um novo método nãolinear para Extração Cega de Sinais através de operações algébricas em um Espaço de Hilbert Reproduzido por Kernel (RKHS, do inglês Reproducing Kernel Hilbert Space). O processo de extração de sinais desejados de misturas é realizado utilizando-se informação sobre a estrutura temporal deste sinal desejado. No presente trabalho, esta informação temporal será utilizada para realizar uma transformação linear na matriz de Gram das misturas transformadas para o espaço de Hilbert. Aqui, mostrarse- á também que o método proposto é mais robusto, com relação a ambigüidades sobre a informação temporal do sinal desejado, que aqueles previamente apresentados na literatura para realizar a mesma operação de extração. A abordagem estudada a seguir pode ser vista como uma generalização da Análise de Componentes Principais utilizando Kerneis para analisar matriz de autocorrelação dos dados para um atraso específico. Sendo também uma kernelização da Análise de Componentes Dependentes, o método aqui desenvolvido é denominado Análise de Componentes Dependentes utilizando Kerneis (KDCA, do inglês Kernel Dependent Component Analysis). Também será abordada nesta dissertação, a perspectiva da Aprendizagem de Máquina utilizando Teoria da Informação do novo método apresentado, mostrando assim, que transformações são realizadas na função densidade de probabilidade do sinal extraído enquanto que operação lineares são calculadas no RKHS.
383

[en] REFINERY SCHEDULING OPTIMIZATION USING GENETIC ALGORITHMS AND COOPERATIVE COEVOLUTION / [pt] OTIMIZAÇÃO DA PROGRAMAÇÃO DA PRODUÇÃO EM REFINARIAS DE PETRÓLEO UTILIZANDO ALGORITMOS GENÉTICOS E CO-EVOLUÇÃO COOPERATIVA

LEONARDO MENDES SIMAO 28 February 2005 (has links)
[pt] Esta dissertação investiga a aplicação de Algoritmos Genéticos e de Co-Evolução Cooperativa na otimização da programação da produção em refinarias de petróleo. Refinarias de petróleo constituem um dos mais importantes exemplos de plantas contínuas multiproduto, isto é, um sistema de processamento contínuo gerador de múltiplos produtos simultâneos. Uma refinaria, em geral, processa um ou mais tipos de petróleo, produzindo uma série de produtos derivados, como o GLP (gás liquefeito de petróleo), a nafta, o querosene e o óleo diesel. Trata- se de um problema complexo de otimização, devido ao número e diversidade de atividades existentes e diferentes objetivos. Além disso, neste problema, algumas atividades dependem de que outras atividades já tenham sido planejadas para que possam então ser planejadas. Um caso típico é o das retiradas de produtos de uma unidade de processo, que dependem de que a carga já tenha sido planejada, assim como em qual campanha a unidade estará naquele instante. Por isso, o uso de modelos revolucionários convencionais, como os baseados em ordem, pode gerar muitas soluções inválidas, que deverão ser posteriormente corrigidas ou descartadas, comprometendo o desempenho e a viabilidade do algoritmo. O objetivo do trabalho foi, então, desenvolver um modelo evolucionário para otimizar a programação da produção (scheduling), segundo objetivos bem definidos, capaz de lidar com as restrições do problema, gerando apenas soluções viáveis. O trabalho consistiu em três etapas principais: um estudo sobre o refino de petróleo e a programação da produção em refinarias; a definição de um modelo usando algoritmos genéticos e co-evolução cooperativa para otimização da programação da produção e a implementação de uma ferramenta para estudo de caso. O estudo sobre o refino e a programação da produção envolveu o levantamento das várias etapas do processamento do petróleo em uma refinaria, desde o seu recebimento, destilação e transformação em diversos produtos acabados, que são então enviados a seus respectivos destinos. Neste estudo, também foi levantada a estrutura de tomada de decisão em uma refinaria e seus vários níveis, diferenciando os objetivos destes níveis e explicitando o papel da programação da produção nesta estrutura. A partir daí, foram estudadas em detalhes todas as atividades que normalmente ocorrem na refinaria e que são definidas na programação, e seus papéis na produção da refinaria. A decisão de quando e com que recursos executar estas atividades é o resultado final da programação e, portanto, a saída principal do algoritmo. A modelagem do algoritmo genético consistiu inicialmente em um estudo de representações utilizadas para problemas de scheduling. O modelo coevolucionário adotado considera a decomposição do problema em duas partes e,portanto, emprega duas populações com responsabilidades diferentes: uma é responsável por indicar quando uma atividade deve ser planejada e a outra é responsável por indicar com quais recursos essa mesma atividade deve ser realizada. A primeira população teve sua representação baseada em um modelo usado para problemas do tipo Dial-A-Ride (Moon et al, 2002), que utiliza um grafo para indicar à função de avaliação a ordem na qual o planejamento deve ser construído. Esta representação foi elaborada desta forma para que fosse levada em conta a existência de restrições de precedência (atividades que devem ser planejadas antes de outras), e assim não fossem geradas soluções inválidas pelo algoritmo. A segunda população, que se responsabiliza pela alocação dos recursos para a execução das atividades, conta com uma representação onde os operadores genéticos podem atuar na ordem de escolha dos recursos que podem realizar cada uma das atividades. Finalmente, des / [en] This work investigates the use of Genetic Algorithms and Cooperative Coevolution in refinery scheduling optimization. Oil refineries are one of the most important examples of multiproduct continuous plants, that is, a continuous processing system that generates a number of products simultaneously. A refinery processes various crude oil types and produces a wide range of products, including LPG (liquefied petroleum gas), gasoline, kerosene and diesel. It is a complex optimization problem, mainly due to the number of different tasks involved and different objective criteria. In addition, some of the tasks have precedence constraints that require other tasks to be scheduled first. For example, in order to schedule a task that transfers one of the yields of a certain crude distillation unit, both the task that feeds the crude oil into the unit and the task that sets the unit`s current operation mode must already be scheduled. Therefore, applying traditional evolutionary models, like the order- based ones, can create many infeasible solutions that will have to be corrected or rejected later on, thereby jeopardizing the algorithm performance and feasibility. The main goal was the development an evolutionary model satisfying well-defined objectives, which would optimize production scheduling and address the various constraints entailed in the problem, thus generating only feasible solutions. This work consisted on three main steps: a survey on crude oil refining and refinery scheduling; the development of a cooperative coevolutionary model to optimize the refinery scheduling and the development of a software tool for case studies. The study about refining and scheduling involved gathering information about the existent processes in a refinery, starting from the arrival of crude oil, its distillation and transformation into several products and, finally, the delivery of these products to their respective destination. The levels of decision making in a refinery were surveyed too, in order to identify the main goals for each one, and how the scheduling level fits into the structure as whole. Then, all the routine scheduling tasks and their roles in a refinery were carefully studied. The decision of when and how to assign those tasks is the final output of the scheduling task, so it must be the main output of the algorithm too. The development of the evolutionary model consisted of a survey on some of the most common evolutionary approaches to scheduling. The adopted coevolutionary model breaks the problem down into two parts, thus using two species with different responsibilities: One is responsible for deciding when a task should be scheduled, while the other is responsible for assigning a resource for this task. The first species representation was based on a model used for the Dial-a- Ride (Moon et al, 2002) kind of problems, and uses a graph to help the fitness evaluation function find the right order in which to schedule the tasks. This representation was devised in such a way that the precedence constraints were satisfied and no infeasible solutions were generated. The representation of the second species, which assigns resources for the tasks, let genetic operators change the selection order when picking a resource for a task. Finally, a software tool was developed to be used for implement this model and for performing a case study. This case study should comprise all the needed characteristics, in order to test the quality of the representation as well as evaluate the results. A simple refinery was designed, containing all equipment types, tasks and constraints found in a real-world refinery. The constraints mentioned are the precedence constraints, handled by the graph used by the first species, plus other operational constraints found in refinery scheduling. It was possible, then, to see the decoding of chromosomes into feasible solutions, always satisfying all the constraints. Several tests
384

[en] RAY TRACING DYNAMIC SCENES ON THE GPU / [pt] TRAÇADO DE RAIOS DE CENAS DINÂMICAS NA GPU

PAULO IVSON NETTO SANTOS 14 September 2017 (has links)
[pt] O objetivo deste trabalho é desenvolver uma solução completa para o traçado de raios de cenas dinâmicas utilizando a GPU. Para que este algoritmo atinja desempenho interativo, é necessário utilizar uma estrutura espacial para reduzir os testes de interseção entre raios e triângulos da cena. Observa-se que, quando há movimento na cena, é necessário atualizar esta estrutura de aceleração, seja alterando-a parcialmente ou reconstruindo-a inteiramente. Adotamos a segunda estratégia por ser capaz de tratar o caso geral de movimento não-estruturado. Como a construção da estrutura deve ser feita da forma mais eficiente possível, escolhemos utilizar uma Grade Uniforme como foco de nossa pesquisa. Suas vantagens incluem um algoritmo de construção simples e um percurso de raios eficiente. Para explorar o poder de processamento em paralelo de uma GPU, é necessário manter os dados da cena e da estrutura de aceleração dentro da placa gráfica, evitando transferências custosas de memória entre a GPU e a CPU. Propomos neste trabalho uma técnica para construir uma grade uniforme inteiramente na GPU. Usando nosso método, é possível reconstruir toda a estrutura em poucos milissegundos, enquanto mantém-se a alta qualidade da grade obtida. Além disso, propomos uma implementaçoes do algoritmo de traçado de raios de forma a aproveitar o processamento em paralelo da GPU. Nosso procedimento é implementado inteiramente dentro da placa gráfica, onde há acesso direto para os dados dos triângulos da cena, bem como as informações da grade uniforme construída. Utilizando a solução proposta, somos capazes de obter taxas de visualização interativas mesmo para cenas com movimentos não-estruturados, incluindo texturas, sombras e até mesmo reflexões. / [en] We present a technique for ray tracing dynamic scenes using the GPU. In order to achieve interactive rendering rates, it is necessary to use a spatial structure to reduce the number of ray-triangle intersections performed. Whenever there is movement in the scene, this structure is entirely rebuilt. This way, it is possible to handle general unstructured motion. For this purpose, we have developed an algorithm for reconstructing Uniform Grids entirely inside the graphics hardware. In addition, we present ray-traversal and shading algorithms fully implemented on the GPU, including textures, shadows and reections. Combining these techniques, we demonstrate interactive ray tracing performance for dynamic scenes, even with unstructured motion and advanced shading effects.
385

[en] FREQUENCY PLANNING OPTIMIZATION USING ISOLATION AND COMPATIBILITY MATRICES / [es] OPTIMIZACIÓN DEL PLAN DE FRECUENCIAS DE UNA RED CELULAR POR EL USO DE LAS MATRICES DE AISLAMIENTO Y COMPATIBILIDADE / [pt] OTIMIZAÇÃO DE PLANEJAMENTO DE FREQÜÊNCIA DE UMA REDE CELULAR PELO USO DAS MATRIZES DE ISOLAÇÃO E DE COMPATIBILIDADE

ROBSON DOMINGOS VIEIRA 21 September 2001 (has links)
[pt] Um algoritmo de alocação de freqüência eficiente deve considerar aspectos de propagação e detalhes de equipamento de modo a minimizar a relação a sinal interferência, e conseqüentemente, aumentar a eficiência do espectro. Essa dissertação tem o objetivo de propor uma melhor solução para alocação de freqüência nas rede TDMA e GSM, levando em consideração os aspectos citados. A abordagem utilizada é diferente das técnicas de alocação de freqüências usuais, que são baseadas na distância de reuso. O algoritmo proposto utiliza uma matriz que representa os aspectos de propagação (matriz de isolação) e uma matriz que representa os detalhes do equipamento (matriz de compatibilidade). A matriz de isolação mostra a relação sinal interferência que cada célula tem com as outras. Um estudo de como coletar os dados (seleção da rota no interior do setor) e de como trabalhar com os dados coletados foram realizados, objetivando-se ter matriz que melhor caracterizasse a rede utilizada. A matriz de compatibilidade mostra a distância em freqüência no qual se devem alocar os canais em uma mesma célula, células adjacentes e células co-sites. Os valores de espaçamento entre freqüências, sugeridos nesta dissertação, são valores práticos e dependem das técnicas utilizadas no planejamento e do equipamento utilizado em questão. O problema de alocação foi modelado com um problema inteiro. Uma heurística (divide and conquer) foi utilizada para particionar a rede em menores partes, em que o algoritmo branch and bound foi implementado. O algoritmo foi testado em duas redes com sessenta e trezentos e quarenta e oito setores respectivamente. As redes foram construída levando em consideração os dados topográficos e morfológicos da cidade de Brasília. / [en] An efficient frequency assignment algorithm should consider both propagation conditions and equipment details, in order to minimize the carrier-to-interference ratio (C/I) and, as a result, to increase spectrum efficiency. This dissertation proposes a way to obtain a better solution for frequency assignment in TDMA and GSM networks, taking into account propagation conditions and equipment details. The proposed approach is different from usual frequency assignment techniques based on reuse distance. A frequency assignment algorithm proposed uses one matrix that represents the propagation features (isolation matrix) and another which represents the equipment details (compatibility matrix). The isolation matrix shows the signal to interference ratio between any two sectors in the whole network. A survey to define how to collect the data ( selection of the route inside the sector) and how to work with data collected was developed, aiming to obtain the best matrix representation of the network. The compatibility matrix shows the frequency distance between channels in the same sector, adjacent sector and co-site sectors. The frequency space values used in this matrix are practical values, which depend upon the technique used on the planning and on the utilized hardware. The frequency assignment was formulated as an integer problem. An heuristic (divide and conquer) was used to split the network into smaller parts where an exact algorithm branch and bound was implemented. The algorithm was tested on two networks with 60 and 348 sectors respectively. The networks were built having the topographical and morphological data from Brasilia city. / [es] Un algoritmo eficiente de asignación de frecuencia debe considerar aspectos de propagación y detalles del equipo de modo tal que se minimize la relación señal-interferencia, y onsecuentemente, aumente la eficiencia del espectro. Esta disertación tiene como objetivo proponer una solución para la asignación de frecuencia en las redes TDMA y GSM, considerando los aspectos anteriormente citados. El enfoque utilizado difiere de las técnicas de asignación de frecuencias usuales, baseadas en la distancia de reuso. EL algoritmo propuesto utiliza una matriz que representa los aspectos de propagación (matriz de aislamiento) y una matriz que representa los detalles del equipo (matriz de compatibilidade). La matriz de aislamiento muestra la relación señal-interferencia que cada célula tiene con las otras. Se realiza un estudio de como recolectar los datos (selección de la ruta en el interior del sector) y de como trabajar con los datos recolectados, con el objetivo de obtener la matriz que mejor caracteriza la red utilizada. La matriz de compatibilidad muestra la distancia en frecuencia en la cual se deben alocar los canales en una misma célula, células adyacentes y células co-sites. Los valores de espacio entre frecuencias, sugeridos en esta disertación, son valores prácticos y dependen de las técnicas utilizadas en el planificación y del equipo utilizado. El problema de asignación fue modelado como un problema entero. Fue utilizada una heurística (divide and conquer) para particionar la red en menores partes, donde se implementó el algoritmo branch and bound. EL algoritmo fue probado en dos redes con sesenta y trezentos y quarenta y oito sectores respectivamente. Las redes fueron construidas considerando los datos topográficos y morfológicos de la ciudad de Brasilia.
386

[en] A METHOD FOR THE OPERATIONAL DISTRIBUTION PLANNING: APPLICATION FOR CASES WITH SUPPLY OF LIQUID BULKS / [pt] UM MÉTODO PARA O PLANEJAMENTO OPERACIONAL DA DISTRIBUIÇÃO: APLICAÇÃO PARA CASOS COM ABASTECIMENTO DE GRANÉIS LÍQUIDOS

LEONARDO GONDINHO BOTELHO 23 March 2004 (has links)
[pt] Esta dissertação apresenta o estudo de um método para o planejamento operacional da distribuição de granéis líquidos, que visa à otimização dos recursos corporativos e a redução de custos operacionais. Iniciando pelo conceito da gestão do conhecimento, procura-se extrair as melhores práticas da empresa através da experiência dos seus profissionais. Todas as informações obtidas são estruturadas e organizadas em um sistema de apoio a decisão (SAD), a fim de montar uma base de conhecimento para suportar e assistir os processos de negócio relacionados à distribuição: previsão de demanda, programação de abastecimentos e roteirização de veículos. Baseado em pesquisas bibliográficas fundamentadas em disciplinas relacionadas à análise dos processos supra descritos e, principalmente, no conhecimento adquirido na própria empresa, são sugeridas soluções heurísticas para os problemas de planejamento da distribuição. Com o objetivo de validar a utilização deste método, é apresentado um estudo de caso realizado em uma empresa distribuidora de GLP (Gás Liquefeito de Petróleo), comparando os resultados obtidos antes e depois da sua aplicação. Os indicadores de desempenho adotados pela mesma apresentam os benefícios e valores agregados, ratificando a eficiência do referido método. / [en] This dissertation presents the study of a method for the operational distribution planning of liquid bulks, that aims the optimization of the corporate resources and the operational cost reduction. Starting by the concept of the knowledge management, it pursuits to extract the company`s best practices through the experience of its professionals. All the information obtained are structured and organized in a support decision system (SAD), in order to build a knowledge base to support and to assist the business processes related with the distribution: demand forecast, supply programming and vehicle routing. Based on bibliography researches well-founded in disciplines related with the analysis of the processes described above and, specially, from the knowledge gained in the company, heuristics solutions are proposed for the distribution planning problems. With the purpose of validating this method utilization, it is presented a study case in a LPG distribution company (liquid petroleum gas), comparing the results achieved before and after its application. The key performance indicators adopted present benefits and add values, ratifying the efficiency of the method above mentioned.
387

[en] SELECTION OF LOGISTICS PROJECTS OF A COMPANY IN OIL AND GAS INDUSTRY / [pt] SELEÇÃO DE PROJETOS DE LOGÍSTICA EM UMA EMPRESA DA INDÚSTRIA DE ÓLEO E GÁS

05 November 2021 (has links)
[pt] Em um cenário mundial de intensa competição, com indústrias cada vez mais complexas e dinâmicas, a tomada de decisão se tornou um fator chave que muitas vezes pode determinar a sobrevivência e o sucesso de uma empresa. A indústria do petróleo possui investimentos anuais na ordem de bilhões de dólares e por isso toda decisão é considerada vital para esta indústria. Em função da grande quantidade de projetos sendo estudados e propostos, tanto de ampliação quanto de manutenção da estrutura das empresas, do alto valor de cada um e da restrição orçamentária de cada empresa, a tomada de decisão é um passo importante e complexo, devido às inúmeras variáveis e restrições envolvidas. Esta dissertação elabora uma proposta de método de apoio para o processo de tomada de decisão usado na seleção de projetos de investimento em logística de uma grande empresa do setor de óleo e gás. Na maioria das vezes, os critérios utilizados para a tomada de decisão na seleção de projetos consideram apenas os aspectos financeiros, sem levar em consideração outros critérios, que são abordados nesse trabalho. Em função da importância dos projetos e da quantidade de variáveis envolvidas durante a seleção e priorização deles, esse trabalho utiliza o método AHP (Analytic Hierarchy Process) Simplificado e os conceitos de Programação Linear Inteira Mista (PLIM) para determinar os projetos prioritários e otimizar a satisfação do grupo tomador de decisão. Foram estudados seis dos principais projetos da empresa, que juntos somam, aproximadamente, 2,7 bilhões de doláres e representam quase 80 por cento da carteira da área de logística da empresa estudada. Este estudo possibilitou uma seleção mais eficaz, resultando em uma maior integração entre os tomadores de decisão e um maior conhecimento sobre cada um dos projetos avaliados. / [en] In a global scenario of intense competition with increasingly complex and dynamic industries, decision-making has become a key factor that can often determine the survival and success of a company. The oil and gas industry has annual investments of billions of dollars and every decision is considered vital for this industry. Due to the large number of projects being proposed and studied, involving both expansion and maintenance of business structure, the high value of each and the budget constraint of each company, the decision-making is important and complex, due to numerous variables and constraints involved. This dissertation develops a proposed method of support to the process of decision making used in the selection of logistics investment projects, in a large company in the oil and gas industry. In most cases, the criteria used for decision making in project selection only considers the financial aspects, without taking into account other ones, which are addressed in this work. Due to the importance of the projects and the amount of variables involved when selecting and prioritizing them, this work uses the Simplified AHP (Analytic Hierarchy Process) and concepts of Mixed Integer Linear Programming (MILP) to determine priority projects and optimize the satisfaction of the decision-making group. Six of the main projects of the enterprise were studied, which together sum up to approximately 2.7 billion dollars and represent almost 80 per cent of the logistics portfolio of the studied company. This study allowed a more effective selection, resulting in a greater integration between decision makers and a greater knowledge of each of the evaluated projects.
388

[pt] GESTÃO DA CADEIA DE PETRÓLEO SOB INCERTEZA: MODELOS E ALGORITMOS / [en] PETROLEUM SUPPLY CHAIN MANAGEMENT UNDER UNCERTAINTY: MODELS AND ALGORITHMS

10 November 2021 (has links)
[pt] Nesta tese é abordado o problema de planejamento de investimentos para a cadeia de fornecimento de petróleo sob incerteza. Neste contexto, um modelo de programação estocástica de dois estágios é formulado e resolvido. Tal modelo busca representar com precisão as características particulares que são inerentes ao planejamento de investimentos para a infra-estrutura logística de petróleo. A incorporação da incerteza neste contexto inevitavelmente aumenta a complexidade do problema, o qual se torna rapidamente intratável conforme cresce o número de cenários. Tal dificuldade é contornada baseando-se na aproximação por média amostral (AMA) para controlar o número de cenários necessários para atingir um nível pré-especificado de tolerância em relação à qualidade da solução. Além disso, é considerado o desenvolvimento de técnicas que resolvam de maneira eficiente o problema, explorando sua estrutura especial, através de decomposiçãoo por cenários. Seguindo esta ideia, propõe-se duas novas abordagens para decompor o problema de forma que o mesmo possa ser eficientemente resolvido. O primeiro algoritmo é baseado na decomposição estocástica de Benders, a qual é aprimorada usando-se novas técnicas de aceleração propostas. O segundo consiste de um novo algoritmo baseado em decomposição Lagrangeana que foi projetado para lidar com o caso onde temos variáveis inteiras no problema de segundo estágio. A característica inovadora desse algoritmo está relacionada com a estratégia híbrida utilizada para atualizar os multiplicadores de Lagrange, combinando subgradientes, planos de cortes e regiões de confiança. Em ambos os casos as abordagens propostas foram avaliadas considerando um exemplo de grande escala do mundo real e os resultados sugerem que os mesmos apresentam desempenho superior quando comparados com outras técnicas disponíveis na literatura. / [en] In this thesis we investigate the investment planning problem for the petroleum supply chain under demand uncertainty. We formulate and solve a two-stage stochastic programming model that seeks to accurately represent the particular features that are inherent to the investment planning for the petroleum logistics infrastructure. The incorporation of uncertainty in this case inevitably increases the complexity of the problem, which becomes quickly intractable as the number of scenarios grows. We circumvent this drawback by relying on Sample Average Approximation (SAA) to control the number of scenarios required to reach a prespecified level of tolerance regarding solution quality. We also focus on efficiently solving the stochastic programming problem, exploiting its particular structure by means of a scenario-wise decomposition. Following this idea, we propose two novel approaches that focus on decomposing the problem in a way that it could be efficiently solved. The first algorithm is based on stochastic Benders decomposition, which we further improve by using new acceleration techniques proposed in this study. The second is a novel algorithm based on Lagrangean decomposition that was designed to deal with the case where we have integer variables in the second-stage problem. The novel feature in this algorithm is related with the hybrid strategy for updating the Lagrange multipliers, which combines subgradient, cutting-planes and trust region ideas. In both cases, we have assessed the proposed approaches considering a large-scale realworld instances of the problem. Results suggests that they attain superior performance.
389

[en] PARALLEL PROGRAMING IN THE REDIS KEY-VALUE DATASTORE / [pt] PROGRAMAÇÃO PARALELA NO BANCO DE DADOS CHAVE-VALOR REDIS

JUAREZ DA SILVA BOCHI 12 April 2016 (has links)
[pt] Redis é um banco de dados chave-valor de código livre que dá suporte à avaliação de scripts Lua, mas sua implementação utiliza apenas uma tarefa de sistema operacional. Scripts longos são desencorajados porque a avaliação do código é bloqueante, o que pode causar degradação de desempenho para os demais usuários. Através da aplicação do modelo de concorrência M:N, que combina tarefas de nível de sistema operacional com tarefas do nível de usuário, adicionamos no Redis a capacidade de execução de scripts em paralelo, permitindo que todos os núcleos do servidor sejam explorados. Com a utilização de corotinas Lua, implementamos um escalonador capaz de alocar e suspender a execução de tarefas de nível de usuário nos núcleos disponíveis sem necessidade de alteração do código dos scripts. Este modelo permitiu proteger o programador das complexidades naturais do paralelismo como sincronização no acesso a recursos compartilhados e escalonamento das tarefas. / [en] Redis is an open source key-value database that supports Lua programming language scripts, but it s implementation is single threaded. Long running scripts are discouraged because script evaluation is blocking, which may cause service levels deterioration. Applying the M:N threading model, which combines user and operating system threads, we added to Redis the ability of running scripts in parallel, leveraging all server cores.With the use of Lua coroutines, we implemented a scheduler able to allocate and suspend user-level tasks in the available cores without the need of changing scripts source code. The M:N model allowed us to protect the programmer from the natural complexities that arise from parallel programming, such as access to shared resources synchronization and scheduling of tasks into different operational system threads.
390

[pt] ALGORITMOS DE RETORNO À SUPERFÍCIE PARA PLASTICIDADE ASSOCIATIVA UTILIZANDO PROGRAMAÇÃO CÔNICA / [en] RETURN-MAPPING ALGORITHMS FOR ASSOCIATIVE PLASTICITY USING CONIC OPTIMIZATION

17 September 2020 (has links)
[pt] Esse trabalho apresenta uma abordagem baseada em programação matemática para a solução de problemas de valor inicial de contorno constitutivo elastoplástico. Considerando a plasticidade associativa, as equações constitutivas locais, em sua forma discreta, são formuladas como problemas de otimização cônica. Especificamente, é demonstrado que métodos implícitos de retorno a superfície para os critérios mais conhecidos da literatura, como o de Rankine, von Mises, Tresca, Drucker-Prager e Mohr Coulomb, podem ser expressos como problemas de otimização cônica de segunda ordem e semidefinida. Além disso, um novo método numérico para a determinação do operador elastoplástico consistente, baseado na derivada paramétrica de primeira ordem das soluções ótimas, é proposto. / [en] This work presents a mathematical programming approach for elastoplastic constitutive initial boundary value problems. Considering associative plasticity, the local discrete constitutive equations are formulated as conic programs. Specifically, it is demonstrated that implicit return-mapping schemes for well-known yield criteria, such as the Rankine, von Mises, Tresca, Drucker-Prager, and Mohr-Coulomb criteria, can be expressed as secondorder and semidefinite conic programs. Additionally, a novel scheme for the numerical evaluation of the consistent elastoplastic tangent operator, based on a first-order parameter derivative of the optimal solutions, is proposed.

Page generated in 0.2643 seconds