• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 1
  • Tagged with
  • 83
  • 83
  • 66
  • 55
  • 55
  • 55
  • 50
  • 38
  • 38
  • 38
  • 20
  • 14
  • 12
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modelos de agrupamento e classificação para os bairros da cidade do Rio de Janeiro sob a ótica da Inteligência Computacional: Lógica Fuzzy, Máquinas de Vetores Suporte e Algoritmos Genéticos / Clustering and classification models for the neighborhoods of the city of Rio de Janeiro from the perspective of Computational Intelligence: Fuzzy Logic, Support Vector Machine and Genetic Algorithms

Natalie Henriques Martins 19 June 2015 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
72

Desenvolvimento de ferramenta computacional para o pré-diagnóstico de câncer de pele / Development of a computational tool for skin cancer pre-diagnosis

Gilvan Sampaio Santos 28 August 2008 (has links)
Um dos mais freqüentes tumores existentes é o câncer de pele. Quando identificado precocemente este tipo de câncer apresenta altos percentuais de cura. Para isso é necessário o reconhecimento de suas características. As características analisadas fundamentam-se em identificadores como: Assimetria da lesão (A); Irregularidade das Bordas (B); Cor (C) e Diâmetro (D). Neste trabalho utiliza-se como ferramenta o Processamento de Imagens digitais para o pré-diagnóstico do câncer de pele. / Skin cancer is one of the most frequent tumors . When early diagnosticated this kind of cancer reachs high percentage of cure. But the identification of its characteristics is necessary. The characteristics to be analised are: Asymmetry (A); Irregularity border (B); Color (C) and diameter (D). The present work uses as tool for first diagnostic of skin cancer the digital images processing.
73

Solução de problemas inversos de transferência radiativa em meios heterogêneos unidimensionais e uma e duas camadas utilizando o algoritmo dos vagalumes / Solution for radiative transfer inverse problems in one-dimensional heterogeneous media in one and two layers using the firefly algorithm

Rubens Luiz Cirino 14 March 2014 (has links)
Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados. / This thesis presents a study on computational modeling where optimization metaheuristics are applied to the solution of inverse radiative transfer problems in heterogeneous media: in one-layer media with space-dependent single scattering albedo, and two-layer media, where the inverse problem is formulated as an optimization problem. It is applied a metaheuristic based on the natural behavior of fireflies, known as the firefly algorithm. Initially, comparative studies of performance were made with two other classic stochastic algorithms. The results indicated that the choice of the firefly algorithm was appropriate. Then, it was proposed other strategies that have been inserted into the original firefly algorithm. A first case was proposed where all the strategies were investigated and tested. The strategies with the best results were investigated in other two different cases. All the three proposed cases involved one-layer media with space-dependent scattering albedo. The strategies have been tested and evaluated, and those which presented the best competitive results were then implemented for radiative problems in two-layer media. For this new scenario five test cases were investigated, and the results obtained with the new strategies developed in this work were critically analyzed.
74

Abordagem baseada em metamodelos para a representação e modelagem de características em linhas de produto de software dinâmicas / Metamodel based approaches for representation and features modeling in dynamic software product lines

Silva, Flayson Potenciano e 06 September 2016 (has links)
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2016-09-16T17:35:04Z No. of bitstreams: 2 Dissertação - Flayson Potenciano e Silva - 2016.pdf: 6563517 bytes, checksum: 7f7a3d166741057427f2d333473af546 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-09-19T11:17:33Z (GMT) No. of bitstreams: 2 Dissertação - Flayson Potenciano e Silva - 2016.pdf: 6563517 bytes, checksum: 7f7a3d166741057427f2d333473af546 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-09-19T11:17:33Z (GMT). No. of bitstreams: 2 Dissertação - Flayson Potenciano e Silva - 2016.pdf: 6563517 bytes, checksum: 7f7a3d166741057427f2d333473af546 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-09-06 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This dissertation presents a requirement representation approach for Dynamic Software Product Lines (DSPLs). DSPLs are oriented towards the designing of adaptive applications and each requirement is represented as a feature. Traditionally, features are represented in a Software Product Line (SPL) by a Feature Model (FM). Nonetheless, such a model does not originally support dynamic features representation. This dissertation proposes an extension to FM by adding a representation for dynamic feature to it so that the model can have a higher expressivity regarding the context change conditions and the application itself. Therefore, a metamodel based on Ecore meta-metamodel has been developed to enable the definition of both Dynamic Feature Models (proposed extension to FM) and Dynamic Feature Configurations (DFC), the latter used to describe the possible configuration of products at-runtime. In addition to a representation for dynamic features and the metamodel, this dissertation provides a tool that interprets the proposed model and allows Dynamic Feature Models design. Simulations involving dynamic feature state changes have been carried out, considering scenarios of a ubiquitous monitoring application for homecare patients. / Esta dissertação apresenta uma abordagem de representação de requisitos para Linhas de Produto de Software Dinâmicas (LPSD). LPSDs são voltadas para a produção de aplicações adaptativas e cada requisito é representado como uma característica. Tradicionalmente, características são representadas em uma Linha de Produto de Software (LPS) por meio de um Modelo de Características (MC). Tal modelo, no entanto, não possui, originalmente, suporte para a representação de características dinâmicas. Esta dissertação propõe uma extensão ao MC, incorporando uma representação para as características dinâmicas, de forma que o modelo tenha maior expressividade quanto às condições de mudanças de contexto e da própria aplicação. Para isso, um metamodelo baseado no meta-metamodelo Ecore foi desenvolvido, para possibilitar a definição tanto de Modelos de Características Dinâmicas (extensão do MC proposta) quanto também de Modelos de Configuração de Características Dinâmicas (MCC-D), estes utilizados para descrever as possíveis configurações dos produtos em tempo de execução. Além de uma representação para características dinâmicas e do metamodelo, essa dissertação traz como contribuição uma ferramenta que interpreta o metamodelo proposto e permite a construção de Modelos de Características Dinâmicas. Simulações envolvendo mudanças de estado das configurações de características dinâmicas foram realizadas, considerando cenários de uma aplicação ubíqua de monitoramento de pacientes domiciliares.
75

SEGMENTAÇÃO AUTOMÁTICA DE NÓDULOS PULMONARES COM GROWING NEURAL GAS E MÁQUINA DE VETORES DE SUPORTE / AUTOMATIC SEGMENTATION OF PULMONARY NODULES WITH GROWING NEURAL GAS VECTOR MACHINE AND SUPPORT

Netto, Stelmo Magalhães Barros 10 February 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:07Z (GMT). No. of bitstreams: 1 Stelmo Magalhaes Barros Netto.pdf: 2768924 bytes, checksum: bf6f24780a03adb4f2940b818c95f293 (MD5) Previous issue date: 2010-02-10 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Lung cancer is still one of the most frequent types throughout the world. Its diagnosis is very difficult because its initial morphological characteristics are not well defined, and also because of its location in relation to the lung. It is usually detected late, fact that causes a large lethality rate. Facing these difficulties, many researches are done, concerning both detection and diagnosis. The objective of this work is to propose a methodology for computer-aided automatic lung nodule detection. The return of the development of such methodology is that its application will aid the doctor in the simultaneous detection of several nodules present in computerized tomography images. The methodology developed for automatic detection of lung nodules involves the use of a method of competitive learning, called Growing Neural Gas (GNG). The methodology still consists in the reduction of the volume of interest, by the use of techniques largely used in thorax extraction, lung extraction and reconstruction. The next stage is the application of the GNG in the resulting volume of interest, that together with the separation of the nodules from the various structures present in the lung form the segmentation stage, and, finally, through texture and geometry measurements, the classification as either nodule or non-nodule is performed. The methodology guarantees that nodules of reasonable size are found with sensibility of 86%, specificity of 91%, what results in accuracy of 91%, in average, for ten training and test experiments, in a sample of 48 nodules occurring in 29 exams. The false-positive per exam rate was of 0.138, for the 29 analyzed exams. / O câncer de pulmão ainda é um dos mais incidentes em todo mundo. Seu diagnóstico é de difícil realização, devido as suas características morfológicas iniciais não estarem bem definidas e também por causa da sua localização em relação ao pulmão. É geralmente detectado tardiamente, que tem como conseqüência uma alta taxa de letalidade. Diante destas dificuldades muitas pesquisas são realizadas, tanto em relação a sua detecção, quanto a seu diagnóstico. O objetivo deste trabalho é propor uma metodologia de detecção automática do nódulo pulmonar com o auxílio do computador. O ganho com o desenvolvimento desta metodologia, é que sua implementação auxiliará ao médico na detecção simultânea dos diversos nódulos presentes nas imagens de tomografia computadorizada. A metodologia de detecção de nódulos pulmonares desenvolvida envolve a utilização de um método da aprendizagem competitiva, chamado de Growing Neural Gas (GNG). A metodologia ainda consiste na redução do volume de interesse, através de técnicas amplamente utilizadas na extração do tórax, extração do pulmão e reconstrução. A etapa seguinte é a aplicação do GNG no volume de interesse resultante, que em conjunto com a separação do nódulo das diversas estruturas presentes formam a etapa de segmentação, e por fim, é realizada a classificação das estruturas em nódulo e não-nódulo, por meio das medidas de geometria e textura. A metodologia garante que nódulos com tamanho razoável sejam encontrados com sensibilidade de 86%, especificidade de 91%, que resulta em uma acurácia de 91%, em média, para dez experimentos de treino e teste, em uma amostra de 48 nódulos ocorridos em 29 exames. A taxa de falsos positivos por exame foi de 0,138, para os 29 exames analisados.
76

Proposta de um framework para problemas que integram decisões de localização, roteamento e empacotamento / Proposal for a framework for problems that integrate location, routing, and packing decisions

Ferreira, Kamyla Maria 16 February 2018 (has links)
Submitted by Liliane Ferreira (ljuvencia30@gmail.com) on 2018-03-08T14:57:43Z No. of bitstreams: 2 Dissertação - Kamyla Maria Ferreira - 2018.pdf: 2406020 bytes, checksum: 87a4f31f5a394055dd9a84a1c7c73512 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-03-12T11:16:50Z (GMT) No. of bitstreams: 2 Dissertação - Kamyla Maria Ferreira - 2018.pdf: 2406020 bytes, checksum: 87a4f31f5a394055dd9a84a1c7c73512 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-03-12T11:16:50Z (GMT). No. of bitstreams: 2 Dissertação - Kamyla Maria Ferreira - 2018.pdf: 2406020 bytes, checksum: 87a4f31f5a394055dd9a84a1c7c73512 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-02-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This research deals with the resolution of problems that involve the location, routing, and packing decisions with focus on the location routing problem, capacitated vehicle routing problem with two-dimensional loading constraints, and location routing problem with two-dimensional loading constraints. For that, it is proposed a framework that reuses part of the algorithms, which are of a common domain, such that the development of the project is systematized. The objective of the framework is allowing the resolution of different variants of problems that integrate location, routing, and packing decisions without the need to replicate algorithms. As a proposal for an algorithm, it is developed a hybrid heuristic, which involves the cooperation between the simulated annealing and the artificial algae algorithm. The simulated annealing has four neighborhood operators, local search, and three procedures to diversify the solution. The artificial algae algorithm is combined with the skyline method in order to verify the feasibility of the two-dimensional packing constraints. Once the framework and heuristics have been codified, computational experiments are performed to test its performance, as well as comparisons are made with the most recent results published in the literature. The results show that the heuristic is competitive with other methods from the literature since it could obtain 36.25% solutions equal to the best ones reported in the literature of the location routing problem, besides the average GAP being 0.57%. For the vehicle routing problem with two-dimensional loading constraints, the heuristic could obtain 43.05% solutions equal to the best known in the literature, besides the average GAP being 3.33%. The results obtained for the location routing problem with twodimensional loading constraints were satisfactory. / Este trabalho trata da resolução de problemas que envolvem decisões de localização, roteamento e empacotamento com foco nos problemas de localização e roteamento, roteamento de veículos capacitado com restrições de empacotamento bidimensional, e localização e roteamento com restrições de empacotamento bidimensional. Para tanto, propõe-se um framework capaz de reutilizar parte dos algoritmos, que são de domínio comum, para que o desenvolvimento do projeto seja sistematizado. O objetivo é que o framework possibilite a resolução de diferentes variantes do problema que integram as decisões de localização, roteamento e empacotamento sem ter que replicar algoritmos. Como proposta de algoritmo, desenvolve-se uma heurística híbrida, a qual envolve a cooperação entre dois métodos, o recozimento simulado e o algoritmo artificial de algas. O recozimento simulado possui quatro operadores de vizinhança, procedimentos de busca local e três procedimentos para diversificar a solução. O algoritmo artificial de algas é combinado com a técnica Skyline para verificar as restrições de empacotamento bidimensional. A partir da codificação do framework e da heurística, experimentos computacionais foram realizados para testar o seu desempenho e comparar os resultados com os mais recentes da literatura. Os resultados indicam que a heurística é competitiva com os demais métodos da literatura, sendo possível obter 36,25% de soluções iguais às melhores reportadas na literatura do problema de localização e roteamento, além do GAP médio ter sido de 0,57%. No problema de roteamento de veículos com restrições de empacotamento bidimensional, a heurística obteve 43,05% soluções iguais às melhores conhecidas na literatura, além do GAP médio ter sido de 3,33%. Os resultados obtidos para o problema de localização e roteamento com restrições de empacotamento bidimensional foram satisfatórios.
77

Análise da rede de transporte público de Curitiba como rede complexa / Analysis of Curitiba’s public transportation system as complex network

Silva, Emerson Luiz Chiesse da 05 July 2017 (has links)
Os sistemas de transporte público (STP) são entidades complexas formados por vários subsistemas (administração, gerenciamento de frota, manutenção de veículos, segurança, bilhetagem, engenharia de tráfego, urbanismo, recursos humanos, entre outros). Os STP oferecem diversas rotas de veículos coletivos para atender os usuários do serviço mas o planejamento das rotas é uma das áreas que exigem atenção e são de difícil avaliação de desempenho. Estas rotas formam malhas que podem ser abstraídas como grafos, em vários tipos de representações, como por exemplo as paradas associadas aos nós e uma rota (ou linha) de veículos associada a uma sequência de conexões ou arestas que interligam estes pontos. Da representação do STP como grafos, é possível extrair informações importantes a partir de métricas como dimensões, centralidades, pesos, entre outras, e classificar o STP em algum modelo já estudado. A partir do modelo estabelecido, melhorias no sistema podem ser propostas e uma posterior re-análise dos resultados das novas medidas no modelo pode justificar ou não uma possível implementação destas propostas no sistema real. Neste trabalho um sistema de transporte público foi analisado como rede complexa, especificamente o STP de Curitiba, no estado do Paraná, Brasil. Demonstrou-se que este sistema, em representação espaço-L, possui características de rede complexa do tipo scale free. Tal sistema possuía onze categorias de rotas de ônibus, sendo que as principais categorias foram analisadas como rede complexa para avaliar sua influência nas métricas do sistema como um todo. Adicionalmente, combinando as métricas de redes complexas com o método k-means de agrupamento nesse STP, foram identificadas regiões geográficas da cidade que possuem as maiores e menores características de conectividade para os habitantes de Curitiba, sinalizando possíveis degradações de atendimento do sistema de transporte. O estudo revelou que, em Curitiba, a região central é a melhor servida, enquanto que algumas regiões periféricas no sudeste e nordeste da cidade são pouco favorecidas de transporte público. / Public transportation systems (PTS) are complex entities composed by many different subsystems (administration, vehicles management and maintenance, security, taxing, trafic engineering, urbanism, human resources and others). PTS offers various routes using public sharing vehicules to serve users, and the route planning is one of the issues that demand attention and has hard performance assessment. This routes form meshes in many types of representation, e. g., vehicle stops as nodes and a route as a sequence of links that connect their nodes. From PTS representation as graphs, it is possible to extract valuable informations from metrics as dimensions, centralities, weight and others, and to classify this PTS within some model already studied. Towards established models, system enhancements can be proposed and posterior re- analysis of such improved systems can justify or not their implementation in the real system. At this work a public transport system was analysed as Complex Network, specifically Curitiba’s PTS, (Paraná, Brazil). Here it was demonstrated that this system, represented in l-space, has network characteristics of scale-free networks. This system has eleven bus routes categories, in which main categories were analysed as complex networks to assess their influence on whole system metrics. Additionally, combining both complex network metrics and k-means method on this PTS, geographic areas of the city showing best and worst connectivity characteristics for the inhabitants of Curitiba were identified, which allows detecting potential transportation system weakness. This study revealed that Curitiba’s central region is best served, and some periphericals areas at southeast and northeast have low public transportation service.
78

Prior de regularização para problema de demosaicing com aplicação em CFA’s variados / Regularization prior to demosaicing problems with various CFA application

Fugita, Romário Keiti Pizzatto 24 September 2015 (has links)
CNPq / Este trabalho tem por objetivo apresentar uma nova proposta aos algoritmos de Demosaicing existentes, utilizando uma abordagem mais flexível quanto ao uso do Color filter array (CFA) em imagens coloridas de único sensor. O algoritmo proposto tem como base a estrutura de problemas inversos, cujo funcionamento utiliza um modelo de operação matriz-vetor que é adaptável ao CFA empregado. A partir deste conceito, o algoritmo trata o problema de Demosaicing como o de minimização de função custo, com um termo referente à dependência da estimativa com os dados obtidos e com o modelo de captura, o outro termo é relacionado aos conhecimentos observados em imagens que podem ser explorados para uma estimativa mais precisa, tal elemento é chamado de Prior. A proposta estabelecida tem como base algoritmos de regularização com foco na alta correlação presente entre os canais de cor (R, G e B), e na suavidade local de regiões uniformes, essa base formaliza o Prior empregado no trabalho. A minimização da proposta é atingida iterativamente através do IRLS-CG, que é a combinação de dois algoritmos de minimização eficientes, que apresenta rápidas respostas, e a capacidade de trabalhar com a norma L1 em conjunto com a norma L2. Com o intuito de atestar a qualidade do algoritmo proposto, foi elaborado um experimento em que o mesmo foi testado com diferentes CFAs e em situação com ruído gaussiano de 35dB e sem ruído algum em imagens da base de dados da Kodak, e os resultados comparados com algoritmos do estado-da-arte, no qual o desempenho da proposta apresentou resultados excelentes, inclusive em CFAs que destoam do padrão Bayer, que é o mais comumente usado na atualidade. / This research presents a new proposal to Demosaicing algorithms, using a more flexible approach to deal with the Color filter array (CFA) in single sensor color imaging. The proposed algorithm is structured in the inverse problems model, whose functions employ a CFA adaptive matrix-vector operational model. From this concept, the Demosaicing problem is treated as a cost function minimization with two terms, one referring to the dependence between the estimation and the data provided by the acquisition model, and other term related to features observed in images, which can be explored to form a more precise estimation, this last term is known as Prior. The established proposal is applied in regularization algorithms with focus on the high correlation among color channels (R, G, and B), and in the local smoothness of uniform regions. Both characteristics organize the Prior employed in this work. The minimization proposed is iteratively achieved through IRLS-CG, which is the combination of two efficient minimization algorithms, that presents quick responses, and the capacity to deal with L1 and L2 norm at the same time. The quality of the proposed algorithm is verified in an experiment in which varous CFA were used and a situation with 35dB gaussian noise and another one with no noise applied to the Kodak dataset, and the results were compared with state-of-the-art algorithms, in which the performance of the proposed Prior showed excellent results, including when the CFA is different from Bayer’s, which is the most commonly used pattern.
79

Modelagem de uma cadeia de suprimentos com logística reversa e incerteza na demanda utilizando programação linear inteira mista / Modeling a supply chain with reverse logistics and demand uncertainty mixed integer linear programming

Pereira, Laion Xavier 16 December 2016 (has links)
Este trabalho considera uma cadeia de suprimentos (CS) que opera com logística reversa. A modelagem da CS foi adaptada de um modelo de Programação Linear Inteira Mista (PLIM) da literatura que maximiza o valor presente líquido (VPL) esperado para o caso de uma empresa brasileira. Esta adaptação considera uma CS de menor complexidade, com um número menor de nós e produtos em relação à aplicação da literatura. A estrutura da CS considerada é formada por duas fábricas, dois centros de distribuição, dois pontos varejistas e quatro mercados consumidores, assim como fluxos de transporte direto e reverso de produtos. A modelagem da CS considera ainda incertezas na demanda e cenários com e sem tributação. Os resultados mostram os fluxos de transporte de produtos no sentido direto e reverso, estoques ao longo da CS, assim como aspectos econômicos segundo regras tributárias e incentivos fiscais. Estes aspectos econômicos são utilizados para justificar o investimento na logística reversa. Embora a incerteza na demanda altere o VPL esperado, que é maior quando cenários otimistas de demanda são considerados, resultados obtidos para diversos cenários de demanda mostram que esta alteração não é significativa. / This dissertation considers a supply chain (SC) with reverse logistics. The SC modeling has been modified for a Brazilian company from a MILP model which maximizes the expected net present value (NPV) found in the literature. This modification considers a low complexity SC with fewer number of nodes and products than the application of the literature.The SC structure is composed by two factories, two warehouses, two retailers, and four markets as well as direct and reverse flows of products. The SC modeling also considers demand uncertainty and cenarios with and without taxes. The results show direct and reverse flows of products, inventories, and economic aspects according to tax rules and incentives. These economic aspects are used to justify the investment in reverse logistics. Although the demand uncertainty changes the expected NPV, which is big for cenarios with optimistic demand, the results obtained for several cenarios of demand show that the expected NPV is not quite affected.
80

Otimização por enxame de partículas para segmentação de cordões de solda em imagens radiográficas de tubulações de petróleo / Particle swarm optimization for weld bead segmentation in radiographics images of petroleum pipes

Miranda, Rafael Arthur Rocha 03 December 2015 (has links)
CAPES / A inspeção radiográfica de juntas soldadas é importante para garantir qualidade e segurança em redes de tubulações. Apesar de todo treinamento e conhecimento, os especialistas estão sujeitos a cometer erros causados por diferentes fatores. O cansaço visual, distrações e a quantidade de radiografias a serem analisadas podem ser listados como principais fatores. Este trabalho busca propor um sistema de auxílio às inspeções de defeitos em cordões de solda de tubulações de petróleo. Para isto, apresenta uma abordagem para a segmentação automática de cordões de solda em imagens radiográficas do tipo Parede Dupla Vista Dupla (PDVD) combinando dois métodos já conhecidos na literatura: Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO) e Alinhamento Dinâmico no Tempo (Dynamic Time Warping – DTW). Um perfil vertical é obtido das coordenadas da janela codificada nas partículas do PSO e comparado, via DTW a um perfil modelo. A medida de similaridade entre o perfil modelo e o perfil extraído é a base para o cálculo do fitness de cada partícula o qual possui grande importância para o funcionamento da abordagem. Desta forma estudos foram realizados para a escolha de uma função de fitness adequada para o PSO. Os testes foram realizados em duas etapas: primeiramente, fixou-se a altura do perfil extraído e num segundo conjunto de experimentos a altura foi um elemento variável incorporado à codificação das partículas e evoluiu durante as iterações do PSO. Os resultados obtidos na segmentação automática do cordão de solda mostraram que o PSO, na maioria das vezes (no primeiro conjunto de experimentos, obteve um desempenho entre 85,17% e 93,11% e no segundo entre 79,83% e 81,36%), convergiu para a janela que permite a segmentação do cordão de solda, indicando resultados promissores. / The radiographic weld inspection is important to ensure quality and security of pipe networks. Despite all training and knowledge, specialists can provide misclassifications for several reasons. The visual tiredness, distraction and the quantity of radiographic to be analyzed can induce an inspector mistaken. This work aims at proposing an assistant system for automatic segmentation of weld bead present in radiographic images. For this, it presents an approach for segmentation of weld bead in radiographic images of type double wall double image (DWDI), merging two well known algorithms: Particle Swarm Optimization - PSO and Dynamic Time Warping - DTW. A vertical profile is raised from a window encoded in a particle of PSO and it is compared through DTW with a model profile. The similarity measure between the model and extracted profile is the basis for the fitness computation which is of great importance to the final performance. Thus a lot of effort has devoted to choose a suitable fitness function for PSO. The tests were realized in two steps: firstly, the height of the extracted profile was fixed and in a second set of experiments the height was a variable component incorporated into the coding of particles and evolved during PSO iterations. The results obtained in automatic segmentation of weld bead showed that the PSO, mostly, converged satisfactorily (first phase achieved a performance was between 85,17% and 93,11% and the second one is between 79,83% and 81,36%), to the window that enables the segmentation of the weld bead, indicating promising results.

Page generated in 0.0963 seconds