• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 266
  • 87
  • 58
  • 22
  • 8
  • 7
  • 6
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 597
  • 597
  • 429
  • 137
  • 110
  • 99
  • 94
  • 89
  • 76
  • 75
  • 69
  • 62
  • 60
  • 57
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Otimização multiobjetivo dos parâmetros do sistema de suspensão de um modelo de veículo completo através de um algoritmo meta-heurístico

Fossati, Giovani Gaiardo January 2017 (has links)
O presente trabalho otimizou os parâmetros concentrados do sistema de suspensão de um modelo de veículo completo, representando um automóvel de passeio que trafega a uma velocidade constante por um determinado perfil de pista previsto na norma ISO 8608, 1995, através da utilização de um algoritmo meta-heurístico de otimização multiobjetivo. Duas rotinas numérico-computacionais foram desenvolvidas, visando realizar tal otimização tanto no domínio do tempo quanto no domínio da frequência. A utilização de algoritmos meta-heurísticos vem ganhando espaço na otimização de sistemas mecânicos, proporcionando rapidez e precisão na obtenção de resultados ótimos. Ao se combinar um algoritmo de otimização a um modelo que represente satisfatoriamente um sistema mecânico, obtém-se uma ferramenta indicadora dos parâmetros de máxima eficiência do sistema, que pode ser utilizada em inúmeras aplicações. Pretendeu-se, com a integração de rotinas de análise dinâmica nos domínios do tempo e da frequência ao algoritmo genético de otimização multiobjetivo NSGA-II, desenvolvido por Deb et al., 2002, a obtenção de duas fronteiras ótimas de Pareto. Estas fronteiras consistem no conjunto de soluções não dominadas que minimizam as seguintes funções objetivo: o valor RMS ponderado da aceleração vertical do assento do motorista, o valor RMS da média do fator de amplificação dinâmica das quatro rodas do modelo e o máximo deslocamento relativo entre cada roda e a carroceria. O método proposto por Shinozuka e Jan, 1972, é utilizado para a obtenção do perfil de irregularidades da pista no domínio do tempo a partir das equações de densidade espectral de potência (PSD) que representam as diferentes classes de pavimentos. O método de Newmark, 1959, é utilizado para resolver a equação diferencial de movimento no domínio do tempo e obter a resposta dinâmica do modelo a tais irregularidades. O comportamento dinâmico do modelo de veículo no domínio da frequência foi obtido através da utilização da função de resposta em frequência (FRF) do modelo de veículo analisado. Os resultados demonstraram a capacidade de ambas as rotinas de análise dinâmica desenvolvidas de produzir resultados consistentes com os encontrados na literatura, bem como a capacidade dos algoritmos de otimização implementados de fornecer fronteiras ótimas de Pareto para os problemas propostos. / The proposed work optimized the concentrated parameters of a full-vehicle model’s suspension system, being that model representative of a passenger car which travels at a constant speed on a certain road profile provided by the ISO 8608, 1995, standard, using a multi-objective meta-heuristic optimization algorithm. Two numerical-computational routines were developed, seeking to perform said optimization for both the time and frequency domains. The use of meta-heuristic algorithms has been increasing in mechanical systems optimization, providing speed and accuracy in obtaining an optimal result. Combining an optimization algorithm with a model that satisfactorily represents a mechanical system yields a tool that indicates the system’s maximum efficiency parameters, which can be used in numerous applications. It was intended, with the integration of the dynamic analysis routines to the multi-objective genetic optimization algorithm NSGA-II, developed by Deb et al., 2002, the obtainment of two Pareto-optimal fronts. These fronts consist in the set of non-dominated solutions that minimize the following objective functions: the weighted RMS value of the driver’s seat vertical acceleration, the mean RMS value of the model wheel’s dynamic amplification factor, and the maximum relative displacement between each wheel and the body of the vehicle model. The method proposed by Shinozuka and Jan, 1972, is used to obtain the road irregularity profile in the time domain from the power spectral density (PSD) equations that represent the different pavement classes. The Newmark’s method (1959) is used to solve the differential motion equation in the time domain, in order to obtain the vehicle model’s responses to these irregularities. The dynamic behavior of the vehicle model in the frequency domain was obtained through the use of the frequency response function (FRF) of the analyzed model. The results showed the capacity of both the dynamic analysis routines developed in generating results that are consistent with those found in literature, as well as the capacity of the optimization algorithms implemented in providing Pareto optimal fronts to the proposed problems.
372

Optimisation du fonctionnement d'un générateur de hiérarchies mémoires pour les systèmes de vision embarquée / Optimization of the operation of a generator of memory hierarchies for embedded vision systems

Hadj Salem, Khadija 26 April 2018 (has links)
Les recherches de cette thèse portent sur la mise en oeuvre des méthodes de la rechercheopérationnelle (RO) pour la conception de circuits numériques dans le domaine du traitementdu signal et de l’image, plus spécifiquement pour des applications multimédia et de visionembarquée.Face à la problématique de “Memory Wall”, les concepteurs de systèmes de vision embarquée,Mancini et al. (Proc.DATE, 2012), ont proposé un générateur de hiérarchies mémoiresad-hoc dénommé Memory Management Optimization (MMOpt). Cet atelier de conception estdestiné aux traitements non-linéaires afin d’optimiser la gestion des accès mémoires de cestraitements. Dans le cadre de l’outil MMOpt, nous abordons la problématique d’optimisationliée au fonctionnement efficace des circuits de traitement d’image générés par MMOpt visantl’amélioration des enjeux de performance (contrainte temps-réel), de consommation d’énergieet de coût de production (contrainte d’encombrement).Ce problème électronique a été modélisé comme un problème d’ordonnancement multiobjectif,appelé 3-objective Process Scheduling and Data Prefetching Problem (3-PSDPP), reflétantles 3 principaux enjeux électroniques considérés. À notre connaissance, ce problème n’apas été étudié avant dans la littérature de RO. Une revue de l’état de l’art sur les principaux travauxliés à cette thèse, y compris les travaux antérieurs proposés par Mancini et al. (Proc.DATE,2012) ainsi qu’un bref aperçu sur des problèmes voisins trouvés dans la littérature de RO,a ensuite été faite. En outre, la complexité de certaines variantes mono-objectif du problèmed’origine 3-PSDPP a été établie. Des approches de résolution, y compris les méthodes exactes(PLNE) et les heuristiques constructives, sont alors proposées. Enfin, la performance de cesméthodes a été comparée par rapport à l’algorithme actuellement utilisé dans l’outil MMOpt,sur des benchmarks disponibles dans la littérature ainsi que ceux fournis par Mancini et al.(Proc.DATE, 2012).Les solutions obtenues sont de très bonne qualité et présentent une piste prometteuse pouroptimiser les performances des hiérarchies mémoires produites par MMOpt. En revanche, vuque les besoins de l’utilisateur de l’outil sont contradictoires, il est impossible de parler d’unesolution unique en optimisant simultanément les trois critères considérés. Un ensemble debonnes solutions de compromis entre ces trois critères a été fourni. L’utilisateur de l’outilMMOpt peut alors décider de la solution qui lui est la mieux adaptée. / The research of this thesis focuses on the application of the Operations Research (OR)methodology to design new optimization algorithms to enable low cost and efficient embeddedvision systems, or more generally devices for multimedia applications such as signal and imageprocessing.The design of embedded vision systems faces the “Memory Wall” challenge regarding thehigh latency of memories holding big image data. For the case of non-linear image accesses, onesolution has been proposed by Mancini et al. (Proc. DATE 2012) in the form of a software tool,called Memory Management Optimization (MMOpt), that creates an ad-hoc memory hierarchiesfor such a treatment. It creates a circuit called a Tile Processing Unit (TPU) that containsthe circuit for the treatment. In this context, we address the optimization challenge set by theefficient operation of the circuits produced by MMOpt to enhance the 3 main electronic designcharacteristics. They correspond to the energy consumption, performance and size/productioncost of the circuit.This electronic problem is formalized as a 3-objective scheduling problem, which is called3-objective Process Scheduling and Data Prefetching Problem (3-PSDPP), reflecting the 3 mainelectronic design characteristics under consideration. To the best of our knowledge, this problemhas not been studied before in the OR literature. A review of the state of the art, including theprevious work proposed by Mancini et al. (Proc.DATE, 2012) as well as a brief overview onrelated problems found in the OR literature, is then made. In addition, the complexity of someof the mono-objective sub-problems of 3-PSDPP problem is established. Several resolutionapproaches, including exact methods (ILP) and polynomial constructive heuristics, are thenproposed. Finally, the performance of these methods is compared, on benchmarks available inthe literature, as well as those provided by Mancini et al. (Proc.DATE, 2012), against the onecurrently in use in the MMOpt tool.The results show that our algorithms perform well in terms of computational efficiency andsolution quality. They present a promising track to optimize the performance of the TPUs producedby MMOpt. However, since the user’s needs of the MMOpt tool are contradictory, such aslow cost, low energy and high performance, it is difficult to find a unique and optimal solutionto optimize simultaneously the three criteria under consideration. A set of good compromisesolutions between these three criteria was provided. The MMOpt’s user can then choose thebest compromise solution he wants or needs.
373

Otimização multi-objetivo de projetos de redes de transporte dutoviário de gás natural / Multi-objective optimization of designs for natural gas transportation pipe networks

Felipe da Silva Alves 14 May 2014 (has links)
Dutos de transmissão são tubulações especialmente desenvolvidas para transportar produtos diversos a longas distâncias e representam a forma mais segura e econômica de transporte para grandes quantidades de fluidos. Os dutos de gás natural, denominados gasodutos, são usados para transportar o gás desde os campos de produção até os centros consumidores, onde o gás é inserido em redes de distribuição para entrega aos consumidores finais. Os gasodutos de transporte apresentam diversas características de monopólio natural, que são o principal argumento econômico para sua regulação. A regulação visa garantir que esta atividade seja explorada de maneira eficiente, refletindo em tarifas de transporte justas para os consumidores e que proporcionem o retorno adequado aos investidores, levando-se em consideração a quantidade de gás transportado. Neste contexto, o presente trabalho tem como objetivo propor metodologias de otimização multi-objetivo de projetos de redes de gasodutos de transporte, envolvendo métodos a posteriori. O problema de otimização formulado contempla restrições associadas ao escoamento do gás e o comportamento das estações de compressão. A solução do problema fornece um conjunto de projetos ótimos de redes de transporte em função da maximização da quantidade de gás natural transportado e da minimização da tarifa associada a esse serviço. A ferramenta foi aplicada a diversos estudos de caso com configurações típicas da indústria de transporte de gás natural. Os resultados mostraram que as metodologias propostas são capazes de fornecer subsídios que permitem ao tomador de decisão do ponto de vista regulatório realizar uma análise de trade-off entre a quantidade de gás transportado e a tarifa, buscando assim atender ao interesse da sociedade em relação à exploração do serviço de transporte / Transmition pipelines are especially designed pipes to transport a variety of products through long distances and represent the safest and most economical method of transporting large quantities of fluids. The natural gas pipelines, called gas pipelines, are employed in gas transportation from the production fields up to the consumer centers, where the gas is introducted in the distribution networks to be delivered to final consumers. The transportation pipelines present several attributes of natural monopoly which are the main economic reason for their regulation. Regulation aims to ensure the efficient exploration of this activity leading to fair transportation tariff to the consumers and reasonable return on investment to the investors, taking into account the amount of transported gas. In this context, the present work has the objective to propose methodologies for the multi-objective optimization of designs for natural gas transportation pipeline networks employing a posteriori methods. The formulated optimization issue comprises restrictions associated to gas flow and compressor stations behavior. The solution provides a group of optimum transport network designs concerning the maximization of the amount of transported natural gas and the minimization of the tariff associated to this service. The tool was employed in a variety of case studies with typical configurations of the natural gas transport industry. The results showed that the proposed methodologies are able to provide information which will permit that the decision maker, from the regulatory point of view, performs a trade-off analysis considering the amount of transported gas and the tariff, aiming to fulfill the society expectations concerning the exploration of transport service
374

Metodologia para despacho de fontes de GD a biogás em redes de distribuição utilizando lógica Fuzzy / Effective connection of distributed generation sources on distribution networks using Fuzzy sets and rules.

Martins, Luiz Fernando Guarenti 19 March 2012 (has links)
The aim of this work is determine the most appropriated period for connection of a particular generation source fueled by biogas on a distribution network. The biogas is produced through anaerobic reactions that occur in the municipal solid waste deposited at the landfill specific landfill in analysis. The Minas do Leão landfill is taken as study case, predicting the connection of this generation source on a distribution network supported by the State Company of Electrical Energy (CEEE). The Biogas® software was used to estimate the amount of methane generated in the landfill and to determine the landfill life cycle. By using that information it is possible to plot the power electrical generation curve in MW. The choice for the Biogas® software is justified because this tool is free software developed between the federal government environment state administration and the CETESB (Technology Company of Environmental Sanitation of the State of Sao Paulo). After that, the PSL®DMS software was used to simulate the main electrical characteristics of the network in analysis. These simulations provided the data for evaluating the quantitative parameters voltage levels, power losses and load current. A group of decision makers were selected for establishing scores applied to the qualitative parameter evaluation - availability of ancillary services support. After the definition of the quantitative and qualitative parameters a multiobjective methodology was developed. In the first step of the methodology are applied pertinent fuzzy functions trapezoidal variables that consider electrical characteristics of the network and also the voltage levels defined in the PRODIST (Proceedings of Electric Energy Distribution on Electrical National System). The second part is associated with the decision makers estimative, in which the decision maker presents some scores for each type of ancillary service in analysis, according to the specific moment when this ancillary service will be supported. For these evaluations are considered the demand curve of the feeder where the distributed source will be connected. The methodology was then applied for selecting and ranking the most appropriated period to connect the distributed generation source on the distribution network. The definition of the ranking is the outcome of the data evaluation according to the final priorities quantitative and qualitative analysis. / Este trabalho tem a finalidade de definir o período do dia para o despacho de uma fonte alternativa de geração distribuída de energia elétrica (GD), utilizando como combustível o biogás proveniente de reações anaeróbias que ocorrem em resíduos sólidos urbanos (RSU) depositados em células do Aterro Sanitário de Recreio no município de Minas do Leão à rede da Companhia Estadual de Distribuição de Energia Elétrica (CEEE-D). Inicialmente foi utilizado o software Biogás® para estimar a vazão de metano (gás em maior porcentagem no biogás) e avaliar a potência que este gás disponibiliza para ser gerada em qualquer aterro em função do tempo de vida útil do mesmo. Este software foi escolhido para ser utilizado neste trabalho por ser uma ferramenta livre e desenvolvida no Brasil pelo convênio entre a Secretaria de Estado do Meio Ambiente e da Companhia de Tecnologia de Saneamento Ambiental do Estado de São Paulo (CETESB) com o Governo Federal, por meio do Ministério da Ciência e Tecnologia. Esta recuperação energética do metano tem potencialidade de servir como combustível para alimentar um ou mais conjuntos de motores geradores Ciclo Otto adaptados para biogás. Após a estimativa da vazão de biogás e da potência que pode ser gerada no aterro, partiu-se para a execução de simulações com as grandezas elétricas do alimentador. Neste trabalho as simulações das grandezas elétricas foram obtidas com o uso do software PSL®DMS, ferramenta utilizado pelos técnicos da CEEE-D para análise da do fluxo de carga de sistemas de distribuição, e serão utilizadas como critérios denominados de quantitativos. Para determinar o momento ideal para a conexão da GD à rede de distribuição da concessionária, foi utilizado um método de apoio à decisão. Este método considera critérios quantitativos e qualitativos definidos pelos Especialistas ou Agentes de Decisão (AD), no caso, técnicos da concessionária de energia elétrica que avaliam em conjunto estes dados. Os critérios qualitativos são baseados na possibilidade de incrementos de serviços subsidiários ao sistema de distribuição de energia elétrica, denominados de Serviços Ancilares (SA). A definição da prioridade dos valores dos critérios quantitativos (grandezas elétricas da rede de distribuição) é baseada na análise de funções trapezoidais que relacionam as grandezas elétricas a valores e percentuais definidos pelo PRODIST e pelos AD. Já para os critérios qualitativos, a análise ocorre em função de uma metodologia denominada de Estimativa de Especialistas, em que os mesmos aplicam notas ao tipo de SA que será aplicado e ao momento de sua aplicação em relação às características da curva de demanda do AL. A definição do ranking dos melhores horários do dia para despacho da GD ao AL é consequência da avaliação dos valores estabelecidos para as prioridades finais dos critérios quantitativos e qualitativos.
375

Impact de la coopération dans les nouvelles plates-formes de calcul à hautes performances / Impact de la coopération dans les nouvelles plates-formes de calcul à hautes performances

Angelis Cordeiro, Daniel de 09 February 2012 (has links)
L'informatique a changé profondément les aspects méthodologiques du processus de découverte dans les différents domaines du savoir. Les chercheurs ont à leur disposition aujourd'hui de nouvelles capacités qui permettent d'envisager la résolution de nouveaux problèmes. Les plates-formes parallèles et distribués composées de ressources partagés entre différents participants peuvent rendre ces nouvelles capacités accessibles à tout chercheur et offre une puissance de calcul qui a été limitée jusqu'à présent, aux projets scientifiques les plus grands (et les plus riches). Dans ce document qui regroupe les résultats obtenus pendant mon doctorat, nous explorons quatre facettes différentes de la façon dont les organisations s'engagent dans une collaboration sur de plates-formes parallèles et distribuées. En utilisant des outils classiques de l'analyse combinatoire, de l'ordonnancement multi-objectif et de la théorie des jeux, nous avons montré comment calculer des ordonnancements avec un bon compromis entre les résultats obtenu par les participants et la performance globale de la plate-forme. En assurant des résultats justes et en garantissant des améliorations de performance pour les différents participants, nous pouvons créer une plate-forme efficace où chacun se sent toujours encourager à collaborer et à partager ses ressources. Tout d'abord, nous étudions la collaboration entre organisations égoïstes. Nous montrons que le comportement égoïste entre les participants impose une borne inférieure sur le makespan global. Nous présentons des algorithmes qui font face à l'égoïsme des organisations et qui présentent des résultats équitables. La seconde étude porte sur la collaboration entre les organisations qui peuvent tolérer une dégradation limitée de leur performance si cela peut aider à améliorer le makespan global. Nous améliorons les bornes d'inapproximabilité connues sur ce problème et nous présentons de nouveaux algorithmes dont les garanties sont proches de l'ensemble de Pareto (qui regroupe les meilleures solutions possibles). La troisième forme de collaboration étudiée est celle entre des participants rationnels qui peuvent choisir la meilleure stratégie pour leur tâches. Nous présentons un modèle de jeu non coopératif pour le problème et nous montrons comment l'utilisation de "coordination mechanisms" permet la création d'équilibres approchés avec un prix de l'anarchie borné. Finalement, nous étudions la collaboration entre utilisateurs partageant un ensemble de ressources communes. Nous présentons une méthode qui énumère la frontière des solutions avec des meilleurs compromis pour les utilisateurs et sélectionne la solution qui apporte la meilleure performance globale. / Computer science is deeply changing methodological aspects of the discovery process in different areas of knowledge. Researchers have at their disposal new capabilities that can create novel research opportunities. Parallel and distributed platforms composed of resources shared between different participants can make these new capabilities accessible to every researcher at every level, delivering computational power that was restricted before to bigger (and wealthy) scientific projects. This work explores four different facets of the rules that govern how organizations engage in collaboration on modern parallel and distributed platforms. Using classical combinatorial tools, multi-objective scheduling and game-theory, we showed how to compute schedules with good trade-offs between the results got by the participants and the global performance of the platform. By ensuring fair results and guaranteeing performance improvements for the participants, we can create an efficient platform where everyone always feels encouraged to collaborate and to share its resources. First, we study the collaboration between selfish organizations. We show how the selfish behavior between the participants imposes a lower bound on the global makespan. We present algorithms that cope with the selfishness of the organizations and that achieve good fairness in practice. The second study is about collaboration between organizations that can tolerate a limited degradation on their performance if this can help ameliorate the global makespan. We improve the existing inapproximation bounds for this problem and present new algorithms whose guarantees are close to the Pareto set. The third form of collaboration studied is between rational participants that can independently choose the best strategy for their jobs. We present a non-cooperative game-theoretic model for the problem and show how coordination mechanisms allow the creation of approximate pure equilibria with bounded price of anarchy. Finally, we study collaboration between users sharing a set of common resources. We present a method that enumerates the frontier of best compromise solutions for the users and selects the solution that brings the best value for the global performance function.
376

Algoritmos Baseados em Colônia de Formigas para Otimização Multiobjetivo / Ant Colony Algorithms for Multi-Objective Optimization

Jaqueline da Silva Angelo 24 July 2008 (has links)
Esta dissertação apresenta os algoritmos BicriterionAnt, MACS e MONACO, disponíveis na literatura, baseados em colônia de formigas, para resolução do Problema do Caixeiro Viajante Multiobjetivo (PCVMO). São apresentadas as características do problema e de cada algoritmo utilizado. Estes algoritmos foram testados em seis instâncias bi-objetivo do PCVMO. Foram implementadas algumas alterações na estrutura original dos algoritmos na tentativa de produzir resultados melhores do que os algoritmos originais. Para a avaliação dos resultados e medição da qualidade das soluções, foram utilizadas métricas de desempenho que auxiliam na identificação dos melhores conjuntos de soluções não-dominadas. / This dissertation presents the BicriterionAnt, MACS and MONACO Ant Colony algorithms, available in literature, to solve the Multi-Objective Traveling Salesman Problem (MOTSP). The characteristics of the problem and of each algorithm used are presented. Those algorithms were tested in six bi-objective instances of MOTSP. Changes in the original algorithms were implemented to try to produce better results than the original ones. To validate the results and to measure the quality of the solutions, metrics of performance were used which help to identify the best non-dominated solution sets.
377

Análise comparativa de técnicas avançadas de agrupamento / Comparative analysis of advanced clustering techniques

Piantoni, Jane 29 January 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2016-10-25T22:08:51Z No. of bitstreams: 1 PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-25T22:09:03Z (GMT) No. of bitstreams: 1 PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-25T22:09:18Z (GMT) No. of bitstreams: 1 PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) / Made available in DSpace on 2016-10-25T22:09:29Z (GMT). No. of bitstreams: 1 PIANTONI_Jane_2016.pdf: 14171171 bytes, checksum: dff7166cfad97d46b01738a24a184b1c (MD5) Previous issue date: 2016-01-29 / Não recebi financiamento / The goal of this study is to investigate the characteristics of the new data clustering approaches, carrying out a comparative study of clustering techniques that combine or select multiple solutions, analyzing these latest techniques in relation to variety and completeness of knowledge that can be extracted with your application. Studies have been conducted related to the influence of partitions based on traditional ensembles and multi-objective ensemble. The performance of the methods was evaluated by applying them to different sets of base partitions, in order to evaluate them with respect to their ability to identify quality partitions from different initial scenarios. The other study, was conducted to evaluate the ability of the techniques in relation to recover the information available in the data. And for this, investigations were carried out in two contexts: partitions, which is the traditional form of analysis and clusters to internally verify that the recovered partitions contains more relevant information than the partition analysis shows. And to undertake such analyzes were observed the quality of partitions and clusters, the percentage of actual information (partitions and clusters) really recovered, in both contexts, and the volume of irrelevant information that each technique produces. Among the analyzes are the search for novel partitions and more robust than the sets of base partitions assembly used in the experiments, analysis of the influence of the partitions based on ensembles, the capacity analysis techniques in obtaining multiple partitions, and the analysis of the clusters extracted. / Este trabalho tem como objetivo investigar as características das novas abordagens de agrupamento de dados, realizando um estudo comparativo das técnicas de agrupamento que combinam ou selecionam múltiplas soluções, analisando essas técnicas mais recentes em relação a variedade e completude do conhecimento que pode ser extraído com sua aplicação. Foram realizados estudos relacionados a influência das partições base nos ensembles tradicionais e ensemble multi-objetivo. O desempenho dos métodos foi avaliado, aplicando-os em diferentes conjuntos de partições base, com o objetivo de avaliá-los com respeito a sua capacidade de identificar partições de qualidade a partir de diferentes cenários iniciais. O outro estudo realizado teve como objetivo avaliar a capacidade das técnicas em relação a recuperar as informações existentes nos dados. Para isto, foram realizadas investigações nos dois contextos: partições, que é a forma tradicional de análise e clusters para verificar internamente se as partições recuperadas contém mais informações relevantes do que a análise de partições demonstra. Para realizar tais análises, foram observadas a qualidade das partições e dos clusters, a porcentagem de informações reais (partições e clusters) realmente recuperadas, nos dois contextos, e o volume de informações irrelevantes que cada técnica produz. Dentre as análises realizadas, estão a busca por partições inéditas e mais robustas que o conjunto de partições base utilizados nos experimentos, a análise da influência das partições base nos ensembles, a análise da capacidade das técnicas na obtenção de múltiplas partições e a análise dos clusters extraídos.
378

Algoritmo de enxame de partículas para resolução do problema da programação da produção Job-shop flexível multiobjetivo

Aranha, Gabriel Diego de Aguiar 19 August 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-06-08T18:50:10Z No. of bitstreams: 1 DissGDAA.pdf: 2724824 bytes, checksum: 6fd66731c51c75a18c506fe7ab991ec4 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-13T19:33:47Z (GMT) No. of bitstreams: 1 DissGDAA.pdf: 2724824 bytes, checksum: 6fd66731c51c75a18c506fe7ab991ec4 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-13T19:33:53Z (GMT) No. of bitstreams: 1 DissGDAA.pdf: 2724824 bytes, checksum: 6fd66731c51c75a18c506fe7ab991ec4 (MD5) / Made available in DSpace on 2017-06-13T19:37:52Z (GMT). No. of bitstreams: 1 DissGDAA.pdf: 2724824 bytes, checksum: 6fd66731c51c75a18c506fe7ab991ec4 (MD5) Previous issue date: 2016-08-19 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / The companies today are looking for ways to expand their competitive advantages, optimizing their production, and in this context, they found solutions in activities of production scheduling. The production scheduling of the type job-shop, results in one of the most complex problems of combination, the Job-shop Scheduling Problem (JSP), which deterministic resolution is not feasible in polynomial computational time. The Flexible Job-shop Scheduling Problem (FJSP) is a classic extension of the JSP and has been widely reported in the literature. Thus, optimization algorithms have been developed and evaluated in the last decades, in order to provide more efficient production planning, with emphasis to artificial intelligence algorithms of the swarm type, that the latest research presented favorable results. The FJSP allows an operation to be processed for any machine arising from a set of machines along different routes. This problem is commonly dismembered into two sub-problems, the assignment of machines for operations, which is called routing, and operation scheduling. In the FJSP context, this research presents the resolution of the FJSP multi-objective, using a hierarchical approach that divides the problem into two subproblems, being the Particle Swarm Optimization (PSO), responsible for resolving the routing sub-problem, and tasking three local search algorithms, Random Restart Hill Climbing (RRHC), Simulated Annealing (SA) and Tabu Search (TS), for the resolution of scheduling sub-problem. The implementation of the proposed algorithm has new strategies in the population initialization, displacement of particles, stochastic allocation of operations, and management of scenarios partially flexible. Experimental results using technical benchmarks problems are conducted, and proved the effectiveness of the hybridization, and the advantage of RRHC algorithm compared to others in the resolution of the scheduling subproblem. / As empresas atualmente buscam meios de ampliarem suas vantagens competitivas, otimizando sua produção, e neste contexto, encontraram soluções nas atividades de programação da produção. A programação da produção do tipo job-shop, resulta em um dos problemas mais complexos de combinação, o Job-shop Scheduling Problem (JSP), cuja resolução determinística é inviável em tempo computacional polinomial. O Flexible Job-shop Scheduling Problem (FJSP) é uma extensão do clássico JSP e tem sido amplamente relatado na literatura. Desta forma, algoritmos de otimização têm sido desenvolvidos e avaliados nas últimas décadas, com o intuito de fornecer planejamentos de produção mais eficientes, com destaque para os algoritmos de inteligência artificial do tipo enxame, que nas pesquisas mais recentes obtiveram resultados satisfatórios. O FJSP permite que uma operação seja processada por qualquer recurso produtivo advindo de um conjunto de recursos ao longo de diferentes roteiros. Este problema é comumente desmembrado em dois subproblemas, a atribuição de recursos para as operações, que é chamado de roteamento, e programação das operações. No contexto do FJSP, a proposta dessa pesquisa apresenta a resolução do FJSP em caráter multiobjetivo, utilizando a abordagem hierárquica, que divide o problema em dois subproblemas, sendo o Enxame de Partículas (PSO), responsável pela resolução do subproblema de roteamento e incumbindo três algoritmos de busca local, Reinício Aleatório de Subida de Colina (RRHC), Arrefecimento Simulado (SA) e Busca Tabu (TS), para a resolução do subproblema de programação. A implementação do algoritmo proposto, dispõe de novas estratégias na inicialização da população, deslocamento das partículas, alocação estocástica das operações e tratamento de cenários parcialmente flexíveis. Resultados experimentais obtidos em base de testes comumente usada, comprovam a eficácia da hibridização proposta, e a vantagem do algoritmo RRHC em relação aos outros na resolução do subproblema de programação.
379

Modelo multiobjetivo de análise envoltória de dados combinado com desenvolvimento de funções empíricas e otimização via simulação Monte Carlo / Multi-objective data envelopment analysis model combined with empirical function development and optimization via Monte Carlo simulation

Figueiredo, Marcelo Vilela [UNESP] 31 March 2017 (has links)
Submitted by MARCELO VILELA FIGUEIREDO null (marcelo_mvf@yahoo.com.br) on 2017-05-25T23:07:30Z No. of bitstreams: 1 Dissertação.pdf: 1014783 bytes, checksum: 22908ac56d455abd6c044c5f2ad518ac (MD5) / Rejected by Luiz Galeffi (luizgaleffi@gmail.com), reason: Solicitamos que realize uma nova submissão seguindo a orientação abaixo: O arquivo submetido não contém o certificado de aprovação. O arquivo submetido está sem a ficha catalográfica. A versão submetida por você é considerada a versão final da dissertação/tese, portanto não poderá ocorrer qualquer alteração em seu conteúdo após a aprovação. Corrija esta informação e realize uma nova submissão com o arquivo correto. Agradecemos a compreensão. on 2017-05-30T16:26:10Z (GMT) / Submitted by MARCELO VILELA FIGUEIREDO null (marcelo_mvf@yahoo.com.br) on 2017-05-30T21:46:52Z No. of bitstreams: 1 Dissertação - Marcelo Vilela Figueiredo.pdf: 1210959 bytes, checksum: 8c48e557b53c5d68ac46ba054aedee03 (MD5) / Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-05-31T12:49:55Z (GMT) No. of bitstreams: 1 figueiredo_mv_me_guara.pdf: 1210959 bytes, checksum: 8c48e557b53c5d68ac46ba054aedee03 (MD5) / Made available in DSpace on 2017-05-31T12:49:55Z (GMT). No. of bitstreams: 1 figueiredo_mv_me_guara.pdf: 1210959 bytes, checksum: 8c48e557b53c5d68ac46ba054aedee03 (MD5) Previous issue date: 2017-03-31 / O controle de qualidade é um dos principais pilares para um bom rendimento de uma linha produtiva, visando garantir maior eficiência, eficácia e redução de custos de produção. A identificação de causas de defeitos e o controle das mesmas é uma atividade relativamente complexa, devido à infinidade de variáveis presentes em determinados processos. Na produção de itens à base de aço fundido, objetiva-se reduzir defeitos de fundição (rechupes, trincas, problemas dimensionais, entre outros), os quais podem ser ocasionados por diversas variáveis de processo, tais como: composição química do aço, temperatura de vazamento e propriedades mecânicas. Em virtude disso, o presente trabalho foi desenvolvido em uma indústria siderúrgica de grande porte, a qual atua na produção de componentes ferroviários e industriais. Por meio de sua extensa base de dados, foram avaliadas as eficiências dos produtos produzidos, sendo os mesmos denominados DMU (Decision Making Units). Para tal foi aplicada a BiO-MCDEA (Bi Objective Data Envelopment Analysis) em sete DMUs produzidas à base de aço fundido em função de 38 variáveis de processos. Nesta aplicação foram evidenciadas as variáveis de processos (input/output) influentes na determinação da eficiência das DMUs. Uma vez obtidos tais resultados, foram desenvolvidas funções empíricas para as variáveis respostas em função das variáveis de processos influentes por meio de regressão não-linear múltipla. Por fim foi realizada a Otimização via Simulação Monte Carlo de forma a determinar com quais valores se deve trabalhar com cada input para a otimização das funções empíricas. Os resultados obtidos foram satisfatórios, sendo bem condizentes com a realidade da empresa e a abordagem aplicada por meio da combinação de diferentes ferramentas se mostrou aderente à realidade estudada, e também inovadora. / Quality control is one of the pillars to guaranty a good yield on a production line, aiming to reach better efficiency, effectiveness and reduction of production costs. The identification of defects causes and its control is an activity relatively complex, due to the infinity of variables on some process. One of the most important objectives on a Steel Castings Parts production is to reduce castings defects (shrinkage, cracks, dimensional problems, etc.), that can be caused by several process variables, such asChemical Composition, Pouring Temperature and Mechanical Properties. Due to the mentioned explanations, this study was developed at a large steel industry, which produces rail and industrial parts. The efficiency of the produced parts, called DMU (Decision Making Units), was analyzed through an extensive data base. It was done by using BiO-MCDEA (Bi Objective Data Envelopment Analysis) on seven DMUs, which are steel casting parts, in function of 38 process variables. Additionally, the process variables influents on the DMU’s efficiency determination were evidenced through the mentioned implementation. Once those results were obtained, empirical functions were developed for the response variables in function of the influents process variables through multiple non-linear regression. Finally an optimization via Monte Carlo Simulation was implemented in order to determine the inputs values necessary to optimize the empirical functions. The achieved results were satisfactory, being consistent with the industry’s reality and the applied methodology through the combination of different tools were effectiveness and innovative.
380

Otimização multi-objetivo de projetos de redes de transporte dutoviário de gás natural / Multi-objective optimization of designs for natural gas transportation pipe networks

Felipe da Silva Alves 14 May 2014 (has links)
Dutos de transmissão são tubulações especialmente desenvolvidas para transportar produtos diversos a longas distâncias e representam a forma mais segura e econômica de transporte para grandes quantidades de fluidos. Os dutos de gás natural, denominados gasodutos, são usados para transportar o gás desde os campos de produção até os centros consumidores, onde o gás é inserido em redes de distribuição para entrega aos consumidores finais. Os gasodutos de transporte apresentam diversas características de monopólio natural, que são o principal argumento econômico para sua regulação. A regulação visa garantir que esta atividade seja explorada de maneira eficiente, refletindo em tarifas de transporte justas para os consumidores e que proporcionem o retorno adequado aos investidores, levando-se em consideração a quantidade de gás transportado. Neste contexto, o presente trabalho tem como objetivo propor metodologias de otimização multi-objetivo de projetos de redes de gasodutos de transporte, envolvendo métodos a posteriori. O problema de otimização formulado contempla restrições associadas ao escoamento do gás e o comportamento das estações de compressão. A solução do problema fornece um conjunto de projetos ótimos de redes de transporte em função da maximização da quantidade de gás natural transportado e da minimização da tarifa associada a esse serviço. A ferramenta foi aplicada a diversos estudos de caso com configurações típicas da indústria de transporte de gás natural. Os resultados mostraram que as metodologias propostas são capazes de fornecer subsídios que permitem ao tomador de decisão do ponto de vista regulatório realizar uma análise de trade-off entre a quantidade de gás transportado e a tarifa, buscando assim atender ao interesse da sociedade em relação à exploração do serviço de transporte / Transmition pipelines are especially designed pipes to transport a variety of products through long distances and represent the safest and most economical method of transporting large quantities of fluids. The natural gas pipelines, called gas pipelines, are employed in gas transportation from the production fields up to the consumer centers, where the gas is introducted in the distribution networks to be delivered to final consumers. The transportation pipelines present several attributes of natural monopoly which are the main economic reason for their regulation. Regulation aims to ensure the efficient exploration of this activity leading to fair transportation tariff to the consumers and reasonable return on investment to the investors, taking into account the amount of transported gas. In this context, the present work has the objective to propose methodologies for the multi-objective optimization of designs for natural gas transportation pipeline networks employing a posteriori methods. The formulated optimization issue comprises restrictions associated to gas flow and compressor stations behavior. The solution provides a group of optimum transport network designs concerning the maximization of the amount of transported natural gas and the minimization of the tariff associated to this service. The tool was employed in a variety of case studies with typical configurations of the natural gas transport industry. The results showed that the proposed methodologies are able to provide information which will permit that the decision maker, from the regulatory point of view, performs a trade-off analysis considering the amount of transported gas and the tariff, aiming to fulfill the society expectations concerning the exploration of transport service

Page generated in 0.0776 seconds