• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 266
  • 16
  • 2
  • 1
  • 1
  • Tagged with
  • 289
  • 144
  • 63
  • 56
  • 40
  • 36
  • 34
  • 32
  • 31
  • 30
  • 29
  • 29
  • 26
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

ESCALONAMENTO DE TAREFAS E FLUXOS DE COMUNICAÇÃO PARA SISTEMAS SEMI-PARTICIONADOS EM ARQUITETURAS NOC / SEMI-PARTITIONED SCHEDULING OF TASKS AND COMMUNICATION FLOWS ON NOC ARCHTECTURES

Bonilha, Iaê Santos 24 March 2014 (has links)
Despiste the fact that many scheduling models teoretically capable of high system resource utilization were proposed with the development of the real-time system, the industry still uses the first scheduling model proposed for multi-processor real-time systems, the partitioned scheduling model. This scheduling model can guarantee scheduling of task sets up to around 69% processor utilization, which falls pale in comparison to recent scheduling models that can guarantee scheduling up to 97% processor utilization. The motive behind the utilization of the partitioned scheduling as industrial model is the amount of studies made on this model and the development of scheduling analysis capable of providing temporal guarantees for this model on a real system environment. Recent scheduling models, like semi-partitioned scheduling, offer the possibility of a higher system resource utilization, it still lack studies and scheduling analysis capable of provide temporal guarantees under a real environment. The current scheduling analysis for most of the more recent models take advantage of a series of abstractions, failing to provide guarantees under real circumstances. This papers primary objective is to produce a new scheduling analysis for semi-partitioned scheduling, capable of achieving temporal guarantees taking some of the previously abstracted factors, like task communication and the impact f task migration on its communications flows, approximating the scheduling model to real environmental conditions. With the development of such analysis preliminary studies were made on heuristic task mapping algorithms for semipartitioned systems. / Com a popularização de sistemas multi-processador, surgiu uma série de propostas de modelos de escalonamento, na área de sistemas de tempo real que, teoricamente, são capazes de obter um alto aproveitamento dos recursos do sistema. Entretanto, o modelo de escalonamento mais adotado continua sendo um dos primeiros modelos de escalonamento propostos na área, o modelo de escalonamento particionado. O modelo de escalonamento particionado só pode garantir o escalonamento de conjuntos com até cerca de 69% de utilização de processador, sendo limitado se comparado com garantias de escalonamento de até 97% de utilização de modelos mais recentes. O motivo pelo qual o escalonamento particionado continua sendo utilizado é a grande concentração de estudos a respeito do modelo e o desenvolvimento de análises de escalonamento capazes de garantir o escalonamento do modelo em condições reais do sistema. Modelos mais recentes, como o escalonamento semi-particionado, apresentam uma possibilidade de um maior aproveitamento do sistema, porém, ainda possuem estudos limitados e não dispõe de análises de escalonamento capazes de prover garantias temporais para o sistema em condições reais, devido à presença de diversas abstrações no modelo. Neste sentido, este trabalho foca em arquiteturas Network-on-Chip que apresentam comunicação explícita, abstraída nos trabalhos encontrados na literatura. Este trabalho tem como objetivo primário o desenvolvimento de uma análise de escalonamento capaz de prover garantias temporais para o modelo de escalonamento semi-particionado levando em consideração fatores previamente abstraídos, como a necessidade de comunicação entre tarefas e o impacto da migração das tarefas nos seus fluxos de comunicação, aproximando o modelo da realidade. O desenvolvimento de tal análise possibilita o estudo preliminar de algoritmos heurísticos de mapeamento de tarefas, capazes de mapear conjuntos de tarefas levando em consideração migrações de tarefas e comunicação entre tarefas em um modelo de escalonamento semi-particionado.
162

Uma abordagem orientada a sistemas para otimização de escalonamento de processos em grades computacionais / A system-centric approach for process scheduling optimization in computational grids

Paulo Henrique Ribeiro Gabriel 26 April 2013 (has links)
Um dos maiores desafios envolvidos no projeto de grades computacionais é o escalonamento de processos, o qual consiste no mapeamento de processos sobre os computadores disponíveis, a fim de reduzir o tempo de execução de aplicações ou maximizar a utilização de recursos. A literatura na área de Sistemas Distribuídos trata, geralmente, esses dois objetivos separadamente, dando origem às abordagens de escalonamento orientado a aplicações e orientado a recursos, respectivamente. Mais recentemente, uma nova abordagem, denominada escalonamento orientado a sistemas, tem recebido destaque, buscando otimizar ambos objetivos simultaneamente. Seguindo essas abordagens, algoritmos heurísticos e de aproximação têm sido propostos. Os heurísticos buscam por soluções de maneira eficiente sem, contudo, apresentar garantias quanto à qualidade das soluções obtidas. Em contrapartida, os algoritmos de aproximação provêm tais garantias, contudo são mais difíceis de serem projetados, o que justifica o fato de haver apenas versões simplificadas desses algoritmos para cenários de escalonamento de processos. A falta de algoritmos de aproximação adequados para abordar o problema de escalonamento de processos e a necessidade de soluções que atendam o escalonamento orientado a sistemas motivaram esta tese de doutorado que apresenta a proposta do Min Heap-based Scheduling Algorithm (MHSA), um algoritmo de aproximação para o problema de escalonamento de processos orientado a sistemas. Esse algoritmo foi baseado em um modelo de otimização matemática proposto no contexto desta tese. Esse modelo considera os comportamentos de processos e recursos a fim de quantificar a qualidade de soluções de escalonamento. O funcionamento do MHSA envolve a construção de uma árvore min-heap, em que os nós representam computadores e as chaves de ordenação correspondem aos tempos de fila, i.e., ocupação dos computadores. Apesar de esse algoritmo primordialmente reduzir o tempo de execução (ou makespan) de aplicações, essa estrutura em árvore permite que qualquer computador que ocupe o nó raiz receba cargas, o que favorece a ocupação de recursos e, portanto, sua orientação a sistemas. Esse algoritmo tem complexidade assintótica de pior caso igual a O(\'log IND. 2 m\'), em que m corresponde ao número de computadores do sistema. Sua razão de aproximação foi estudada para ambientes distribuídos heterogêneos com e sem a presença de comunicação entre processos, o que permite conhecer, a priori, o nível mínimo de qualidade alcançado por suas soluções. Experimentos foram conduzidos para avaliar o algoritmo proposto e compará-lo a outras propostas. Os resultados confirmam que o MHSA reduz o tempo dispendido na obtenção de boas soluções de escalonamento / One of the most important challenges involved in the design of grid computing systems is process scheduling, which maps applications into the available computers in attempt to reduce the application execution time, or maximize resource utilization. The literature of Distributed Systems usually deals with these two objectives separately, supporting the application-centric and the resourcecentric scheduling, respectively. More recently, a third approach referred to as system-centric scheduling has emerged which attempts to optimize both objectives in conjunction. Heuristic-based and approximation-based algorithms have been proposed to address this third type of scheduling. Heuristics aim to find good solutions at acceptable time constraints, without guaranteeing solution quality. On the other hand, approximation-based algorithms provide optimal solution bounds, however they are more difficult to design what makes them available only to simple scenarios. The need for approximation-based algorithms to support system-centric scheduling has motivated this thesis which presents Min Heap-based Scheduling Algorithm (MHSA). This approximation algorithm is based on a mathematical optimization model, also proposed in this work, which considers process and resource behaviors to measure the quality of scheduling solutions. MHSA builds a min-heap data structure in which tree nodes represent computers and sorting keys correspond to queuing times, i.e., computer workloads. Besides this algorithm primarily reduces application execution times (also referred to as makespan), its data structure allows any computer assume the root node and, consequently, receive workloads, what favors resource utilization. This algorithm has the worst-case time complexity equals to O(\'log IND. 2 m\'), in which m represents the number of system computers. Its approximation ratio was analyzed to heterogeneous distributed systems considering bag-of-tasks and communication-intensive applications. Having this ratio, we know the minimum quality level provided by every scheduling solution. Experiments were performed to compare MHSA to others. Results confirm MHSA reduces the time spent to obtain good quality scheduling solutions
163

AMIGO: Uma contribuição para a convergência na área de escalonamento de processos / AMIGO: a contribution to the convergence in the area of process scheduling

Souza, Paulo Sergio Lopes de 26 June 2000 (has links)
Este trabalho propõe e descreve em detalhes o projeto do AMIGO (DynAMical FlexIble SchedulinG EnvirOnment), uma nova ferramenta de software capaz de viabilizar a união de diferentes algoritmos de escalonamento, de uma maneira completamente transparente ao usuário. O AMIGO é capaz de flexibilizar o escalonamento (em tempo de execução da aplicação) desde a sua configuração até a sua efetiva aplicação. Além da flexibilidade dinâmica e da transparência, o AMIGO também é modular: o seu projeto está dividido em módulos que, entre outras vantagens, facilitam sua execução em diferentes plataformas. Este trabalho também contribui apresentando uma análise crítica da literatura da área, apontando divergências e propondo pontos de convergência importantes. Assim, o levantamento bibliográfico apresentado atua como um material introdutório precioso para que os pesquisadores iniciantes formem um contexto geral sobre a área e, desse modo, aprofundem mais rapidamente seus estudos em outros trabalhos mais específicos. A avaliação de desempenho feita com o AMIGO demonstra que é possível a obtenção de ganhos de desempenho expressivos, com total transparência para o usuário final. Unindo-se desempenho, flexibilidade e transparência, espera-se contribuir para a redução da lacuna existente entre teoria e prática na área de escalonamento de processos / This thesis proposes and describes in details the design of the AMIGO (DynAMical FlexIble SchedulinG EnvirOnment), a novel software tool that makes possible the union of different scheduling algorithms, in a way completely transparent to the user. The AMIGO is able to make flexible the scheduling activity (at run-time), covering all the steps from its configuration up to its effective application. Besides the dynamic flexibility and transparency, AMIGO is also modular: it is split into modules that, among other advantages, facilitate its execution on different platforms. This work also contributes by presenting a critical analysis of the process-scheduling literature, pointing out the existing divergences and proposing important convergence points. Thus, the literature survey presented acts as a precious introductory material, which is able, on one hand, to give to the beginners a broad view of the process-scheduling area and, on the other hand, to facilitate the development of deeper studies in a quicker fashion when more specific works are needed. The performance evaluation of the AMIGO shows that is possible to have expressive performance gains, while having total user transparency. Joining flexibility and transparency it is hoped to contribute for the reduction of the existing gap between theory and practice in the scheduling process area
164

Escalonamento psicofísico da influência da marca na percepção de sabor do chocolate pelo consumidor / Psychophysical scaling of brand influence on consumer perception of chocolate flavor

Copelli, Lucas Reñe 03 November 2014 (has links)
O objetivo do estudo foi entender a influência da marca na percepção de sabor do chocolate pelos consumidores. Foram avaliados 16 sujeitos (31,8 anos, ± 4,2 anos, 8 mulheres) medindo suas avaliações sobre os sabores de chocolates de diferentes marcas, com e sem o conhecimento da marca, e também sobre as marcas sem degustação do produto, como expectativa de sabor, utilizando Escalonamento Psicofísico de Estimativa de Magnitude Direta (EMD). Este método obtém do sujeito a sua impressão subjetiva direta do estímulo físico. Um chocolate foi escolhido como referencia (módulo) e recebeu o valor numérico de 100. A tarefa dos sujeitos foi degustar os chocolates, comparando com a degustação do módulo, e atribuir notas de acordo com a diferença de percepção de sabor, se a percepção de sabor fosse duas vezes melhor do que o módulo, ele deveria designar uma nota duas vezes o valor de referência. O procedimento foi o mesmo para as duas outras condições experimentais, marca e sabor conhecendo a marca. O expoente da curva de potência foi utilizado como a quantificação da magnitude da percepção dos sujeitos. O expoente obtido na avaliação somente do chocolate foi de 0,389 (Coeficiente de Correlação de Pearson r2=0,94) enquanto que somente da marca foi de 0,581 (r2=0,96). Teoricamente pode-se determinar o expoente da percepção de sabor com conhecimento da marca que seria 0,389/0,581 = 0,669, sendo que o expoente obtido empiricamente foi de 0,675 (r2=0,92). Assim concluí-se que a utilização da metodologia de Estimativa de Magnitude Direta para quantificar a preferência subjetiva dos sujeitos por chocolates considerando 2 variáveis, sabor e marca, foi bem sucedida. Os resultados sugerem que a associação de marca e sabor contribui para um efeito mais poderoso sobre a decisão sobre quanto o chocolate é mais saboroso. E como o expoente da percepção do sabor sabendo a marca é maior que os outros dois expoentes isolados pode-se sugerir que a marca possui uma grande influência na decisão / The aim of study was understand brand influence on consumer perception of chocolate flavor. 16 subjects (31.8 years, ± 4.2 years, 8 women) were evaluated by measuring their reviews of the flavors of different brands of chocolates, with and without the knowledge of the brand, and also about the brands without tasting the product, as expectation of flavor, using Psychophysical Scaling of Direct Ratio Magnitude Estimation (RME). This method gets the subject direct subjective impression of the physical stimulus. A chocolate was chosen as reference (modulus) and received the numerical value of 100. The task of subjects was tasting the chocolates, compare to the tasting of the module and assign grades according to the difference in taste perception, if perception of flavor was twice better than module, he should assign a score twice the reference value. The procedure was the same for the other two experimental conditions brand and flavor knowing the brand. The exponent of power law was used to quantify the magnitude of the perception of the subjects. The obtained exponent when examining only chocolate was 0.389 (Pearson correlation coefficient r2=0.94) while only the brand was 0.581 (r2=0.96). Theoretically, we can determine the exponent of the perception of flavor with brand awareness that would be 0.389/0.581=0.669, where the exponent obtained empirically was 0.675 (r2=0.92). Thus we conclude that the use of the methodology of Direct Ratio Magnitude Estimation to quantify the subject subjective preference for chocolate, considering two variables, flavor and brand, was successful. The results suggest that the association of brand and flavor makes for a more powerful effect on the decision about how much chocolate is tastier. And as the exponent of flavor perception knowing the brand is bigger than the other two isolates exponents can suggest that the brand has a great influence on the decision
165

Algoritmo de escalonamento para aplicações em uma grade computacional extensível aos receptores de sinais digitais de televisão / Scheduling algorithm for applications in a computational grid extensible to receivers of television digital signal

Batista, Bruno Guazzelli 30 June 2011 (has links)
OGrid Anywhere é um middleware de grade computacional ponto-aponto (P2P), capaz de agrupar em uma organização virtual ou federação qualquer equipamento dotado de recursos computacionais, inclusive receptores digitais. O objetivo deste projeto de mestrado apresentado nesta monografia é desenvolver e avaliar algoritmos de escalonamento que possibilitem uma distribuição adequada de processos nos elementos da grade computacional proposta pelo Grid Anywhere. Foram realizados experimentos utilizando o simulador GridSim, simulando um ambiente definido por esse middleware. Por meio dessa junção entre Grades Computacionais e TV Digital, pretende-se promover a inclusão digital permitindo que recursos computacionais sejam compartilhados de maneira a possibilitar que usuários com receptores limitados executem aplicações que demandem mais recursos que aqueles ofertados pelo hardware / GRid Anywhere is a middleware for grid computing peer-to-peer (P2P), capable of bringing together into a virtual organization or federation any equipment having computing resources, including digital receivers. The objective of this masters project presented in this monograph is to develop and evaluate scheduling algorithms that allow an adequate distribution of applications in computational grid elements proposed by the Grid Anywhere. Experiments were carried out using the GridSim simulator, simulating an environment defined by the middleware. Through this joint between Grid Computing and Digital TV, it is possible to promote digital inclusion by allowing computing resources to be shared, so as to enable users with limited receivers to run applications that require more resources than those offered by the hardware
166

Estudo comparativo de técnicas de escalonamento de tarefas dependentes para grades computacionais / Comparative Study of Task Dependent Scheduling Algorithms to Grid Computing

Aliaga, Alvaro Henry Mamani 22 August 2011 (has links)
À medida que a ciência avança, muitas aplicações em diferentes áreas precisam de grande poder computacional. A computação em grade é uma importante alternativa para a obtenção de alto poder de processamento, no entanto, esse alto poder computacional deve ser bem aproveitado. Mediante o uso de técnicas de escalonamento especializadas, os recursos podem ser utilizados adequadamente. Atualmente existem vários algoritmos propostos para computação em grade, portanto, é necessário seguir uma boa metodologia para escolher o algoritmo que ofereça melhor desempenho, dadas determinadas características. No presente trabalho comparamos os algoritmos de escalonamento: Heterogeneous Earliest Finish Time (HEFT), (b) Critical Path on a Processor (CPOP) e (c) Path Clustering Heuristic (PCH); cada algoritmo é avaliado com diferentes aplicações e sobre diferentes arquiteturas usando técnicas de simulação, seguindo quatro critérios: (i) desempenho, (ii) escalabilidade, (iii) adaptabilidade e (iv) distribuição da carga do trabalho. Diferenciamos as aplicações para grade em dois tipos: (i) aplicações regulares e (ii) aplicações irregulares; dado que em aplicações irregulares não é facil comparar o critério de escalabilidade. Seguindo esse conjunto de critérios o algoritmo HEFT possui o melhor desempenho e escalabilidade; enquanto que os três algoritmos possuem o mesmo nível de adaptabilidade. Na distribuição de carga de trabalho o algoritmo HEFT aproveita melhor os recursos do que os outros. Por outro lado os algoritmos CPOP e PCH usam a técnica de escalonar o caminho crítico no processador que ofereça o melhor tempo de término, mas essa abordagem nem sempre é a mais adequada. / As science advances, many applications in different areas need a big amount of computational power. Grid computing is an important alternative to obtain high processing power, but this high computational power must be well used. By using specialized scheduling techniques, resources can be properly used. Currently there are several algorithms for grid computing, therefore, is necessary to follow a good methodology to choose an algorithm that offers better performance given certain settings. In this work, we compare task dependent scheduling algorithms: (a) Heterogeneous Earliest Finish Time (HEFT), (b) Critical Path on a Processor (CPOP) e Path Clustering Heuristic (PCH); each algorithm is evaluated with different applications and on different architectures using simulation techniques, following four criterias: (i) performance, (ii) scalability, (iii) adaptability and (iv) workload distribution. We distinguish two kinds of grid applications: (i) regular applications and (ii) irregular applications, since in irregular applications is not easy to compare scalability criteria. Following this set of criteria the HEFT algorithm reaches the best performance and scalability, while the three algorithms have the same level of adaptability. In workload distribution HEFT algorithm makes better use of resources than others. On the other hand, CPOP and PCH algorithms use scheduling of tasks which belong to the critical path on the processor which minimizes the earliest finish time, but this approach is not always the most appropriate.
167

Uma arquitetura de nuvem em comunidade para aplicações de tempo real. / A community cloud architecture for real-time applications.

Ös, Marcelo Dutra 30 November 2015 (has links)
A Computação em Nuvem é um paradigma de computação distribuída que vem sendo utilizado extensivamente em vários campos de interesse nos últimos anos, desde aplicações web comuns até a aplicações de alta-performance computacional. O modelo de pagamento pelo uso e a isonomia dos métodos de acesso transformaram o ambiente de Computação em Nuvem em uma alternativa extremamente popular e atrativa tanto para universidades como para empresas privadas. Entre os modelos de implantação adotados atualmente destaca-se o de nuvem em comunidade, onde várias entidades que possuem interesses em comum constroem, mantém e compartilham a mesma infraestrutura de serviços em nuvem. O modelo computacional em nuvem também pode ser atrativo para aplicações que tenham como requisito o processamento em tempo real, principalmente pela capacidade de manipulação de grandes volumes de dados e pela propriedade de elasticidade, que é a inserção ou remoção de recursos computacionais dinamicamente de acordo com a demanda. Nesta tese, são identificados os requisitos para a construção de um ambiente em nuvem em comunidade para aplicações de tempo real. A partir destes requisitos e de uma revisão bibliográfica baseada em nuvem e sistemas distribuídos de tempo real, é desenvolvida a proposta de uma arquitetura de nuvem em comunidade de tempo real. Um estudo de caso de compra e venda de ações em bolsa de valores é apresentado como uma aplicação viável para este modelo, sendo que um algoritmo de escalonamento de tempo real para este ambiente é proposto. Por fim, é desenvolvido nesta tese um simulador cujo objetivo é demonstrar em termos quantitativos quais as melhorias de desempenho atingidas com esta arquitetura. / Cloud Computing is a distributed computing paradigm which is being extensively applied to many fields of interest in the last few years, ranging from ordinary web applications to highperformance computing. The pay-per-use model and ubiquitous access methods have made Cloud Computing an interesting and popular alternative for both enterprises and universities. Among the deployment models adopted, one of the most prominent is the community cloud, where several entities who share similar interests build, maintain and use the same infrastructure of cloud services. The cloud computing paradigm can be attractive to applications whose requirements are the processing in real-time too, mainly because of its capacity of handling huge amounts of data as for the property of elasticity, which is the dynamic and automatic insertion or removal of computing resources on-demand. In this thesis, the requirements of a community cloud for real-time applications are identified. Based on these requirements and on a bibliographical review of the research fields of real-time distributed systems and real-time clouds, it is developed a proposal for a real-time community cloud architecture. A case study of a trading real-time application at a stock exchange is presented as a feasible application for this model. Also, a real-time scheduling algorithm is proposed for this environment. A simulator is built in order to demonstrate the quantitative improvements this architecture brings.
168

Um Estudo Empírico de Hiper-Heurísticas / An Empirical Study of Hyperheuristics

Sucupira, Igor Ribeiro 03 July 2007 (has links)
Uma hiper-heurística é uma heurística que pode ser utilizada para lidar com qualquer problema de otimização, desde que a ela sejam fornecidos alguns parâmetros, como estruturas e abstrações, relacionados ao problema considerado. As hiper-heurísticas têm sido aplicadas a alguns problemas práticos e apresentadas como métodos de grande potencial, no que diz respeito à capacidade de possibilitar o desenvolvimento, em tempo bastante reduzido, de algoritmos capazes de lidar satisfatoriamente, do ponto de vista prático, com problemas de otimização complexos e pouco conhecidos. No entanto, é difícil situar as hiper-heurísticas em algum nível de qualidade e avaliar a robustez dessas abordagens caso não as apliquemos a problemas para os quais existam diversas instâncias disponíveis publicamente e já experimentadas por algoritmos relevantes. Este trabalho procura dar alguns passos importantes rumo a essas avaliações, além de ampliar o conjunto das hiper-heurísticas, compreender o impacto de algumas alternativas naturais de desenvolvimento e estabelecer comparações entre os resultados obtidos por diferentes métodos, o que ainda nos permite confrontar as duas diferentes classes de hiper-heurísticas que identificamos. Com essas finalidades em mente, desenvolvemos 3 novas hiper-heurísticas e implementamos 2 das hiper-heurísticas mais importantes criadas por outros autores. Para estas últimas, experimentamos ainda algumas extensões e modificações. Os dois métodos hiper-heurísticos selecionados podem ser vistos como respectivos representantes de duas classes distintas, que aparentemente englobam todas as hiper-heurísticas já desenvolvidas e nos permitem denominar cada um desses métodos como \"hiper-heurística de busca direta por entornos\" ou como \"hiper-heurística evolutiva indireta\". Implementamos cada hiper-heurística como uma biblioteca (em linguagem C), de forma a evidenciar e estimular a independência entre o nível em que se encontra a hiper-heurística e aquele onde se apresentam as estruturas e abstrações diretamente relacionadas ao problema considerado. Naturalmente, essa separação é de ingente importância para possibilitar a reutilização imediata das hiper-heurísticas e garantir que nelas haja total ausência de informações relativas a um problema de otimização específico. / A hyperheuristic is a heuristic that can be used to handle any optimization problem, provided that the algorithm is fed with some parameters, as structures and abstractions, related to the problem at hand. Hyperheuristics have been applied to some practical problems and presented as methods with great potential to allow the quick development of algorithms that are able to successfully deal, from a practical standpoint, with complex ill-known optimization problems. However, it\'s difficult to position hyperheuristics at some quality level and evaluate their robustness without applying them to problems for which there are many instances available in the public domain and already attacked by worthy algorithms. This work aims to give some important steps towards that process of evaluation, additionally increasing the number of available hyperheuristics, studying the impact of some natural development alternatives and comparing the results obtained by different methods, what also enables us to confront the two classes of hyperheuristics that we have identified. With those purposes in mind, we have developed 3 original hyperheuristics and implemented 2 of the most important hyperheuristics created by other authors. For those latter two approaches, we have also experimented with some modifications and extensions. The two methods we have chosen for implementation may be seen as respectively representing two distinct classes, which seem to contain all hyperheuristics developed so far and that allow us to classify any of these methods as either being a \"direct neighbourhood search hyperheuristic\" or an \"indirect evolutive hyperheuristic\". We have implemented each hyperheuristic as a library (in the C language), so as to clearly show and estimulate the independence between the level where the hyperheuristic is and that to which the structures and abstractions directly related to the problem at hand belong. Obviously, this separation of concerns is extremely important to make the immediate reuse of hyperheuristics possible and enforce in them the complete absence of information from a specific optimization problem.
169

Os métodos biplot e escalonamento multidimensional nos delineamentos experimentais / The Biplot Methods and Multidimensional Scaling in experimental designs

Souza, Édila Cristina de 08 April 2010 (has links)
O objetivo deste trabalho foi avaliar os métodos estatísticos de análise da interação de genótipos com ambientes (G × A), enfatizando a adaptabilidade e a estabilidade fenotípica. As variáveis estudadas foram produção e teor de sólidos solúveis totais (SST) do melão do tipo Gália, testando 9 genótipos em 12 ambientes. O experimento foi conduzido no delineamento aleatorizado em blocos com 3 repetições, realizado no Pólo Agroindustrial Mossoró-Assu no Rio Grande do Norte. O desempenho dos cultivares foi analisado por meio da utilização de análises de variância, metodologias de adaptabilidade e estabilidade. Realizou-se as análises para a produção e o teor de sólidos solúveis, utilizando as metodologias AMMI (Additive Main Effects and Multiplicative Interaction) e SREG (Sites Regression), representando graficamente de forma simultânea os genótipos e ambientes através dos gráficos Biplot AMMI, GGEbiplot e Trilinear plot. A análise AMMI possui a vantagem de estudar detalhadamente a estrutura do efeito de interação, além de representar simultaneamente os escores dos efeitos da interação para cada fator. Na análise SREG, incorpora o efeito de genótipo e na maioria dos casos está altamente correlacionado com os escores do primeiro componente principal, possui a vantagem de permitir a avaliação gráfica direta do efeito de genótipo. Propõe-se, também a metodologia MDS (Multidimensional Scalling) para verificar as similaridades e dissimilaridades entre os ambientes, através de uma matriz de distancias, representando geometricamente os dados no espaço bidimensional (Biplot) para cada variável estudada, em que pode-se observar as disparidades entre os ambientes, mostrando que esses apresentam características diferentes / The objective of this study was to evaluate statistical methods of analysis of the interaction of genotypes with environments (G × A), emphasizing the adaptability and stability phenotype. The variables studied were production and soluble solids contents (SST) Melon Galia type, testing 9 genotypes in 12 environments. The experiment was conducted in a randomized block with 3 replications, it was done at Pole Agroindustrial Mossor´o-Assu in Rio Grande do Norte. The performance of cultivars was analyzed by using analysis of variance, methods of adaptability and stability. It carried out the analysis for the production and soluble solids, using the methodologies AMMI (Additive Main Effects and Multiplicative Interaction) and SREG (Sites Regression), graphing simultaneously the genotypes and environments through the AMMI Biplot graphs, GGE Biplot and trilinear plot. The AMMI analysis has the advantage of studying in detail the structure of the interaction effect, and represents both the scores of the interaction effects for each factor. The analysis SREG, incorporates the effect of genotype and in most cases is highly correlated with the scores of the first principal component, it has the advantage of allowing direct graphical assessment of the effect of genotype. It was also proposed the methodology MDS (Multidimensional Scalling) to check the similarities and dissimilarities between the environments, through a distance matrix, representing geometrically the data in two-dimensional space (Biplot) each variable studied, in wich one can be observed disparities environmental show different characteristics.
170

Programação por restrições e escalonamento baseado em restrições: Um estudo de caso na programação de recursos para o desenvolvimento de poços de petróleo / Constraint programming and constraint-based scheduling: A case study in the scheduling of resources for developing offshore oil wells

Silva, Thiago Serra Azevedo 23 May 2012 (has links)
O objetivo dessa dissertação é apresentar um problema de otimização do uso de recursos críticos no desenvolvimento de poços de petróleo marítimos e a técnica empregada para a abordagem proposta ao problema. A revisão da técnica de Programação por Restrições é feita analisando aspectos relevantes de modelagem, propagação, busca e paradigmas de programação. A especialização da técnica para problemas de escalonamento, o Escalonamento Baseado em Restrições, é descrita com ênfase nos paradigmas descritivos e nos mecanismos de propagação de restrições. Como subsídio ao uso da técnica em outros problemas, a linguagem comercial de modelagem OPL é apresentada no Apêndice. O objetivo da abordagem ao problema é obter um escalonador para maximizar a produção de óleo obtida no curto prazo. O escalonador proposto baseia-se na declaração de um modelo empregando variáveis de intervalo. Um algoritmo e um modelo de Programação Linear Inteira abordando relaxações do problema são apresentados para que se obtenha um limitante superior ao valor de produção ótimo. Para o cenário real no qual a análise experimental foi feita, foram obtidas soluções a menos de 16% do ótimo após uma hora de execução; e os testes em instâncias de tamanhos variados evidenciaram a robustez do escalonador. Direções para trabalhos futuros são apresentadas ponderando os resultados obtidos. / The aim of this work is to present a problem of optimizing the use of critical resources to develop offshore oil wells and the technique used to approach the problem. The review of the Constraint Programming technique is made by analyzing relevant aspects of modeling, propagation, search and programming paradigms. The specialization of the technique to scheduling problems, known as Constraint-Based Scheduling, is described with emphasis on descriptive paradigms and constraint propagation mechanisms. In order to support the use of the technique to tackle other problems, the commercial modeling language OPL is presented in the appendix. The aim of the approach to the problem is to obtain a scheduler that maximizes the short-term production of oil. The scheduler presented relies on the description of a model using interval variables. An algorithm and an Integer Linear Programming model approaching relaxations of the problem are presented in order to obtain an upper bound for the optimal production value. For the real scenario upon which the experimental analysis was done, there were found solutions within 16% of the optimal after one hour of execution; and the tests on instances of varied sizes gave evidence of the robustness of the scheduler. Directions for future work are presented based on the results achieved.

Page generated in 0.2628 seconds