• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 879
  • 60
  • 59
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1019
  • 709
  • 298
  • 242
  • 161
  • 157
  • 150
  • 148
  • 146
  • 142
  • 133
  • 131
  • 112
  • 108
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
691

Programação de tarefas em um ambiente flow shop com m máquinas para a minimização do desvio absoluto total de uma data de entrega comum / Scheduling in a n-machine flow shop for the minimization of the total absolute deviation from a common due date

Julio Cesar Delgado Vasquez 28 August 2017 (has links)
Neste trabalho abordamos o problema de programação de tarefas em um ambiente flow shop permutacional com mais de duas máquinas. Restringimos o estudo para o caso em que todas as tarefas têm uma data de entrega comum e restritiva, e onde o objetivo é minimizar a soma total dos adiantamentos e atrasos das tarefas em relação a tal data de entrega. É assumido também um ambiente estático e determinístico. Havendo soluções com o mesmo custo, preferimos aquelas que envolvem menos tempo de espera no buffer entre cada máquina. Devido à dificuldade de resolver o problema, mesmo para instâncias pequenas (o problema pertence à classe NP-difícil), apresentamos uma abordagem heurística para lidar com ele, a qual está baseada em busca local e faz uso de um algoritmo linear para atribuir datas de conclusão às tarefas na última máquina. Este algoritmo baseia-se em algumas propriedades analíticas inerentes às soluções ótimas. Além disso, foi desenvolvida uma formulação matemática do problema em programação linear inteira mista (PLIM) que vai permitir validar a eficácia da abordagem. Examinamos também o desempenho das heurísticas com testes padrões (benchmarks) e comparamos nossos resultados com outros obtidos na literatura. / In this work we approach the permutational flow shop scheduling problem with more than two machines. We restrict the study to the case where all the jobs have a common and restrictive due date, and where the objective is to minimize the total sum of the earliness and tardiness of jobs relative to the due date. A static and deterministic environment is also assumed. If there are solutions with the same cost, we prefer those that involve less buffer time between each machine. Due to the difficulty of solving the problem, even for small instances (the problem belongs to the NP-hard class), we present a heuristic approach to dealing with it, which is based on local search and makes use of a linear algorithm to assign conclusion times to the jobs on the last machine. This algorithm is based on some analytical properties inherent to optimal solutions. In addition, a mathematical formulation of the problem in mixed integer linear programming (MILP) was developed that will validate the effectiveness of the approach. We also examined the performance of our heuristics with benchmarks and compared our results with those obtained in the literature.
692

Tomografia de escoamentos multifásicos por sensoriamento elétrico - desenvolvimento de algoritmos genéticos paralelos para a solução do problema inverso / Multiphase flow tomography by electrical sensing - development of parallel genetic algorithms for the solution of the inverse problem

Grazieli Luiza Costa Carosio 15 December 2008 (has links)
A tomografia por sensoriamento elétrico representa uma técnica de grande potencial para a otimização de processos normalmente associados às indústrias do petróleo e química. Entretanto, o emprego de técnicas tomográficas em processos industriais envolvendo fluidos multifásicos ainda carece de métodos robustos e computacionalmente eficientes. Nesse contexto, o principal objetivo deste trabalho é contribuir para o desenvolvimento de métodos para a solução do problema tomográfico com base em algoritmos genéticos específicos para a fenomenologia do problema abordado (interação do campo elétrico com o campo hidrodinâmico), bem como a adaptação do algoritmo para processamento em paralelo. A idéia básica consiste em partir de imagens qualitativas, fornecidas por uma sonda de visualização direta, para formar um modelo da distribuição interna do contraste elétrico e refiná-lo iterativamente até que variáveis de controle resultantes do modelo numérico se igualem às suas homólogas, determinadas experimentalmente. Isso pode ser feito usando um funcional de erro, que quantifique a diferença entre as medidas externas não intrusivas (fluxo de corrente elétrica real) e as medidas calculadas no modelo numérico (fluxo de corrente elétrica aproximado). De acordo com a abordagem funcional adotada, pode-se modelar a reconstrução numérica do contraste elétrico como um problema de minimização global, cuja função objetivo corresponde ao funcional de erro convenientemente definido e o mínimo global representa a imagem procurada. A grande dificuldade está no fato do problema ser não linear e mal-posto, o que reflete na topologia da superfície de minimização, demandando um método especializado de otimização para escapar de mínimos locais, pontos de sela, mínimos de fronteira e regiões praticamente planas. Métodos de otimização poderosos, como os algoritmos genéticos, embora apresentem elevado esforço computacional na obtenção da imagem procurada, são melhor adaptáveis ao problema em questão. Desse modo, optou-se pelo uso de algoritmos genéticos paralelos nas arquiteturas mestre-escravo, ilha, celular e híbrida (combinando ilha e celular). O desempenho computacional dos algoritmos desenvolvidos foi testado em um problema de reconstrução da imagem tomográfica de um escoamento vertical a bolhas. De acordo com os resultados, a arquitetura híbrida é capaz de obter a imagem desejada com um desempenho computacional melhor, quando comparado ao desempenho das arquiteturas mestre-escravo, ilha e celular. Além disso, estratégias para melhorar a eficiência do algoritmo foram propostas, como a introdução de informações a priori, derivadas de conhecimento físico do problema tomográfico (fração de vazio e coeficiente de simetria do escoamento), a inserção de uma tabela hash para evitar o cálculo de soluções já encontradas, o uso de operadores de predação e de busca local. De acordo com os resultados, pode-se concluir que a arquitetura híbrida é um método apropriado para solução do problema de tomografia por impedância elétrica de escoamentos multifásicos. / Tomography by electrical sensing represents a technique of great potential for the optimization of processes usually associated with petroleum and chemical industries. However, the employment of tomographic techniques in industrial processes involving multiphase flows still lacks robust and computationally efficient methods. In this context, the main objective of this thesis is to contribute to the development of solution methods based on specific genetic algorithms for the phenomenology of the tomographic problem (interaction between electric and hydrodynamic fields), as well as the adaptation of the algorithm to parallel processing. From qualitative images provided by a direct imaging probe, the basic idea is to generate a model of electric contrast internal distribution and refine it repeatedly until control variables resulting from the numerical model equalize their counterparts, determined experimentally. It can be performed by using an error functional to quantify the difference between non-intrusive external measurements (actual electric current flow) and measurements calculated in a numerical model (approximate electric current flow). According to the functional approach, the numerical reconstruction of the electrical contrast can be treated as a global minimization problem in which the fitness function is an error functional conveniently defined and the global minimum corresponds to the sought image. The major difficulty lies in the nonlinear and ill-posed nature of the problem, which reflects on the topology of the minimization surface, demanding a specialized optimization method to escape from local minima, saddle points, boundary minima and almost plane regions. Although powerful optimization methods, such as genetic algorithms, require high computational effort to obtain the sought image, they are best adapted to the problem in question, therefore parallel genetic algorithms were employed in master-slave, island, cellular and hybrid models (combining island and cellular). The computational performance of the developed algorithms was tested in a tomographic image reconstruction problem of vertical bubble flow. According to the results, the hybrid model can obtain the sought image with a better computational performance, when compared with the other models. Besides, strategies to improve the algorithm efficiency, such as the introduction of a priori information derived from the physical knowledge of the tomographic problem (void fraction and symmetry coefficient of the flow), the insertion of a hash table to avoid the calculation of solutions already found, the use of predation and local search operators were proposed. According to the results, it is possible to conclude that the hybrid model is an appropriate method for solving the electrical impedance tomography problem of multiphase flows.
693

Genetic algorithm for vehicle routing problem with heterogeneous fleet and separate collection and delivery: a case in the Secretariat of Labor and Social Development of the State of Cearà / Algoritmo genÃtico para o problema de roteirizaÃÃo de veÃculos com frota heterogÃnea e coleta e entrega separadas: estudo de caso na Secretaria do Trabalho e Desenvolvimento Social do Estado do CearÃ

CÃsar Augusto Chaves e Sousa Filho 31 July 2014 (has links)
A concern of logistics management is the correct and efficient use of the available fleet. The central focus of fleet management is determining the routes that will be used in customer service and the efficient allocation of available resources (vehicles). The correct fleet management can generate a competitive advantage. There is a problem in the Operations Research dedicated to working this type of situation, the Vehicle Routing Problem (VRP). The VRP tries to generate the most economical route to efficient use of the available fleet. The case study discussed in this work was a particular situation VRP where there is a heterogeneous fleet and where the collections and deliveries of passengers are carried at separate times. To solve this problem we designed a Genetic Algorithm. Additionally, three different crossover operators were tested in the search for better results. At the end of the study, the Genetic Algorithm was capable of solving the problem in a short time and finding the most economical way to generate routes, using efficiently the fleet and fulfilling all requests. / Uma das preocupaÃÃes da gestÃo logÃstica à a correta e eficiente utilizaÃÃo da frota disponÃvel. O foco central da gestÃo da frota està em determinar as rotas que serÃo utilizadas no atendimento aos clientes e a alocaÃÃo eficiente dos recursos (veÃculos) disponÃveis. A gestÃo correta da frota pode gerar um diferencial competitivo. Existe na Pesquisa Operacional um problema dedicado a trabalhar este tipo de situaÃÃo, denominado Problema de Roteamento de VeÃculos (PRV). O PRV procura gerar a rota mais econÃmica com utilizaÃÃo eficiente da frota disponÃvel. No estudo de caso, realizado neste trabalho, foi abordada uma situaÃÃo particular do PRV onde hà uma frota heterogÃnea e as coletas e entregas de passageiros sÃo realizadas em momentos separados. Para a resoluÃÃo deste problema foi desenvolvido e implementado um Algoritmo GenÃtico (AG). Adicionalmente, trÃs operadores de cruzamento diferentes foram testados na busca dos melhores resultados encontrados pelo AG. Ao final, o Algoritmo GenÃtico conseguiu se mostrar capaz de resolver o problema em tempo hÃbil e de maneira a gerar rotas mais econÃmicas, utilizando eficientemente a frota e atendendo todas as solicitaÃÃes.
694

Programação genética: operadores de crossover, blocos construtivos e emergência semântica / Genetic programming: crossover operators, building blocks and semantic emergence

Rafael Inhasz 19 March 2010 (has links)
Os algoritmos evolutivos são métodos heurísticos utilizados para a solução de problemas de otimização e que possuem mecanismos de busca inspirados nos conceitos da Teoria de Evolução das Espécies. Entre os algoritmos evolutivos mais populares, estão os Algoritmos Genéticos (GA) e a Programação Genética (GP). Essas duas técnicas possuem como ponto em comum o uso pesado do operador de recombinação, ou \"crossover\" - mecanismo pelo qual novas soluções são geradas a partir da combinação entre soluções existentes. O que as diferencia é a flexibilidade - enquanto que nos algoritmos genéticos as soluções são representadas por códigos binários, na programação genética essa representação é feita por algoritmos que podem assumir qualquer forma ou extensão. A preferência pelo operador de crossover não é simplesmente uma característica em comum das duas técnicas supracitadas, mas um poderoso diferencial. Na medida em que os indivíduos (as soluções) são selecionados de acordo com a respectiva qualidade, o uso do operador crossover tende a aumentar mais rapidamente a qualidade média da população se as partes boas de cada solução combinada (os \"building blocks\") forem preservadas. Holland [1975] prova matematicamente que sob determinadas condições esse efeito ocorrerá em algoritmos genéticos, em um resultado que ficou conhecido como \"Schema Theorem of GAs\". Entretanto, a implementação prática de GA (e, em especial, de GP) geralmente não ocorre segundo as condições supostas neste teorema. Diversos estudos têm mostrado que a extensão variável das estruturas utilizadas em GP dão um caráter de mutação ao operador de crossover, na medida em que a seleção aleatória dos pontos de combinação pode levar à destruição dos building blocks. Este trabalho propõe um novo operador de crossover, baseado em uma técnica de meta-controle que orienta a seleção dos pontos para a recombinação das soluções, respeitando o histórico de recombinação de cada ponto e a compatibilidade semântica entre as \"partes\" de cada solução que são \"trocadas\" neste processo. O método proposto é comparado ao crossover tradicional em um estudo empírico ligado à área Financeira, no qual o problema apresentado consiste em replicar a carteira de um fundo de investimentos setorial. Os resultados mostram que o método proposto possui performance claramente superior ao crossover tradicional, além de proporcionar a emergência de semântica entre as soluções ótimas. / Evolutionary algorithms are heuristic methods used to find solutions to optimization problems. These methods use stochastic search mechanisms inspired by Natural Selection Theory. Genetic Algorithms and Genetic Programming are two of the most popular evolutionary algorithms. These techniques make intensive use of crossover operators, a mechanism responsible for generating new individuals recombining parts of existing solutions. The choice of crossover operator to be used is very important for the algorithms´ performance. If individuals are selected according to the fitness, the use of crossover operator helps to quickly increase the average quality of the population. In GA we also observe the emergence of \"building blocks\", that is, encapsulated parts of good solutions that are often preserved during the recombination process. Holland [1975] proves that, under some conditions, this phenomenon will occur in GAs. This result is known as Schema Theorem of GAs. However, practical implementations of these algorithms may be far away from the conditions stated in Holland´s theorem. In these non-ideal conditions, several factor may contribute to higher rates of destructive crossover (building blocks destruction). This work proposes a new crossover operator, based on a meta-control technique that drives selection of crossover points according to recombination history and semantic compatibility between the code blocks to be switched. The proposed method is compared to common crossover in a case study concerning the replication of an investment fund. Our results show that the proposed method has better performance than the common crossover. Meta-control techniques also facilitate the emergence of building blocks that, in turn, give raise to emergent semantics that can be used to give meaning or interpretations to an optimal solution and its components.
695

Análise lógica de protocolos, proposta e avaliação de desempenho de um algoritmo de atribuição de rótulo baseado em SRLG em um ambiente GMPLS-WDM. / Protocol logical analysis, proposal and performance evaluation of a label assignment algorithm based on SRLG in a GMPLS-WDM environment.

Daniela Vieira Cunha 04 April 2006 (has links)
Para satisfazer o explosivo aumento na demanda de tráfego de voz e dados, as redes ópticas baseadas em WDM e GMPLS estão sendo desenvolvidas. A suíte de protocolos GMPLS é atualmente considerada como um plano de controle para as redes ópticas e é composta por protocolos de sinalização e de roteamento, como também do protocolo de gerenciamento de enlace (LMP). O LMP é um importante protocolo que interfere na atribuição de rótulos (comprimentos de onda) e é necessário fazer sua análise lógica para verificar se o mesmo está livre de erros de progresso. Para esta finalidade, o método denominado alcançabilidade justa foi utilizado. Verificada a corretude do LMP, o estudo foca o subproblema de atribuição de comprimento de onda do RWA nas redes GMPLS-WDM por ser um dos principais problemas que causam o baixo desempenho destas redes. O cenário estudado é das redes GMPLS-WDM que operam em um ambiente RWA dinâmico com restrição de continuidade de comprimento de onda. O problema RWA é examinado bem como as várias heurísticas de atribuição de comprimento de onda apresentadas na literatura. Com o objetivo de melhorar o desempenho das redes GMPLS-WDM com restrição de continuidade de comprimento de onda, propõe-se um algoritmo de atribuição de rótulos que utiliza os conceitos conjunto de rótulos e SRLG já implementados pelo GMPLS. O algoritmo proposto melhora a eficiência no uso de recursos nas redes em questão. O desempenho é verificado através da métricas de probabilidade de bloqueio de conexão, desempenho este próximo do ótimo e demonstrado através de simulações. / To satisfy the explosive increasing demands of voice and data traffic, optical networks based on WDM and GMPLS are being developed. The GMPLS´ suite of protocols is currently being considered as the control plane for optical networks and it is compounded of signaling and routing protocols, and also the link management protocol (LMP). The LMP is an important protocol that interferes with label (wavelength) assignment and it is necessary to logically analyse this protocol in order to verify if it is free from progress errors. For this purpose, the method called fair reachability has been used. Verified the LMP is correctable, the study focuses on the RWA wavelength assignment problem in GMPLS-WDM networks because it is one of the main problems which causes the low performance of these networks. The studied scene is GMPLS-WDM networks operating under a dynamic RWA environment with wavelength continuity constraint. The RWA problem is examined and also the various wavelength-assignment heuristics proposed in the literature. With the goal to improve the performance of the GMPLS-WDM networks with wavelength continuity constraint, it is proposed a label assignment algorithm, which uses the concepts of label set and SRLG, already implemented by GMPLS. The proposed algorithm provides an improvement in efficiency of resource use. The performance is verified by using the blocking probability metric, and it is very close to the optimum and demonstrated through simulations.
696

Explorando dados provindos da internet em dispositivos móveis: uma abordagem baseada em visualização de informação / Exploring web data on mobile devices: an approach based on information visualization

Felipe Simões Lage Gomes Duarte 12 February 2015 (has links)
Com o progresso da computação e popularização da Internet, a sociedade entrou na era da informação. Esta nova fase é marcada pela forma como produzimos e lidamos com a informação. Diariamente, são produzidos e armazenados milhares de Gigabytes de dados cujo valor é reduzido se a informação ali contida não puder ser transformada em conhecimento. Concomitante a este fato, o padrão da computação está caminhando para a miniaturização e acessibilidade com os dispositivos móveis. Estes novos equipamentos estão mudando o padrão de comportamento dos usuários que passam de leitores passivos a geradores de conteúdo. Neste contexto, este projeto de mestrado propõe a técnica de visualização de dados NMap e a ferramenta de visualização de dados web aplicável a dispositivo móvel SPCloud. A técnica NMap utiliza todo o espaço visual disponível para transmitir informações de grupos preservando a metáfora distância-similaridade. Teste comparativos com as principais técnicas do estado da arte mostraram que a técnica NMap tem melhores resultados em preservação de vizinhança com um tempo de processamento significativamente melhor. Este fato coloca a NMap como uma das principais técnicas de ocupação do espaço visual. A ferramenta SPCloud utiliza a NMap para visualizar notícias disponíveis na web. A ferramenta foi desenvolvida levando em consideração as características inerentes aos dispositivos moveis o que possibilita utiliza-la nestes equipamentos. Teste informais com usuários demonstraram que a ferramenta tem um bom desempenho para sumarizar grandes quantidades de notícias em um pequeno espaço visual. / With the development of computers and the increasing popularity of the Internet, our society has entered the information age. This era is marked by the way we produce and deal with information. Everyday, thousand of Gigabytes are stored, but their value is reduced if the data cannot be transformed into knowledge. Concomitantly, computing is moving towards miniaturization and affordability of mobile devices, which are changing users behavior who move from passive readers to content generators. In this context, in this master thesis we propose and develop a data visualization technique, called NMap, and a web data visualization tool for mobile devices, called SPCloud. NMap uses all available visual space to transmit information preserving the metaphor of distance-similarity between elements. Comparative evaluations were performed with the state of the art techniques and the result has shown that NMap produces better results of neighborhood preservation with a significant improvement in processing time. Our results place NMap as a major space-filling technique establishing a new state of the art. SPCloud, a tool which uses NMap to present news available on the web, was developed taking into account the inherent characteristics of mobile devices. Informal user tests revealed that SPCloud performs well to summarize large amounts of news in a small visual space.
697

Um Algoritmo para Distribuição Balanceada de Carga Elétrica e Redução de Consumo de Energia em Centros de Dados e Nuvens

SILVA JÚNIOR, João Ferreira da 28 August 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-11T13:53:35Z No. of bitstreams: 2 Dissertaçao Joao Ferreira da Silva Jr.pdf: 2184320 bytes, checksum: fb503909f5b1d57d923852e5dafce5b6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T12:59:47Z (GMT) No. of bitstreams: 2 Dissertaçao Joao Ferreira da Silva Jr.pdf: 2184320 bytes, checksum: fb503909f5b1d57d923852e5dafce5b6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T12:59:47Z (GMT). No. of bitstreams: 2 Dissertaçao Joao Ferreira da Silva Jr.pdf: 2184320 bytes, checksum: fb503909f5b1d57d923852e5dafce5b6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-08-28 / Os avanços tecnológicos acontecem por intermédio de pesquisas e estudos, inclusive com a criação de novos paradigmas, tais como a computação em nuvem, comércio eletrônico e redes sociais. Em alguns casos, grandes centros de dados são utilizados para suportar esses paradigmas. Com isso, estes grandes centros de dados tornaram-se elementos críticos no desenvolvimento de tarefas diárias, o que sugere que, a cada dia, utilizamos mais seus recursos, aumentando a demanda e, consequentemente, o consumo elétrico. Hodiernamente, o consumo de energia é uma questão de interesse comum. Pesquisas demonstram que, como consequência da constante evolução e expansão da tecnologia da informação, os centros de dados e as nuvens (cloud computing) são grandes consumidores de energia elétrica. Com esse alto consumo, destacam-se as questões de sustentabilidade e custo. Neste contexto, a presente dissertação propõe um algoritmo de distribuição de carga elétrica (ADCE) para otimizar a distribuição de energia em infraestruturas elétricas de centros de dados e nuvens privadas. O ADCE é suportado pelo ambiente denominado Mercury, que é capaz de realizar uma avaliação integrada das métricas de confiabilidade, custo e sustentabilidade. O ADCE otimiza, mais especificamente, a distribuição da corrente elétrica na modelagem de fluxo de energia (EFM - Energy Flow Model). A modelagem em EFM é responsável por estimar as questões de sustentabilidade e de custo das infraestruturas elétricas de centros de dados e nuvens, respeitando as restrições de capacidade de energia que cada dispositivo é capaz de fornecer (considerando o sistema elétrico) ou extrair (considerando o sistema de refrigeração). Ademais, dois estudos de caso são apresentados, onde são analisadas sete infraestruturas elétricas de um centro de dados e seis de uma nuvem privada. Para os centros de dados foi alcançada uma redução no consumo de energia de até 15,5% e a métrica utilizada para avaliar a redução do impacto ambiental (exergia) foi reduzida em mais da metade de seu valor. No que concerne ao estudo das nuvens privadas a redução do consumo de energia foi de até 9,7% e da exergia de para quase um terço de seu valor inicial. Os resultados obtidos foram significativos, uma vez que as preocupações ambientais ganham destaque com o passar dos anos e os recursos financeiros das empresas são finitos e muito valiosos.
698

Uma metodologia para a determinação da precisão numérica necessária á implementação do algoritmo RTM

BARROS, Abner Corrêa 31 January 2014 (has links)
Submitted by Nayara Passos (nayara.passos@ufpe.br) on 2015-03-11T17:12:54Z No. of bitstreams: 2 TESE Abner Correa Barros.pdf: 14913537 bytes, checksum: 00c434893f2196bab70791b8218a2bbe (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:03:45Z (GMT) No. of bitstreams: 2 TESE Abner Correa Barros.pdf: 14913537 bytes, checksum: 00c434893f2196bab70791b8218a2bbe (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:03:45Z (GMT). No. of bitstreams: 2 TESE Abner Correa Barros.pdf: 14913537 bytes, checksum: 00c434893f2196bab70791b8218a2bbe (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014 / Cenpes, Petrobras, Finep. / Nestes últimos anos, com o início da prospecção de petróleo em regioões com litologias complexas, tem se observado um crescente interesse no uso do algoritmo Reverse Time Migration(RTM) como solução para o imageamento sísmico. Devido ao seu elevado custo computacional, o algoritmo RTM exige o uso de sistemas computacionais de alto desempenho, os quais demandam investimentos elevados em infraestrutura, o que normalmente representa também um aumento substancial no consumo de energia. Neste cenário, o desenvolvimento de coprocessadores aritméticos de alto desempenho, implementados por meio dos Field Programmable Gate Arrays(FPGAs), passou a ser considerado uma alternativa viável no objetivo de aumentar o a capacidade de processamento de sistemas computacionais já existentes, com impactos positivos tanto nos investimentos em infra-estrutura quanto no consumo de energia. Entretanto, o desenvolvimento destes coprocessadores normalmente exige um estudo prévio minucioso das características do algoritmo a ser implementado e do conjunto de dados a ser processado, a fim de determinar a precisão numérica mnima que deve ser empregada em sua implementação. O objetivo deste trabalho foi desenvolver uma metodologia que permita identificar a precisão numérica mínima necessária à implementação do algoritmo RTM, baseado nos fenômenos físicos envolvidos na propagação da onda sísmica e nas litologias prováveis da região a ser imageada. Para chegar a este objetivo foi desenvolvido um método analítico, capaz de predizer a atenuação esperada para as ondas sísmicas durante os processos de modelagem e migração presentes no algoritmo RTM. Esse método foi baseado em uma nova abordagem no tratamento da atenuação por espalhamento geométrico para modelos com múltiplas camadas, denominada de Raio Efetivo. Como estudo de caso de validação dessa metodologia, foram feitas predições e analisados os resultados de imageamento de diversos modelos sintéticos propostos por um especialista em geologia, os quais eram formados apenas por camadas horizontais, planas e paralelas. Além desses modelos mais simples, foi também utilizado um modelo reconhecidamente complexo, conhecido como modelo de marmousi. Os resultados obtidos em todos os estudos se mostraram dentro de uma margem de segurança de 1 bit de precisão.
699

Abordagem clássica e Bayesiana em modelos simétricos transformados aplicados à estimativa de crescimento em altura de Eucalyptus urophylla no Polo Gesseiro do Araripe-PE

BARROS, Kleber Napoleão Nunes de Oliveira 22 February 2010 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-01T17:35:24Z No. of bitstreams: 1 Kleber Napoleao Nunes de Oliveira Barros.pdf: 2964667 bytes, checksum: a3c757cb7ed16fc9c38b7834b6e0fa29 (MD5) / Made available in DSpace on 2016-08-01T17:35:24Z (GMT). No. of bitstreams: 1 Kleber Napoleao Nunes de Oliveira Barros.pdf: 2964667 bytes, checksum: a3c757cb7ed16fc9c38b7834b6e0fa29 (MD5) Previous issue date: 2010-02-22 / It is presented in this work the growth model nonlinear Chapman-Richards with distribution of errors following the new class of symmetric models processed and Bayesian inference for the parameters. The objective was to apply this structure, via Metropolis-Hastings algorithm, in order to select the equation that best predicted heights of clones of Eucalyptus urophilla experiment established at the Agronomic Institute of Pernambuco (IPA) in the city of Araripina . The Gypsum Pole of Araripe is an industrial zone, located on the upper interior of Pernambuco, which consumes large amount of wood from native vegetation (caatinga) for calcination of gypsum. In this scenario, there is great need for a solution, economically and environmentally feasible that allows minimizing the pressure on native vegetation. The generus Eucalyptus presents itself as an alternative for rapid development and versatility. The height has proven to be an important factor in prognosis of productivity and selection of clones best adapted. One of the main growth curves, is the Chapman-Richards model with normal distribution for errors. However, some alternatives have been proposed in order to reduce the influence of atypical observations generated by this model. The data were taken from a plantation, with 72 months. Were performed inferences and diagnostics for processed and unprocessed model with many distributions symmetric. After selecting the best equation, was shown some convergence of graphics and other parameters that show the fit to the data model transformed symmetric Student’s t with 5 degrees of freedom in the parameters using Bayesian inference. / É abordado neste trabalho o modelo de crescimento não linear de Chapman-Richards com distribuição dos erros seguindo a nova classe de modelos simétricos transformados e inferência Bayesiana para os parâmetros. O objetivo foi aplicar essa estrutura, via algoritmo de Metropolis-Hastings, afim de selecionar a equação que melhor estimasse as alturas de clones de Eucalyptus urophilla provenientes de experimento implantado no Instituto Agronômico de Pernambuco (IPA), na cidade de Araripina. O Polo Gesseiro do Araripe é uma zona industrial, situada no alto sertão pernambucano, que consume grande quantidade de lenha proveniente da vegetação nativa (caatinga) para calcinação da gipsita. Nesse cenário, há grande necessidade de uma solução, econômica e ambientalmente, viável que possibilite uma minimização da pressão sobre a flora nativa. O gênero Eucalyptus se apresenta como alternativa, pelo seu rápido desenvolvimento e versatilidade. A altura tem se revelado fator importante na prognose de produtividade e seleção de clones melhores adaptados. Uma das principais curvas de crescimento, é o modelo de Chapman- Richards com distribuição normal para os erros. No entanto, algumas alternativas tem sido propostas afim de reduzir a influência de observações atípicas geradas por este modelo. Os dados foram retirados de uma plantação, com 72 meses. Foram realizadas as inferências e diagnósticos para modelo transformado e não transformado com diversas distribuições simétricas. Após a seleção da melhor equação, foram mostrados alguns gráficos da convergência dos parâmetros e outros que comprovam o ajuste aos dados do modelo simétrico transformado t de Student com 5 graus de liberdade utilizando inferência Bayesiana nos parâmetros.
700

Algoritmo Wang-Landau e agrupamento de dados superparamagnético

RAMEH, Leila Milfont 26 August 2010 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-02T14:20:48Z No. of bitstreams: 1 Leila Milfont Rameh.pdf: 1805419 bytes, checksum: 3c0a871188e0dc9ff8282000ec45fc1c (MD5) / Made available in DSpace on 2016-08-02T14:20:48Z (GMT). No. of bitstreams: 1 Leila Milfont Rameh.pdf: 1805419 bytes, checksum: 3c0a871188e0dc9ff8282000ec45fc1c (MD5) Previous issue date: 2010-08-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The method of unsupervised data classification proposed by Domany and coworkers is based on mapping the problem onto an inhomogeneous granular magnetic system whose properties can be investigated through some Monte Carlo Method. The array containing the data consists of n numeric attributes corresponding to points in an n-dimensional Euclidean space. Each data item is associated with a Potts spin. The interaction between such spins decays exponentially with the distance. This favors the alignment of the spins associated with similar objects. The physical system corresponds to a disordered ferromagnet which, in turn, is described by a Hamiltonian of a q-states Potts model. It is expected that the magnetic system exhibits three temperature-dependent regimes. For very low temperatures the system is completely ordered. At the other extreme, high temperatures, the system shows no magnetic order. In an intermediate range of temperatures, the spins within certain regions remain tightly coupled, forming grains. However, a grain does not influence the behavior of another grain. That is, the grains are non-correlated and this intermediate state is named a superparamagnetic phase. The transition from one regime to another can be identified by peaks in the specific heat versus temperature curve. We apply the method to several artificial and real-life data sets, such as classification of flowers, summary medical data and identification of images. We measure the spin-spin correlation at several temperatures to classify the data. In disagreement with the Domany and coworkers claims we found that the best classification of the data occurred outside the superparagnetic phase. / O método de agrupamento de dados não supervisionado proposto por Domany e colaboradores baseia-se no mapeamento do problema em um sistema magnético granular não homogêneo, cujas propriedades são investigadas através de algum método de Monte Carlo. A matriz que contém os dados é composta por n atributos de valor numérico e corresponde a um ponto em um espaço euclidiano n-dimensional. A cada item de dado é associado um spin de Potts. A interação entre tais spins decai exponencialmente com o aumento da distância entre eles. Isto favorece o alinhamento dos spins associados a objetos similares. O sistema físico corresponde a um ferromagneto desordenado que, por sua vez, é descrito por um hamiltoniano de Potts de q estados. Espera-se que o sistema magnético exiba três regimes quando sua temperatura seja variada. Para temperaturas muito baixas o sistema está completamente ordenado. No outro extremo, em altas temperaturas, o sistema não apresenta qualquer ordem magnética. Numa faixa intermediária de temperaturas, spins dentro de certas regiões permanecem fortemente acoplados, formando grãos. Porém, um grão não influencie o comportamento de outro grão. Ou seja, os grãos estão não correlacionados. Este estado intermediário caracteriza um estado superparamagnético. A transição de um regime para outro pode ser identificada por picos na curva de calor específico versus temperatura. Aplicamos o método aos conjuntos de dados reais da planta íris e de dados médicos, conhecido por BUPA, aos dados sintéticos conhecidos por Ruspini e a um conjunto de dados, gerado por nós, que consiste de duas figuras tridimensionais sobrepostas, um esfera e um toro. Procedemos a classificação dos dados através da correlação spin-spin em diversas temperaturas. O principal resultado foi a verificação que nem sempre o agrupamento realizado na fase superparamagnética é o ideal.

Page generated in 0.0452 seconds