• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 293
  • 97
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 395
  • 395
  • 199
  • 132
  • 126
  • 75
  • 67
  • 53
  • 53
  • 51
  • 48
  • 39
  • 39
  • 38
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Construção automática de mosaicos de imagens digitais aéreas agrícolas utilizando transformada SIFT e processamento paralelo / Automatic construction of mosaics from aerial digital images agricultural using SIFT transform and parallel processing

Tarallo, André de Souza 26 August 2013 (has links)
A construção automática de grandes mosaicos a partir de imagens digitais de alta resolução é uma área de grande importância, encontrando aplicações em diferentes áreas, como agricultura, meteorologia, sensoriamento remoto e biológicas. Na agricultura, a eficiência no processo de tomada de decisão para controle de pragas, doenças ou queimadas está relacionada com a obtenção rápida de informações. Até o presente momento este controle vem sendo feito de maneira semiautomática, necessitando obter o modelo digital do terreno, fazer a ortorretificação de imagens, inserir marcações manualmente no solo, para que um software possa construir um mosaico de maneira convencional. Para automatizar este processo, o presente projeto propõe três metodologias (1, 2, 3) baseadas em algoritmos já consolidados na literatura (SIFT, BBF e RANSAC) e processamento paralelo (OpenMP), utilizando imagens aéreas agrícolas de alta resolução, de pastagens e plantações de diversas culturas. As metodologias diferem na maneira como os cálculos são realizados para a construção dos mosaicos. Construir mosaicos com este padrão de imagem não é uma tarefa trivial, pois requer alto esforço computacional para processamento destas imagens. As metodologias incluem um pré-processamento das imagens para minimizar possíveis distorções que surgem no processo de aquisição de imagens e contém também algoritmos para suavização das emendas das imagens no mosaico. A base de imagens, denominada base de imagens sem redimensionamento, foi construída a partir de imagens com dimensão de 2336 x 3504 pixels (100 imagens divididas em 10 grupos de 10 imagens), obtidas na região de Santa Rita do Sapucaí - MG, as quais foram utilizadas para validar a metodologia. Outra base de imagens, referida como base de imagens redimensionada, contêm 200 imagens de 533 x 800 pixels (10 grupos de 20 imagens) e foi utilizada para avaliação de distorção para comparação com os softwares livres Autostitch e PTGui, os quais possuem parâmetros pré-definidos para a resolução de 533 x 800 pixels. Os resultados do tempo de processamento sequencial para as três metodologias evidenciaram a metodologia 3 com o menor tempo, sendo esta 63,5% mais rápida que a metodologia 1 e 44,5% do que a metodologia 2. O processamento paralelo foi avaliado para um computador com 2, 4 e 8 threads (4 núcleos físicos e 4 núcleos virtuais), reduzindo em 60% o tempo para a construção dos mosaicos de imagens para a metodologia 1. Verificou-se que um computador com 4 threads (núcleos físicos) é o mais adequado em tempo de execução e Speedup, uma vez que quando se utilizam 8 threads são incluídos as threads virtuais. Os resultados dos testes de distorção obtidos evidenciam que os mosaicos gerados com a metodologia 1 apresentam menores distorções para 7 grupos de imagens em um total de 10. Foram também avaliadas as distorções nas junções de cinco mosaicos constituídos apenas por pares de imagens utilizando a metodologia 3, evidenciando que a metodologia 3 apresenta menor distorção para 4 mosaicos, em um total de 5. O presente trabalho contribui com a metodologia 2 e 3, com a minimização das distorções das junções do mosaico, com o paralelismo em OpenMP e com a avaliação de paralelismo com MPI. / The automatic construction of large mosaics from high resolution digital images is an area of great importance, which finds applications in different areas, especially agriculture, meteorology, biology and remote sensing. In agriculture, the efficiency of decision making is linked to obtaining faster and more accurate information, especially in the control of pests, diseases or fire control. So far this has been done semiautomatically and it is necessary to obtain the digital terrain model, do the orthorectification of images, insert markings on the ground by manual labor, so that software can build a mosaic in the conventional way. To automate this process, this project proposes three methodologies (1, 2, 3) based on algorithms already well-established in the literature (SIFT, BBF e RANSAC) and parallel processing (OpenMP), using high resolution/size aerial images agricultural of pasture and diverse cultures. The methodologies differ in how the calculations are performed for the construction of mosaics. Build mosaics with this kind of picture isn´t a trivial task, as it requires high computational effort for processing these images. The methodologies include a pre-processing of images to minimize possible distortions that arise in the process of image acquisition and also contain algorithms for smoothing the seams of the images in the mosaic. The image database, called image database without scaling, was constructed from images with dimensions of 2336 x 3504 pixels (100 images divided into 10 groups of 10 pictures), obtained in the region of Santa Rita do Sapucaí - MG, which were used to validate the methodology. Another image database, referred to as base images resize, contains 200 images of 533 x 800 pixels (10 groups of 20 pictures). It was used for evaluation of distortion compared to the free softwares Autostitch and PTGui, which have pre-defined parameters for the resolution of 533 x 800 pixels. The results of sequential processing time for the three methodologies showed the methodology 3 with the shortest time, which is 63.5% faster than the methodology 1 and 44.5% faster than the methodology 2. Parallel processing was evaluated for a computer with 2, 4 and 8 threads (4 physical cores and 4 virtual cores), reducing by 60% the time to build the mosaics of images for the methodology 1. It was found that a computer with 4 threads (physical cores) is most appropriate in execution time and Speedup, since when using 8 threads, threads virtual are included. The test results of distortion show that the mosaics generated with the methodology 1 have lower distortion for 7 groups of images in a total of 10. Distortions at the junctions of five mosaics consisting only of pairs of images were also evaluate utilizing the methodology 3, indicating that the methodology 3 has less distortion for 4 mosaics, for a total of 5. Contributions of this work have been the methodologies 2 and 3, with the distortions minimization of the mosaic junction, the parallelism in OpenMP and the assessment of parallelism with MPI.
312

[en] DIVISIBLE JOB SCHEDULING IN STAR NETWORKS / [pt] ESCALONAMENTO DE TAREFAS DIVISÍVEIS EM REDES ESTRELA

ELBIO RENATO TORRES ABIB 03 August 2004 (has links)
[pt] O problema de escalonamento de tarefas divisíveis consiste em determinar como uma carga a ser processada deve ser dividida entre processadores e em que ordem cada fração de carga será enviada a cada processador. Considera-se o escalonamento em redes estrela com computadores e enlaces heterogêneos. Nesta dissertação são propostas formulações originais deste problema como modelos de programação linear inteira mista, assim como um novo algoritmo de complexidade O(n) para a solução ótima de um caso especial. Além disso, também são propostas duas novas heurísticas para o problema, que permitem a elaboração de bons escalonamentos para instâncias de grande porte em um reduzido tempo de processamento. / [en] The problem of divisible job scheduling consists of determining how to divide the data to be processed among processors and in which order each fraction should be sent to them. In this dissertation, we consider the divisible load scheduling problem in star networks with heterogeneous computers and links. Original mixed integer linear programming formulations of this problem are proposed, as well as a new algorithm with complexity O(n) to find the optimal solution for a special case. We also propose two fast heuristics that achieve good results for instances representing large scale computing systems.
313

Análise tridimensional de túneis considerando o comportamento dependente do tempo na interação maciço-suporte / Tunnel\'s analysis considering time-dependent behaviour in the ground-support interaction

Ricardo Adriano Martoni Pereira Gomes 29 September 2006 (has links)
A utilização de concreto projetado como suporte de túneis é uma prática amplamente difundida no mundo inteiro. Este tipo material possui a característica de começar a agir estruturalmente desde pequenas idades. Apesar disso, os correntes processos de dimensionamento de suportes negligenciam o desenvolvimento de suas propriedades com o tempo, em acoplamento aos efeitos tridimensionais da região onde se localiza a frente de escavação. O presente trabalho tem a finalidade de relatar os procedimentos utilizados na análise da influência de alguns parâmetros da interação maciço - suporte, sobre os esforços solicitantes finais do suporte de um túnel, tanto para o caso de concreto projetado, com suas propriedades dependentes do tempo, quanto para materiais com propriedades constantes. São elaboradas soluções adimensionais para o problema da quantificação de esforços solicitantes de compressão e flexão no suporte. A maioria das simulações realizadas para atingir essa meta foi conduzida com auxílio de técnicas de processamento paralelo. / Shotcrete has been more and more used worldwide for tunnel support. This kind of material has the characteristics of starting to act structurally since early ages. Nevertheless, the current processes of support design neglect the development of its properties after some time in connection to the 3D effects of the region where the face of the tunnel is located. The present work relates the procedures adopted in analyzing the influence of some ground-support interaction parameters on the support structure internal forces of a tunnel, not only when shotcrete is used, with its time-dependent properties, but for materials with constant properties as well. Dimensionless solutions are developed for the support thrust and bending moments quantification problem. Most of the numerical simulations performed to reach this purpose were carried out by means of parallel processing techniques.
314

Uma adaptação do MEF para análise em multicomputadores: aplicações em alguns modelos estruturais / Multicomputer finite element method analysis of usual structures models

Almeida, Valério da Silva 24 March 1999 (has links)
Neste trabalho, apresenta-se uma adaptação dos procedimentos utilizados nos códigos computacionais seqüenciais advindos do MEF, para utilizá-los em multicomputadores. Desenvolve-se uma rotina para a montagem do sistema linear particionado entre os diversos processadores. Resolve-se o sistema de equações lineares geradas mediante a rotina do PIM (Parallel Iterative Method). São feitas adaptações deste pacote para se aproveitar as características comuns do sistema linear gerado pelo MEF: esparsidade e simetria. A técnica de resolução do sistema em paralelo é otimizada com o uso de dois tipos de pré-condicionadores: a decomposição incompleta de Cholesky (IC) generalizado e o POLY(0) ou Jacobi. É feita uma aplicação para a solução de pavimento com o algoritmo-base totalmente paralelizado. Também é avaliada a solução do sistema de equações de uma treliça. Mostram-se resultados de speed-up, de eficiência e de tempo para estes dois modelos estruturais. Além disso, é feito um estudo em processamento seqüencial da performance dos pré-condicionadores genéricos (IC) e do advindo de uma série truncada de Neumann, também generalizada, utilizando-se modelos estruturais de placa e chapa. / This work presents an adaptation of conventional finite element method (FEM) computing procedures to multicomputers. It is presented the procedure which the linear system of equations is split among the processor and its solution. It was improved a public software called PIM (Parallel Iterative Method) is used to solve this system of equations. These improvements explore efficiently the usual features of the FEM systems of equations: sparseness and symmetry. To improve the solution of the system, two different preconditioners are used: a generic Incomplete Cholesky (IC) and the Polynomial preconditioning (POLY(0) or Jacobi). It is carried out a full adaptation of the method to parallel computing with a program developed to analyse floor structures. The improved PIM is also used to solve the system of equations of a tri-dimensional truss. It is presented the speed-up, the efficiency and the time used in the resolution of the systems of equations for the floor and for the truss. It is also presented a study of performance in sequential processing of the generic (IC) and the generic Neumann series preconditioners in the analysis of plates in bending and in plane actions.
315

Construção automática de mosaicos de imagens digitais aéreas agrícolas utilizando transformada SIFT e processamento paralelo / Automatic construction of mosaics from aerial digital images agricultural using SIFT transform and parallel processing

André de Souza Tarallo 26 August 2013 (has links)
A construção automática de grandes mosaicos a partir de imagens digitais de alta resolução é uma área de grande importância, encontrando aplicações em diferentes áreas, como agricultura, meteorologia, sensoriamento remoto e biológicas. Na agricultura, a eficiência no processo de tomada de decisão para controle de pragas, doenças ou queimadas está relacionada com a obtenção rápida de informações. Até o presente momento este controle vem sendo feito de maneira semiautomática, necessitando obter o modelo digital do terreno, fazer a ortorretificação de imagens, inserir marcações manualmente no solo, para que um software possa construir um mosaico de maneira convencional. Para automatizar este processo, o presente projeto propõe três metodologias (1, 2, 3) baseadas em algoritmos já consolidados na literatura (SIFT, BBF e RANSAC) e processamento paralelo (OpenMP), utilizando imagens aéreas agrícolas de alta resolução, de pastagens e plantações de diversas culturas. As metodologias diferem na maneira como os cálculos são realizados para a construção dos mosaicos. Construir mosaicos com este padrão de imagem não é uma tarefa trivial, pois requer alto esforço computacional para processamento destas imagens. As metodologias incluem um pré-processamento das imagens para minimizar possíveis distorções que surgem no processo de aquisição de imagens e contém também algoritmos para suavização das emendas das imagens no mosaico. A base de imagens, denominada base de imagens sem redimensionamento, foi construída a partir de imagens com dimensão de 2336 x 3504 pixels (100 imagens divididas em 10 grupos de 10 imagens), obtidas na região de Santa Rita do Sapucaí - MG, as quais foram utilizadas para validar a metodologia. Outra base de imagens, referida como base de imagens redimensionada, contêm 200 imagens de 533 x 800 pixels (10 grupos de 20 imagens) e foi utilizada para avaliação de distorção para comparação com os softwares livres Autostitch e PTGui, os quais possuem parâmetros pré-definidos para a resolução de 533 x 800 pixels. Os resultados do tempo de processamento sequencial para as três metodologias evidenciaram a metodologia 3 com o menor tempo, sendo esta 63,5% mais rápida que a metodologia 1 e 44,5% do que a metodologia 2. O processamento paralelo foi avaliado para um computador com 2, 4 e 8 threads (4 núcleos físicos e 4 núcleos virtuais), reduzindo em 60% o tempo para a construção dos mosaicos de imagens para a metodologia 1. Verificou-se que um computador com 4 threads (núcleos físicos) é o mais adequado em tempo de execução e Speedup, uma vez que quando se utilizam 8 threads são incluídos as threads virtuais. Os resultados dos testes de distorção obtidos evidenciam que os mosaicos gerados com a metodologia 1 apresentam menores distorções para 7 grupos de imagens em um total de 10. Foram também avaliadas as distorções nas junções de cinco mosaicos constituídos apenas por pares de imagens utilizando a metodologia 3, evidenciando que a metodologia 3 apresenta menor distorção para 4 mosaicos, em um total de 5. O presente trabalho contribui com a metodologia 2 e 3, com a minimização das distorções das junções do mosaico, com o paralelismo em OpenMP e com a avaliação de paralelismo com MPI. / The automatic construction of large mosaics from high resolution digital images is an area of great importance, which finds applications in different areas, especially agriculture, meteorology, biology and remote sensing. In agriculture, the efficiency of decision making is linked to obtaining faster and more accurate information, especially in the control of pests, diseases or fire control. So far this has been done semiautomatically and it is necessary to obtain the digital terrain model, do the orthorectification of images, insert markings on the ground by manual labor, so that software can build a mosaic in the conventional way. To automate this process, this project proposes three methodologies (1, 2, 3) based on algorithms already well-established in the literature (SIFT, BBF e RANSAC) and parallel processing (OpenMP), using high resolution/size aerial images agricultural of pasture and diverse cultures. The methodologies differ in how the calculations are performed for the construction of mosaics. Build mosaics with this kind of picture isn´t a trivial task, as it requires high computational effort for processing these images. The methodologies include a pre-processing of images to minimize possible distortions that arise in the process of image acquisition and also contain algorithms for smoothing the seams of the images in the mosaic. The image database, called image database without scaling, was constructed from images with dimensions of 2336 x 3504 pixels (100 images divided into 10 groups of 10 pictures), obtained in the region of Santa Rita do Sapucaí - MG, which were used to validate the methodology. Another image database, referred to as base images resize, contains 200 images of 533 x 800 pixels (10 groups of 20 pictures). It was used for evaluation of distortion compared to the free softwares Autostitch and PTGui, which have pre-defined parameters for the resolution of 533 x 800 pixels. The results of sequential processing time for the three methodologies showed the methodology 3 with the shortest time, which is 63.5% faster than the methodology 1 and 44.5% faster than the methodology 2. Parallel processing was evaluated for a computer with 2, 4 and 8 threads (4 physical cores and 4 virtual cores), reducing by 60% the time to build the mosaics of images for the methodology 1. It was found that a computer with 4 threads (physical cores) is most appropriate in execution time and Speedup, since when using 8 threads, threads virtual are included. The test results of distortion show that the mosaics generated with the methodology 1 have lower distortion for 7 groups of images in a total of 10. Distortions at the junctions of five mosaics consisting only of pairs of images were also evaluate utilizing the methodology 3, indicating that the methodology 3 has less distortion for 4 mosaics, for a total of 5. Contributions of this work have been the methodologies 2 and 3, with the distortions minimization of the mosaic junction, the parallelism in OpenMP and the assessment of parallelism with MPI.
316

Evaluating I/O scheduling techniques at the forwarding layer and coordinating data server accesses / Avaliação de técnicas de escalonamento de E/S na camada de encaminhamento e coordenação de acesso aos servidores de dados

Bez, Jean Luca January 2016 (has links)
Em ambientes de Computação de Alto Desempenho, as aplicações científicas dependem dos Sistemas de Arquivos Paralelos (SAP) para obter desempenho de Entrada/Saída (E/S), especialmente ao lidar com grandes quantidades de dados. No entanto, E/S ainda é um gargalo para um número crescente de aplicações, devido à diferença histórica entre a velocidade de processamento e de acesso aos dados. Para aliviar a concorrência causada por milhares de nós que acessam um número significativamente menor de servidores SAP, normalmente nós intermediários de E/S são adicionados entre os nós de processamento e o sistema de arquivos. Cada nó intermediário encaminha solicitações de vários clientes para o sistema, uma configuração que dá a este componente a oportunidade de executar otimizações como o escalonamento de requisições de E/S. O objetivo desta dissertação é avaliar diferentes algoritmos de escalonamento, na camada de encaminhamento de E/S, cuja finalidade é melhorar o padrão de acesso das aplicações, agregando e reordenando requisições para evitar padrões que são conhecidos por prejudicar o desempenho. Demonstramos que os escalonadores FIFO (First In, First Out), HBRR (Handle-Based Round-Robin), TO (Time Order), SJF (Shortest Job First) e MLF (Multilevel Feedback) são apenas parcialmente eficazes porque o padrão de acesso não é o principal fator que afeta o desempenho na camada de encaminhamento de E/S, especialmente para requisições de leitura Um novo algoritmo de escalonamento chamado TWINS é proposto para coordenar o acesso de nós intermediários de E/S aos servidores de dados do sistema de arquivos paralelo. Nossa abordagem reduz a concorrência nos servidores de dados, um fator previamente demonstrado como reponsável por afetar negativamente o desempenho. O algoritmo proposto é capaz de melhorar o tempo de leitura de arquivos compartilhados em até 28% se comparado a outros algoritmos de escalonamento e em até 50% se comparado a não fazer o encaminhamento de requisições de E/S. / In High Performance Computing (HPC) environments, scientific applications rely on Parallel File Systems (PFS) to obtain Input/Output (I/O) performance especially when handling large amounts of data. However, I/O is still a bottleneck for an increasing number of applications, due to the historical gap between processing and data access speed. To alleviate the concurrency caused by thousands of nodes accessing a significantly smaller number of PFS servers, intermediate I/O nodes are typically employed between processing nodes and the file system. Each intermediate node forwards requests from multiple clients to the parallel file system, a setup which gives this component the opportunity to perform optimizations like I/O scheduling. The objective of this dissertation is to evaluate different scheduling algorithms, at the I/O forwarding layer, that work to improve concurrent access patterns by aggregating and reordering requests to avoid patterns known to harm performance. We demonstrate that the FIFO (First In, First Out), HBRR (Handle- Based Round-Robin), TO (Time Order), SJF (Shortest Job First) and MLF (Multilevel Feedback) schedulers are only partially effective because the access pattern is not the main factor that affects performance in the I/O forwarding layer, especially for read requests. A new scheduling algorithm, TWINS, is proposed to coordinate the access of intermediate I/O nodes to the parallel file system data servers. Our approach decreases concurrency at the data servers, a factor previously proven to negatively affect performance. The proposed algorithm is able to improve read performance from shared files by up to 28% over other scheduling algorithms and by up to 50% over not forwarding I/O requests.
317

Escalação estática de tarefas parcialmente ordenadas em redes de Transputers. / Suboptimal static scaling of partially ordered tasks in Transputer networks.

Garcia, Claudio 21 September 1992 (has links)
Em certas aplicações, a redução no tempo de processamento de programas é fundamental. Em sistemas multiprocessados, busca-se minimizar esse tempo através de algoritmos que proveem escalamento estático das tarefas nos processadores. Esses algoritmos podem ser exatos, significando que o tempo de processamento resultante é o mínimo para uma dada arquitetura de hardware, ou aproximados, indicando que a solução obtida e sub-ótima. Este trabalho apresenta uma biblioteca de algoritmos heurísticos que fornecem escalamentos sub-ótimos e um modelo que simula a operação de redes de transputers. Cada escalamento gerado é testado na rede simulada e seu tempo de processamento é avaliado. Após ter verificado o desempenho de todos os algoritmos disponíveis, é apresentado como resposta o melhor escalamento testado e seu tempo simulado de processamento. O usuário pode então alocar as tarefas nos transputers, de acordo com a ordem e o regime de operação (seq ou par) fornecidos. O programa escalador foi testado com diversos arranjos de tarefas parcialmente ordenadas em diferentes arquiteturas de transputers, para verificar a conformidade do modelo da rede de processadores com a realidade. Os resultados dos testes atenderam plenamente aos requisitos de desempenho, apresentando desvios máximos em torno de 1%. / In certain scientific applications the reduction in the processing time is fundamental. In the processing area and, particularly, in multiprocessing, the minimization of this time through algorithms that provide static scheduling of tasks in processors is aimed. These algorithms can be exact, meaning that the resulting processing time is minimum for a certain hardware architecture or approximate, indicating that the solution obtained is sub-optimal. This work presents a library of heuristic algorithms that provide sub-optimal scheduling and a model that simulates the operation of any Transputers network. Together they constitute the computational tool here nominated Scheduling Program. Each schedule created is tested in the simulated network and its processing time is evaluated. After verifying the performance of every available heuristic algorithms, the Scheduling Program provides as response the best tested schedule and its simulated processing time. Then the user can allocate the tasks on the Transputers, following the order and the construction (SEQ or PAR) provided. The Scheduling Program was tested on several partially ordered tasks arrangements in different Transputers architectures to check the conformity of the processors networks model with reality. The results of the tests complied completely to the performance requirements, presenting a maximum deviation of about 1%.
318

Nova metodologia para análise e síntese de sistemas de aterramento complexos utilizando o método lN-FDTD, computação paralela automática e redes neurais artificiais / New methodology for analysis and synthesis of complex systems of aterramento using method LN-FDTD, automatic parallel computation and artificial neural nets

OLIVEIRA, Rodrigo Melo e Silva de 29 February 2008 (has links)
Made available in DSpace on 2011-03-23T21:19:48Z (GMT). No. of bitstreams: 0 / Item created via OAI harvest from source: http://www.bdtd.ufpa.br/tde_oai/oai2.php on 2011-03-23T21:19:49Z (GMT). Item's OAI Record identifier: oai:bdtd.ufpa.br:312 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / The FDTD method in General Coordinates (LN-FDTD) was implemented for analyzing structures not coincident to the Cartesian coordinate system. The method solves the Maxwells equations in time domain, allowing the calculation of data concerning the transitory and steady-state responses of such structures. The method is applied to analyze of special grounding electrodes. A new formulation for the truncating technique UPML, for conductive media, referred here as LN-UPML, was developed and implemented in order to make the simulations viable. A new methodology for locating grounding grid faults using two Artificial Neural Networks is presented. The LN-FDTD software was tested and validated though simulations of various grounding systems. A graphical user interface, named LANE SAGS, was implemented to simplify the use and to automate the data processing. / Neste trabalho, o método FDTD em coordenadas gerais (LN-FDTD) foi implementado para a análise de estruturas de aterramento com geometrias coincidentes ou não com o sistema de coordenadas cartesiano. O método soluciona as equações de Maxwell no domínio do tempo, permitindo a obtenção de dados a respeito da resposta transitória e de regime estacionário de estruturas diversas de aterramento. Uma nova formulação para a técnica de truncagem UPML em coordenadas gerais, para meios condutivos, foi desenvolvida e implementada para viabilizar a análise dos problemas (LN-UPML). Uma nova metodologia baseada em duas redes neurais artificiais é apresentada para a deteccão de defeitos em malhas de terra. O software FDTD em coordenadas gerais foi testado e validado para vários casos. Uma interface gráfica para usuários, chamada LANE SAGS, foi desenvolvida para simplificar o uso e automatizar o processamento dos dados.
319

Escalação estática de tarefas parcialmente ordenadas em redes de Transputers. / Suboptimal static scaling of partially ordered tasks in Transputer networks.

Claudio Garcia 21 September 1992 (has links)
Em certas aplicações, a redução no tempo de processamento de programas é fundamental. Em sistemas multiprocessados, busca-se minimizar esse tempo através de algoritmos que proveem escalamento estático das tarefas nos processadores. Esses algoritmos podem ser exatos, significando que o tempo de processamento resultante é o mínimo para uma dada arquitetura de hardware, ou aproximados, indicando que a solução obtida e sub-ótima. Este trabalho apresenta uma biblioteca de algoritmos heurísticos que fornecem escalamentos sub-ótimos e um modelo que simula a operação de redes de transputers. Cada escalamento gerado é testado na rede simulada e seu tempo de processamento é avaliado. Após ter verificado o desempenho de todos os algoritmos disponíveis, é apresentado como resposta o melhor escalamento testado e seu tempo simulado de processamento. O usuário pode então alocar as tarefas nos transputers, de acordo com a ordem e o regime de operação (seq ou par) fornecidos. O programa escalador foi testado com diversos arranjos de tarefas parcialmente ordenadas em diferentes arquiteturas de transputers, para verificar a conformidade do modelo da rede de processadores com a realidade. Os resultados dos testes atenderam plenamente aos requisitos de desempenho, apresentando desvios máximos em torno de 1%. / In certain scientific applications the reduction in the processing time is fundamental. In the processing area and, particularly, in multiprocessing, the minimization of this time through algorithms that provide static scheduling of tasks in processors is aimed. These algorithms can be exact, meaning that the resulting processing time is minimum for a certain hardware architecture or approximate, indicating that the solution obtained is sub-optimal. This work presents a library of heuristic algorithms that provide sub-optimal scheduling and a model that simulates the operation of any Transputers network. Together they constitute the computational tool here nominated Scheduling Program. Each schedule created is tested in the simulated network and its processing time is evaluated. After verifying the performance of every available heuristic algorithms, the Scheduling Program provides as response the best tested schedule and its simulated processing time. Then the user can allocate the tasks on the Transputers, following the order and the construction (SEQ or PAR) provided. The Scheduling Program was tested on several partially ordered tasks arrangements in different Transputers architectures to check the conformity of the processors networks model with reality. The results of the tests complied completely to the performance requirements, presenting a maximum deviation of about 1%.
320

Metodologia de teste para acelerar o desenvolvimento de sistemas de processamento paralelo. / Test methodology to accelerate the development of parallel processing system.

André Aguiar Santana 09 April 2007 (has links)
Devido a grande competitividade do mercado, existe uma demanda crescente pela produção de sistemas computacionais modernos cada vez com mais qualidade e em menores prazos (CALANTONE; BENEDETTO, 00). O tempo para desenvolvimento de novas versões do sistema também é crítico, pois se espera melhor desempenho e mais funcionalidades que a versão atual, com grande expectativa por parte dos clientes em relação ao tempo de liberação. Em conseqüência das evoluções tecnológicas e com a redução no valor dos processadores e memórias, sistemas modernos com alto desempenho, como os sistemas de processamento paralelo, ganharam espaço e estão sendo cada vez mais requisitados pelos clientes devido ao seu poder computacional para resolver problemas complexos em áreas críticas como médica, militar, energética, simulações e previsões de tempo (MORRISON, 03). Na área de processamento paralelo, pode-se dizer que existe uma verdadeira corrida por colocar um novo produto e suas versões rapidamente no mercado, permitindo posicioná-lo de maneira vantajosa em relação aos concorrentes e torná-lo uma referência para os clientes, que passam a querer adotá-lo. Levando-se esses fatos em consideração, o problema pesquisado por esta tese é como melhorar o processo de desenvolvimento de sistemas de processamento paralelo, reduzindo o tempo de desenvolvimento de novas versões destes sistemas e sua colocação no mercado. A proposta para resolução do problema é reduzir o tempo gasto na atividade de teste, que corresponde a uma parte significativa do tempo total do projeto. Para diminuir esse tempo, o trabalho apresenta uma estratégia baseada na execução dos testes em paralelo com desenvolvimento. Esta técnica aplicada a sistemas de processamento paralelo resulta no principal objetivo do trabalho que é reduzir o tempo de desenvolvimento de novas versões destes sistemas através de uma metodologia de testes. Esta metodologia é usada para testar um dos componentes de um sistema de processamento paralelo, chamado Sistema de Controle, simultaneamente com o desenvolvimento dos outros componentes do sistema. Para testar a eficiência da solução, a metodologia foi aplicada no desenvolvimento do supercomputador da IBM Blue Gene. Como resultado, pode-se verificar uma redução de até 41% do tempo total do projeto. / Due to the great competitiveness of the market, there is an increasing demand for the production of modern computational systems with more quality in less time (CALANTONE; BENEDETTO, 00). The development time of new versions at those systems is also critical, because better performance and more functionalities than in the current version are expected, and the customers have great expectative regarding the release time. As consequence of the technological evolution and the price reduction of the processors and memories, modern systems with high performance, as the parallel processing systems, have gained more relevance and they have been progressively more requested by the customers due to their computational power to solve complex problems in critical fields such as medical, military, energy, simulation and weather forecasts (MORRISON, 03). In the parallel processing area, it is reasonable to affirm that there is a real race to release a new product and its versions earlier in the market, to get a better position and more advantages than the competitors and to become a reference for the customers, who then wish to adopt it. Taking these facts into consideration, the problem studied in this thesis is how to improve the development process of parallel processing systems, reducing the development time of new versions of these systems. The proposal to solve this problem is to reduce the test time, which corresponds to a significant part of the total project time. In order to achieve this reduction, this work presents a strategy based on the parallel execution of the test with the development. The application of this technique to the parallel processing systems results in the main objective of this work, which is to reduce the development time of new versions of these systems through a test methodology. This methodology is used to test one component of the parallel processing system, called Control System, simultaneously with the development of the other components of the system. To test the efficiency of the proposed solution, the methodology has been applied to the development of the IBM Blue Gene supercomputer. As a result, a reduction of up to 41% of the total project time could be observed.

Page generated in 0.0726 seconds