• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 293
  • 97
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 395
  • 395
  • 199
  • 132
  • 126
  • 75
  • 67
  • 53
  • 53
  • 51
  • 48
  • 39
  • 39
  • 38
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Energy-efficient memory architecture design and management for parallel video coding / Projeto e gerenciamento de arquitetura de memória energeticamente eficiente para codificadores de vídeo HEVC

Sampaio, Felipe Martin January 2018 (has links)
Esta tese de doutorado apresenta o projeto de uma arquitetura de memória híbrida energeticamente eficiente baseada em memórias do tipo scratchpad (Hy-SVM) para a codificação paralela de vídeos segundo o padrão HEVC. A codificação de vídeo se destaca como uma parte extremamente complexa nas aplicações de processamento de vídeo. O padrão HEVC traz inovações que complicam fortemente os requerimentos de memória de tais aplicações, principalmente devido a: (a) novas estruturas de codificação, as quais agravam a complexidade computacional por proporcionarem muitas modos possíveis de codificação que devem ser analisados; além do (b) suporte de alto nível à paralelização da codificação por meio do particionamento das unidades de codificação em múltiplos Tiles, o qual provê a aceleração da performance dos codificadores, porém, ao mesmo tempo, adiciona grandes desafios à infraestrutura de memória. O principal gargalo em termos de comunicação com a memória externa e de armazenamento interno (dentro do chip do codificador) é dados pelas informações dos quadros de referência: que consiste em uma série de quadros completos já codificados (e reconstruídos) que devem ser mantidos em memória e acessados de forma intensa durante o processamento dos quadros futuros. Devido ao grande volume de dados que são necessários para representar os quadros de referência, estes são tipicamente armazenados na memória externa dos codificadores (principalmente quando vídeos de alta e ultra alta resolução são processados) A arquitetura proposta Hy-SVM está inserida em um sistema de codificação baseado no particionamento dos quadros do vídeo de entrada em múltiplos Tiles, de forma a habilitar a codificação paralela das informações segundo o padrão HEVC: neste cenário, cada Tile é assinalado para uma específica unidade de processamento do codificador HEVC, o qual executa o processamento dos diferentes Tiles em paralelo. A ideias chave da arquitetura Hy- SVM incluem: projeto e gerenciamento de memórias para a aplicação específica de codificação de vídeo; uso de múltiplos níveis de memórias privadas e compartilhadas, com o objetivo de explorar o reuso de dados intra-Tile e inter-Tiles de forma combinada; uso de memórias do tipo scratchpad (SPMs) para o armazenamento interno da informações de forma eficiente em termos de consumo de energia; projeto de memórias híbridas utilizando as tecnologias SRAM e STTRAM como base. Uma metodologia de projeto é proposta para a arquitetura Hy-SVM, a qual aproveita propriedades específicas da aplicação para, de forma adequada, definir os parâmetros de projeto das memórias híbridas. De forma a prover adaptação em tempo de execução (para ambas as memórias on-chip e off-chip), a arquitetura Hy-SVM integra uma camada de gerenciamento composta pelas seguintes estratégias (1) predição do overlap (sobreposição de acessos), o qual busca identificar o comportamento dos acessos redundantes entre diferentes unidades de processamento do codificador HEVC a partir da análise dos acessos à memória das codificações dos quadros passados do vídeo, com o objetivo de aumentar o potencial de exploração do reuso de dados inter-Tiles; (2) gerenciamento dos acessos à memória externa, responsável por balancear a vazão de dados com a memória acumulada entre as múltiplas unidades de processamento do codificador HEVC paralelo, com o objetivo de melhorar o uso do barramento de comunicação com a memória externa; e (3) gerenciamento de dados das SPMs implementadas a partir de células de memória STT-RAM, o qual alivia estas células de acessos de escrita com alta atividade de chaveamento dos bits armazenados, com o objetivo de aumentar o tempo de vide destas células, bem como reduzir as penalidades relativas à ineficiência dos acessos de escrita nas memórias STT-RAM. O conhecimento específico da aplicação foi utilizado nas estratégias de gerenciamento em tempo de execução das seguintes formas: explorando parâmetros da codificação HEVC e realizando monitorando em tempo real dos acessos à memória realizados pelo codificador Estas informações são utilizadas tanto pelas técnicas de gerenciamento, quanto pelas metodologias de projeto das memórias. Baseadas nas decisões tomadas pela camada de gerenciamento, a arquitetura Hy-SVM integra unidades de gerenciamento de acessos à memória (memory access management units – MAMUs) para controlar as dinâmicas de acesso das memórias SPM privadas e compartilhadas. Além disso, unidades adaptativas de gerenciamento de potência (adaptive power management units – APMUs) são capazes de reduzir o consumo de energia interno do chip do codificador a partir das estimativas precisas de formação dos overlaps. Os resultados obtidos por meio dos experimentos realizados demonstram economias de consumo energético da arquitetura Hy-SVM, quando comparada a trabalhos relacionados, sob diversos cenários de teste. Quando comparada a estratégias de reuso de dados tradicionais para codificadores de vídeo, como o esquema Level-C, a exploração do reuso de dados combinado nos níveis intra-Tile e inter-Tiles provê 69%-79% de redução de energia. Considerando as arquiteturas de memória de vídeo com foco no padrão HEVC, os ganhos variaram desde 2,8% (pior caso) até 67% (melhor caso) Da perspectiva do consumo de energia relacionado à comunicação com a memória externa, a arquitetura Hy-SVM é capaz de melhorar o reuso de dados (por explorar também o reuso de dados inter-Tiles), resultando em um consumo de energia on-chip 11%-17% menor. Além disso, as APMUs contribuem para reduzir o consumo de energia on-chip da arquitetura Hy-SVM em 56%-95%, para os cenários de teste analisados. Desta forma, comparada aos trabalhos relacionados, a arquitetura Hy-SVM apresenta o menor consumo energético on-chip. O gerenciamento da vazão da comunicação com a memória externa é capaz de reduzir as variações de largura de banda em 37%-83%, quando comparado à ordem tradicional de processamento, para cenários de teste com 4 e 16 Tiles sendo processados em paralelo pelo codificador HEVC. O gerenciamento de dados pôde, de forma significativa, estender o tempo de vida das células de memória STT-RAM, alcançando 0,83 de tempo de vida normalizado (métrica adotada para comparação, ficando muito próximo do caso ideal). Além disso, as sobrecargas causadas pela implementação das unidades de gerenciamento não afetam de foram significativa a performance e a eficiência energética da arquitetura Hy- SVM propostas por este trabalho. / This Thesis presents the design of an energy-efficient hybrid scratchpad video memory architecture (called Hy-SVM) for parallel High-Efficiency Video Coding. Video coding stands out as a high complex part in the video processing applications. HEVC standard brought innovations that increase the memory requirements, mainly due to: (a) the novel coding structures, which aggravates the computational complexity by providing a wider range of possibilities to be analyzed; and (b) the high-level parallelism features provided by the Tiles partitioning, which provides performance acceleration, but, at the same time, strongly adds hard challenges to the memory infrastructure. The main bottleneck in terms of external memory transmission and on-chip storage is the reference frames data: which consists of already coded (and reconstructed) entire frames that must be stored and intensively accessed during the encoding process of future frames. Due to the large volume of data required to represent the reference frames, they are typically stored in the external memory (especially when highdefinition videos are targeted). The proposed Hy-SVM architecture is inserted in a video coding system, which is based on multiple Tiles partitioning to enable parallel HEVC encoding: each Tile is assigned to a specific processing unit. The key ideas of Hy-SVM include: applicationspecific design and management; combined multiple levels of private and shared memories that jointly exploit intra-Tile and inter-Tiles data reuse; scratchpad memories (SPMs) as energyefficient on-chip data storage; combined SRAM and STT-RAM hybrid memory (HyM) design We propose a design methodology for Hy-SVM that leverages application-specific properties to properly define the HyMs parameters. In order to provide run-time adaptation (for both offand on-chip parts), Hy-SVM integrates a memory management layer composed of: (1) overlap prediction, which has the goal of identifying the redundant memory access behavior by analyzing monitored past frames encoding to increase inter-Tiles data reuse exploitation; (2) memory pressure management, which aims on balancing the Tiles-accumulated memory pressure targeting on improving external memory communication channel usage; and (3) lifetime-aware data management scheme that alleviates STT-RAM SPMs of high bit-toggling write accesses to increase the their cells lifetime, as well as to reduce overhead issues related to poor write characteristics of STT-RAM. Application-specific knowledge was exploited by inheriting HEVC properties and performing run-time monitoring of memory accesses. Such information is used to properly design the on-chip video memories, as well as being utilized as input parameters of the run-time memory management layer. Based on the run-time decisions from the proposed Hy-SVM management strategies, Hy-SVM integrates distributed memory access management units (MAMUs) to control the access dynamics of private and shared SPMs. Additionally, adaptive power management units (APMUs) are able to strongly reduce on-chip energy consumption due to an accurate overlap prediction The experimental results demonstrate Hy-SVM overall energy savings over related works under various HEVC encoding scenarios. Compared to traditional data reuse schemes, like Level-C, the combined intra-Tile and inter-Tiles data reuse provides 69%-79% of energy reduction. Regarding related HEVC video memory architectures, the savings varied from 2.8% (worst case) to 67% (best case). From the external memory perspective, Hy-SVM can improve data reuse (by also exploiting inter-Tiles data redundancy), resulting on 11%-71%% of reduced off-chip energy consumption. Additionally, our APMUs contribute by reducing on-chip energy consumption of Hy-SVM by 56%-95%, for the evaluated HEVC scenarios. Thus, compared to related works, Hy-SVM presents the lowest on-chip energy consumption. The memory pressure management scheme can reduce the variations in the memory bandwidth by 37%-83% when compared to the traditional raster scan processing for 4- and 16-core parallelized HEVC encoder. The lifetime-aware data management significantly extends the STT-RAM lifetime, achieving 0.83 of normalized lifetime (near to the optimal case). Moreover, the overhead of implementing our management units insignificantly affects the performance and energyefficiency of Hy-SVM.
322

Some visualization models applied to the analysis of parallel applications / Alguns modelos de visualização aplicados para a análise de aplicações paralelas / Quelques modèles de visualisation pour l’analyse des applications parallèles

Schnorr, Lucas Mello January 2009 (has links)
Les systèmes distribués, tels que les grilles, sont utilisés aujourd’hui pour l’exécution des grandes applications parallèles. Quelques caractéristiques de ces systèmes sont l’interconnexion complexe de ressources qui pourraient être présent et de la facile passage à l’échelle. La complexité d’interconnexion vient, par exemple, d’un nombre plus grand de directives de routage pour la communication entre les processus et une latence variable dans le temps. La passage à l’échelle signifie que des ressources peuvent être ajoutées indéfiniment simplement en les reliant à l’infrastructure existante. Ces caractéristiques influencent directement la façon dont la performance des applications parallèles doit être analysée. Les techniques de visualisation traditionnelles pour cette analyse sont généralement basées sur des diagrammes de Gantt que disposent la liste des composants de l’application verticalement et metent la ligne du temps sur l’axe horizontal. Ces représentations visuelles ne sont généralement pas adaptés à l’analyse des applications exécutées en parallèle dans les grilles. La première raison est qu’elles n’ont pas été conçues pour offrir aux développeurs une analyse qui montre aussi la topologie du réseau des ressources. La deuxième raison est que les techniques de visualisation traditionnels ne s’adaptent pas bien quand des milliers d’entités doivent être analysés ensemble. Cette thèse tente de résoudre les problèmes des techniques traditionnelles dans la visualisation des applications parallèles. L’idée principale est d’exploiter le domaine de la visualisation de l’information et essayer d’appliquer ses concepts dans le cadre de l’analyse des programmes parallèles. Portant de cette idée, la thèse propose deux modèles de visualisation : les trois dimensions et le modèle d’agrégation visuelle. Le premier peut être utilisé pour analyser les programmes parallèles en tenant compte de la topologie du réseau. L’affichage lui-même se compose de trois dimensions, où deux sont utilisés pour indiquer la topologie et la troisième est utilisée pour représenter le temps. Le second modèle peut être utilisé pour analyser des applications parallèles comportant un très grand nombre de processsus. Ce deuxième modèle exploite une organisation hiérarchique des données utilisée par une technique appelée Treemap pour représenter visuellement la hiérarchie. Les implications de cette thèse sont directement liées à l’analyse et la compréhension des applications parallèles exécutés dans les systèmes distribués. Elle améliore la compréhension des modes de communication entre les processus et améliore la possibilité d’assortir les motifs avec cette topologie de réseau réel sur des grilles. Bien que nous utilisons abondamment l’exemple de la topologie du réseau, l’approche pourrait être adapté, avec presque pas de changements, à l’interconnexion fourni par un middleware d’une interconnexion logique. Avec la technique d’agrégation, les développeurs sont en mesure de rechercher des patterns et d’observer le comportement des applications à grande échelle. / Sistemas distribuídos tais como grids são usados hoje para a execução de aplicações paralelas com um grande número de processos. Algumas características desses sistemas são a presença de uma complexa rede de interconexão e a escalabilidade de recursos. A complexidade de rede vem, por exemplo, de largura de banda e latências variáveis ao longo do tempo. Escalabilidade é a característica pela qual novos recursos podem ser adicionados em um grid apenas através da conexão em uma infraestrutura pré-existente. Estas características influenciam a forma como o desempenho de aplicações paralelas deve ser analisado. Esquemas tradicionais de visualização de desempenho são usualmente baseados em gráficos Gantt com uma dimensão para listar entidades monitoradas e outra para o tempo. Visualizações como essa não são apropriadas para a análise de aplicações paralelas executadas em grid. A primeira razão para tal é que elas não foram concebidas para oferecer ao desenvolvedor uma análise que mostra a topologia dos recursos e a relação disso com a aplicação. A segunda razão é que técnicas tradicionais não são escaláveis quando milhares de entidades monitoradas devem ser analisadas conjuntamente. Esta tese tenta resolver estes problemas encontrados em técnicas de visualização tradicionais para a análise de aplicações paralelas. A idéia principal consiste em explorar técnicas da área de visualização da informação e aplicá-las no contexto de análise de programas paralelos. Levando em conta isto, esta tese propõe dois modelos de visualização: o de três dimensões e o modelo de agregação visual. O primeiro pode ser utilizado para analisar aplicações levando-se em conta a topologia da rede dos recursos. A visualização em si é composta por três dimensões, onde duas são usadas para mostrar a topologia e a terceira é usada para representar o tempo. O segundo modelo pode ser usado para analisar aplicações paralelas com uma grande quantidade de processos. Ela explora uma organização hierárquica dos dados de monitoramento e uma técnica de visualização chamada Treemap para representar visualmente a hierarquia. Os dois modelos representam uma nova forma de analisar aplicação paralelas visualmente, uma vez que eles foram concebidos para larga-escala e sistemas distribuídos complexos, como grids. As implicações desta tese estão diretamente relacionadas à análise e ao entendimento do comportamento de aplicações paralelas executadas em sistemas distribuídos. Um dos modelos de visualização apresentados aumenta a compreensão dos padrões de comunicação entre processos e oferece a possibilidade de observar tal padrão com a topologia de rede. Embora a topologia de rede seja usada, a abordagem pode ser adaptada sem grandes mudanças para levar em conta interconexões lógicas de bibliotecas de comunicação. Com a técnica de agregação apresentada nesta tese, os desenvolvedores são capazes de observar padrões de aplicações paralelas de larga escala. / Highly distributed systems such as grids are used today for the execution of large-scale parallel applications. Some characteristics of these systems are the complex resource interconnection that might be present and the scalability. The interconnection complexity comes from the different number of hops to provide communication among applications processes and differences in network latencies and bandwidth. The scalability means that the resources can be added indefinitely just by connecting them to the existing infrastructure. These characteristics influence directly the way parallel applications performance must be analyzed. Current traditional visualization schemes to this analysis are usually based on Gantt charts with one dimension to list the monitored entities and the other dimension dedicated to time. These visualizations are generally not suited to parallel applications executed in grids. The first reason is that they were not built to offer to the developer an analysis that also shows the network topology of the resources. The second reason is that traditional visualization techniques do not scale well when thousands of monitored entities must be analyzed together. This thesis tries to overcome the issues encountered on traditional visualization techniques for parallel applications. The main idea behind our efforts is to explore techniques from the information visualization research area and to apply them in the context of parallel applications analysis. Based on this main idea, the thesis proposes two visualization models: the three-dimensional and the visual aggregation model. The former might be used to analyze parallel applications taking into account the network topology of the resources. The visualization itself is composed of three dimensions, where two of them are used to render the topology and the third is used to represent time. The later model can be used to analyze parallel applications composed of several thousands of processes. It uses hierarchical organization of monitoring data and an information visualization technique called Treemap to represent that hierarchy. Both models represent a novel way to visualize the behavior of parallel applications, since they are conceived considering large-scale and complex distributed systems, such as grids. The implications of this thesis are directly related to the analysis and understanding of parallel applications executed in distributed systems. It enhances the comprehension of patterns in communication among processes and improves the possibility of matching this patterns with real network topology of grids. Although we extensively use the network topology example, the approach could be adapted with almost no changes to the interconnection provided by a middleware of a logical interconnection. With the scalable visualization technique, developers are able to look for patterns and observe the behavior of large-scale applications.
323

Algoritmos busca tabu paralelos aplicados ao planejamento da expansão da transmissão de energia elétrica /

Mansano, Elisângela Menegasso. January 2008 (has links)
Orientador: Sérgio Azevedo de Oliveira / Banca: José Roberto Sanches Mantovani / Banca: Fujio Sato / Resumo: A metaheurística Busca Tabu, é uma técnica baseada em parâmetros de controle, a estrutura de vizinhança e seu próprio algoritmo com poderosas estratégias de busca. Nesta técnica, dada uma configuração, deseja-se passar ao melhor vizinho através da entrada e saída de ramos, obtendo assim a configuração incumbente. Com essa configuração que é considerada como a melhor configuração encontrada até o momento, e mesmo sendo um bom valor o sistema continua a busca procurando mais configurações até encontrar uma que seja melhor que as já encontradas até o momento. As versões paralelas dos algoritmos foram desenvolvidas a partir de um algoritmo BT serial avançado, sob o paradigma de programacão SPMD ("Single Program, Multiple Data"), e as mesmas foram testadas para sistemas testes de pequeno porte (Garver - 6 barras/15 ramos), médio porte (Sul brasileiro - 46 barras/79 ramos) e grande porte (Norte-Nordeste brasileiro - 87 barras/179 ramos) e seus resultados comparados com o resultado do algoritmo BT serial. Esta comparacão mostrou que os algoritmos propostos obtiveram um melhor desempenho, com alta eficiência. / Abstract: This paper deals with the use of Tabu Search metaheurístic applied to solving the problem of transmission system expansion planning (TSEP), analyzed on the static point of view, with the development of parallel algorithms in the environment MPI (?Message Passing Interface "). Tabu Search metaheurístic is a technique based on the control parameters, the structure of the neighborhood and its own algorithm with powerful search strategies. In this technique, given a configuration we want to progress to the best neighbor across the entrance and exit of branches, so getting the configuration incumbent. With this configuration which is regarded as the best configuration found so far, and this is a very good value, the system continuously seeking more settings to find a better than those found throughout the search. The parallel versions of the algorithms were developed from an advanced TS series algorithm on the paradigm of programming SPMD (Single Program Multiple Data), and they were tested for test systems small scale (Garver - bars 6/15 branches), medium scale (South Brazilian - 46 bars/79 branches) and large scale (North-Northeast Brazilian - 87 bars/179 branches), and their results compared with the result of the series algorithm TS. This comparison showed that the proposed algorithms obtained best performance and high efficiency. / Mestre
324

Propriedades espaciais das respostas isoladas de cones L e M ao eletrorretinograma: implicações sobre a atividade das vias visuais paralelas

JACOB, Mellina Monteiro 16 June 2015 (has links)
Submitted by Cássio da Cruz Nogueira (cassionogueirakk@gmail.com) on 2017-03-22T12:38:34Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_PropriedadesEspaciaisRespostas.pdf: 15352346 bytes, checksum: 42a960e0c4244827df1d88520a168e34 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-03-24T16:29:43Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_PropriedadesEspaciaisRespostas.pdf: 15352346 bytes, checksum: 42a960e0c4244827df1d88520a168e34 (MD5) / Made available in DSpace on 2017-03-24T16:29:43Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_PropriedadesEspaciaisRespostas.pdf: 15352346 bytes, checksum: 42a960e0c4244827df1d88520a168e34 (MD5) Previous issue date: 2015-06-16 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / Foi estudada a organização espacial dos sinais de cones L e M ao eletrorretinograma (ERG), refletindo a atividade das vias pós-receptorais magno e parvocelular. Para tal, foram criados estímulos senoidais que isolavam as respostas de cones L e M e que eram emitidos por um estimulador que utilizava quatro primárias de LED, permitindo que fosse aplicado o paradigma da tripla substituição silenciosa. As frequências temporais utilizadas foram de 8 e 12 Hz, para refletir a atividade de oponência de cones, e 30, 36 e 48 Hz para refletir a atividade de luminância. As respostas de eletrorretinograma foram registradas com estímulos que alcançavam todo o campo visual (campo total) e por estímulos que variavam em configuração espacial, entre estímulos circulares e anelares com diâmetros diferentes. Os resultados obtidos confirmam a presença de dois mecanismos de resposta diferentes a estímulos com frequências temporais intermediárias e altas. As respostas de ERG medidas em frequências temporais altas dependeram fortemente da configuração espacial de estimulação. Nas condições registradas com campo total (Full-field electroretinogram, FF), as respostas de cones L foram substancialmente maiores do que as respostas de cones M na mesma condição, e do que as respostas de cones L a estímulos menores. Já as respostas de cones M aos estímulos com campo total e com diâmetro de 70º, apresentaram valores de amplitude similares. As respostas de cones L e M medidos com frequências temporais de 8 e 12 Hz, apresentaram amplitudes similares, e estavam aproximadamente em contra-fase. As amplitudes foram constantes para a maioria das configurações de estimulação. Os resultados indicaram que, quando as respostas de ERG refletem a atividade de luminância, elas estão correlacionadas positivamente com o tamanho do estímulo. Além de 35º de excentricidade retiniana, a retina contém principalmente cones L. Estímulos pequenos são suficientes para obter respostas máximas de ERG em frequências temporais intermediárias, onde o ERG é sensível também ao processamento de oponência de cones. / We studied the spatial arrangement of L- and M-cone driven electroretinograms (ERGs) reflecting the activity of magno- and parvocellular pathways. L- and M-cone isolating sine wave stimuli were created with a four primary LED stimulator using triple silent substitution paradigms. Temporal frequencies were 8 and 12 Hz, to reflect cone opponent activity, and 30, 36 and 48 Hz to reflect luminance activity. The responses were measured for full-field stimuli and for different circular and annular stimuli. The ERG data confirm the presence of two different mechanisms at intermediate and high temporal frequencies. The responses measured at high temporal frequencies strongly depended upon spatial stimulus configuration. In the full-field conditions, the L-cone driven responses were substantially larger than the full-field M-cone driven responses and also than the L-cone driven responses with smaller stimuli. The M-cone driven responses at full-field and with 70° diameter stimuli displayed similar amplitudes. The L- and M-cone driven responses measured at 8 and 12 Hz were of similar amplitude and approximately in counter-phase. The amplitudes were constant for most stimulus configurations. The results indicate that, when the ERG reflects luminance activity, it is positively correlated with stimulus size. Beyond 35° retinal eccentricity, the retina mainly contains L-cones. Small stimuli are sufficient to obtain maximal ERGs at low temporal frequencies where the ERGs are also sensitive to cone-opponent processing.
325

Simulação, em ambiente computacional, do método de Wenner e obtenção da resistência de um sistema de aterramento usando FDTD

SOUZA JÚNIOR, Emanuel dos Santos 21 September 2007 (has links)
Submitted by camilla martins (camillasmmartins@gmail.com) on 2017-03-27T12:29:00Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_SimulacaoAmbienteComputacional.pdf: 2208271 bytes, checksum: 587823a8c5179d1f47a482ca42f9fc3c (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-03-27T15:57:27Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_SimulacaoAmbienteComputacional.pdf: 2208271 bytes, checksum: 587823a8c5179d1f47a482ca42f9fc3c (MD5) / Made available in DSpace on 2017-03-27T15:57:27Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_SimulacaoAmbienteComputacional.pdf: 2208271 bytes, checksum: 587823a8c5179d1f47a482ca42f9fc3c (MD5) Previous issue date: 2007-09-21 / Este trabalho apresenta uma nova metodologia computacional, para a comprovação das práticas de estratificação do solo, pelo método de Wenner e o cálculo da resistência de terra pelo método Volt-Amperímetro. Esta metodologia permite ao projetista de sistema de aterramento avaliar com precisão o seu desempenho e propor soluções que melhor atendam aos requisitos de economia e segurança. A base de cálculo que relacionam os campos elétricos e magnéticos são as equações diferenciais de Maxwell, que embora concisas e muito elegantes, são de difícil resolução em problemas reais de engenharia. Isso se deve ao fato de, nos casos reais, a resolução ser num domínio contínuo e de geometria complexa. O método FDTD transforma essas equações diferenciais, no domínio contínuo, em equações algébricas através da discretização do domínio em estudo, essa transformação em equações algébricas em todo domínio discretizado leva a um sistema matricial de grandes dimensões (dezenas a centenas de milhares de linhas e colunas), o qual, uma vez resolvido, conduz aos resultados pretendidos as quais são escritas em um sistema de coordenadas gerais e resolvidas numericamente. No método FDTD emprega-se técnicas numéricas de mapeamento de campo para a determinação dos campos elétrico e magnético, o que permite o conhecimento da difusão de corrente ao longo do volume estudado. A região de influência do aterramento (domínio de análise) é dividida em pequenos elementos de volume na forma de hexaedros, possibilitando o cálculo dos campos em suas faces. Um trabalho de pósprocessamento permite mapear os campos e a distribuição de correntes por todo o domínio. Como resultado são obtidos os valores de tensão, corrente e da resistência de terra em todo o volume. O código computacional utilizado para modelar o problema da resistência de um sistema de aterramento e simulação do método de Wenner , foi desenvolvido em FORTRAN e implementado para ser executado utilizando-se computação paralela em cluster tipo Beowulf de 10 nós onde os resultados foram comparados com os métodos analíticos que já existe na literatura e são apresentados no capítulo VI. / This work presents a new computational methodology, for the attesting practices of soil bedding by the method of Wenner and the calculation of earth resistance by method Volt-ammeter. This methodology allows the grounding planner system evaluate his acting accurately and propose solutions that assist the requirements of economy and safety. The calculation base that relates the electric and magnetic fields is the differential equations of Maxwell, which, although concise and very elegant, are from difficult resolution in real problems of engineering. That is due to the fact that, in the real cases, the resolution is in a continuous domain and of complex geometry. The method FDTD transforms these differential equations, at continuous domain, in algebraic equations through the domain division in study. This transformation in algebraic equations in the whole divided domain takes to a principal system of great dimensions (dozens to hundreds of thousands of lines and columns), which, once resolved, it leads to the intended results that are written in a system of general coordinates and resolved numerically. In the method FDTD are used numeric field map techniques for determination of electric and magnetic fields, which allows the knowledge of current diffusion along the studied region. The region of grounding influence (analysis domain) is divided in small cells in the form of hexahedrons, making possible the calculation of the fields in their faces. A powder-processing work allows mapping the fields and currents distribution for the whole domain. As result, are obtained tension, current and grounding resistance values in the whole analysis domain. The code computacional used to model the resistance problem of a grounding and simulation of the method of Wenner, was developed in FORTRAN and implemented to be executed using parallel computation in cluster type Beowulf 10 knots, where the results were compared with analytical methods that already exist in the literature and are presented in the chapter VI.
326

Ganho de contraste do potencial cortical provocado visual multifocal: efeitos da excentricidade e do modo de estimulação

SILVA, Veronica Gabriela Ribeiro da 29 November 2016 (has links)
Submitted by Cássio da Cruz Nogueira (cassionogueirakk@gmail.com) on 2017-03-27T14:41:27Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_GanhoContrastePotencial.pdf: 2379799 bytes, checksum: b7c8f6c20a4ffc70c03cd986fadbb07f (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-04-11T15:56:44Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_GanhoContrastePotencial.pdf: 2379799 bytes, checksum: b7c8f6c20a4ffc70c03cd986fadbb07f (MD5) / Made available in DSpace on 2017-04-11T15:56:44Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_GanhoContrastePotencial.pdf: 2379799 bytes, checksum: b7c8f6c20a4ffc70c03cd986fadbb07f (MD5) Previous issue date: 2016-11-29 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste estudo foram avaliadas as possíveis contribuições das vias paralelas visuais M e P para o potencial cortical provocado visual em diferentes excentricidades visuais usando o ganho de contraste como indicador fisiológico no primeiro (K2.1) e segundo (K2.2) slices do kernel de segunda ordem dos potenciais corticais provocados multifocais (mfVEPs). O trabalho foi aprovado pelo comitê de ética em pesquisa (023/2011 – CEP/NMT) do Núcleo de Medicina Tropical, Universidade Federal do Pará. Nove sujeitos (22,5 ± 3,7 anos de idade) com visão normal foram testados. O estímulo foi gerado através do programa VERIS (EDI, San Mateo, CA) e consistiu em um tabuleiro de dardos ocupando 44° do ângulo visual, com 60 setores escalonados considerando a magnificação cortical, onde cada setor continha 16 quadrados (8 pretos e 8 brancos) com contraste espacial de luminância e luminância média de 40 cd/m², mostrados através de um monitor CRT, situado a uma distância de 32 cm do indivíduo testado. Cada setor foi temporalmente modulado por uma sequência-m pseudo-aleatória no modo de apresentação de padrão reverso e padrão de pulso em cinco contrastes de Michelson entre 6,25-100%. Foram extraídos os dados de K2.1 e K2.2 dos mfVEPs. Calcularam-se os valores médios de amplitude de registros correspondentes a 6 diferentes anéis de mesma excentricidade no campo visual (A1 e A6 sendo os anéis mais interno e externo, respectivamente) em função do contraste do estímulo. Os dados de amplitude em função do contraste do estímulo foram modelados por funções de Michaelis-Menten. A constante de semissaturação (C50) do modelo foi o indicador inversamente proporcional do ganho de contraste da função. Em K2.1, respostas para o padrão reverso apresentaram um alto valor do C50 (média, desvio padrão: 35,5% ± 9,3), indicando baixo ganho de contraste na função. Para os anéis mais externos (A2 – A6), foram estimados C50 inferiores aos estimados em A1 (média, desvio padrão: A2: 26,5% ± 6,5; A3: 22,4% ± 8,8; A4: 18,4% ± 4,4; A5: 20,6% ± 9,3; A6: 26,7% ± 12), representando funções de alto ganho de contraste. Em K2.2, no anel central (A1) e no mais periférico (A6), as funções de resposta ao contraste geradas pelo padrão reverso apresentaram um alto valor do C50 (média, desvio padrão: 38,4% ± 4,2; 37,5% ± 10,2), indicando baixo ganho de contraste na função. De A2 a A5, originou funções com valores de C50 inferiores aos estimados em A1 (média, desvio padrão: A2: 27,4% ± 7,4; A3: 20,2% ± 4,9; A4: 22,4% ± 4,2; A5: 18,7% ± 3,2; A6: 23,1% ± 8,9), representando funções de alto ganho de contraste. Para o padrão de pulso, no K2.1 e K2.2, no anel central (A1) e no K2.2 no anel mais externo (A6), as funções de resposta ao contraste geradas não apresentaram valores significativos e confiáveis para a análise. Em K2.1 os anéis intermediários (A2 – A5) originaram funções com alto C50 (média, desvio padrão: A2: 44,7% ± 10,5; A3: 38,3% ± 12,1; A4: 45,8% ± 12,1; A5: 49,4% ± 16,1; A6: 47,8% ± 14,7), representando funções de baixo ganho de contraste. Em K2.2, nos anéis intermediários (A2 – A5, exceto em A4) a estimulação originou valores de C50 maiores do que em K2.1 (média, desvio padrão: A2: 50,2% ± 10,3; A3: 48,2% ± 11,1; A4: 28,5% ± 4,2; A5: 54,3% ± 16,2), representando funções de baixo ganho de contraste. Para o padrão reverso, os resultados sugerem a predominância da via M nos anéis excêntricos intermediários e da via P no anel mais central (A1) e no mais periférico (A6). Para o padrão de pulso, sugere predominância da via P em todas as excentricidades. / This study evaluated effects of eccentricity and mode presentation on the multifocal visual evoked potential (mfVEPS) recordings extracted by second-order kernels and its possible contributions from parallel visual pathways. Nine subjects (22.5 ± 3.7 years-old) were studied. All the subjects had 20/20 or corrected visual acuity and no previous history of neuro-ophtahlmic diseases or degenerative diseases. The subjects were tested with non dilated pupil in a monocular way. All the experimental procedures agreed to the tenets of Helsinki and were approved by Committee for Ethic in Research of Nucleus of Tropical Medicine (023/2011 protocol, Federal University of Pará, Belém, PA, Brazil). A CRT monitor displayed a 22º radius, 60 sectors dartboard, each sector with 16 checks (8 white and 8 black), pattern mean luminance of 40 cd/m2. The pattern selection to be shown in each sector was temporally modulated according to a binary pseudorandom m-sequence. Two stimulation protocols were used and we called them as pattern reversal and pattern pulse. Stimulus was presented at five Michelson contrast levels (100%, 50%, 25%, 12.5%, and 6.25%) in two trials with increasing and decreasing contrast order. The subject was instructed to keep the eye in a red cross (1º) placed at the center of the screen. Veris 6.01 was used to configure the stimuli. mfVEPs were recorded with gold cup electrodes: the reference electrode was placed at the inion; the recording electrodes were placed at, 4 cm above the inion (channel 1), 1 cm above and 4 cm to the right of the inion (channel 2), 1 cm above and 4 cm to the left of the inion (channel 3). Ground surface electrode was placed at the forehead. Skin impedance was kept below 5 KOhm. Recordings were amplified 100.000x, band-pass filtered between 3 and 100 Hz. The Veris 6.1 performed an offline low-pass filtering at 35 Hz. Veris 6.1 was used to extract first (K2.1) and second (K2.2) slices from second-order kernels data from original channels. Using MATLAB routines three additional channels were computed from the subtraction of the three original channels. For each subject, a signal-to-noise ratio (SNR) evaluation was performed over the averaged data of two trials in each one of the 6 channels. We measured the RMS amplitude of signal and noise interval of each recording. Finally, we analyzed the waveforms with best SNR for each sector. Mean RMS amplitude for each of six eccentric rings (R1 and R6 are the inner and outer rings, respectively) and for all rings together as a function of stimulus contrast was modeled using Michaelis-Menten functions. Semi-saturation constant (C50) of the contrast-response function was used as indicator of response contrast gain. For pattern reversal protocol contrast-response functions from K2.1/K2.2 had the following C50 values: R1: 35,5% ± 9,3; R2: 26,5% ± 6,5; R3: 22,4% ± 8,8; R4: 18,4% ± 4,4; R5: 20,6% ± 9,3; R6: 26,7% ± 12 / R1: 38,4% ± 4,2; R2: 27,4% ± 7,4; R3: 20,2% ± 4,9; R4: 22,4% ± 4,2; R5: 18,7% ± 3,2; R6: 23,1% ± 8,9. For pattern pulse protocol contrast-response functions from K2.1/K2.2 had the following C50 values: R1: 0; R2: 44,7% ± 10,5; R3: 38,3% ± 12,1; R4: 45,8% ± 12,1; R5: 49,4% ± 16,1; R6: 47,8% ± 14,7 / R1: 0; R2: 50,2% ± 10,3; R3: 48,2% ± 11,1; R4: 28,5% ± 4,2; R5: 54,3% ± 16,2; R6: 0. Two contrast sensitivity mechanisms contribute to mfVEPs elicited by stimuli located in the central visual field, one mechanism with higher contrast gain (pattern reversal mfVEP) and other mechanism with low contrast gain (pattern pulse). For stimulus at the periphery visual field, mechanism with high contrast gain contributed to the generation of mfVEPs elicited by all stimulation modes.
327

Análise tridimensional de túneis considerando o comportamento dependente do tempo na interação maciço-suporte / Tunnel\'s analysis considering time-dependent behaviour in the ground-support interaction

Gomes, Ricardo Adriano Martoni Pereira 29 September 2006 (has links)
A utilização de concreto projetado como suporte de túneis é uma prática amplamente difundida no mundo inteiro. Este tipo material possui a característica de começar a agir estruturalmente desde pequenas idades. Apesar disso, os correntes processos de dimensionamento de suportes negligenciam o desenvolvimento de suas propriedades com o tempo, em acoplamento aos efeitos tridimensionais da região onde se localiza a frente de escavação. O presente trabalho tem a finalidade de relatar os procedimentos utilizados na análise da influência de alguns parâmetros da interação maciço - suporte, sobre os esforços solicitantes finais do suporte de um túnel, tanto para o caso de concreto projetado, com suas propriedades dependentes do tempo, quanto para materiais com propriedades constantes. São elaboradas soluções adimensionais para o problema da quantificação de esforços solicitantes de compressão e flexão no suporte. A maioria das simulações realizadas para atingir essa meta foi conduzida com auxílio de técnicas de processamento paralelo. / Shotcrete has been more and more used worldwide for tunnel support. This kind of material has the characteristics of starting to act structurally since early ages. Nevertheless, the current processes of support design neglect the development of its properties after some time in connection to the 3D effects of the region where the face of the tunnel is located. The present work relates the procedures adopted in analyzing the influence of some ground-support interaction parameters on the support structure internal forces of a tunnel, not only when shotcrete is used, with its time-dependent properties, but for materials with constant properties as well. Dimensionless solutions are developed for the support thrust and bending moments quantification problem. Most of the numerical simulations performed to reach this purpose were carried out by means of parallel processing techniques.
328

"Implementação paralela da transformada de distância euclidiana exata" / "Parallel implementation of the exact Euclidean distance transform"

Torelli, Julio Cesar 19 August 2005 (has links)
Transformada de distância euclidiana (TDE) é a operação que converte uma imagem binária composta de pontos de objeto e de fundo em outra, chamada mapa de distâncias euclidianas, onde o valor armazenado em cada ponto corresponde à menor distância euclidiana entre este ponto e o fundo da imagem. A TDE é muito utilizada em visão computacional, análise de imagens e robótica, mas é uma transformação muito demorada, principalmente em imagens 3-D. Neste trabalho são utilizados dois tipos de computadores paralelos, (i) multiprocessadores simétricos (SMPs) e (ii) agregados de computadores, para reduzir o tempo de execução da TDE. Dois algoritmos de TDE são paralelizados. O primeiro, um algoritmo de TDE por varredura independente, é paralelizado em um SMP e em um agregado. O segundo, um algoritmo de TDE por propagação ordenada, é paralelizado no agregado. / The Euclidean distance transform is the operation that converts a binary image made of object and background pixels into another image, the Euclidean distance map, where each pixel has a value corresponding to the Euclidean distance from this pixel to the background. The Euclidean distance transform has important uses in computer vision, image analysis and robotics, but it is time-consuming, mainly when processing 3-D images. In this work two types of parallel computers are used to speed up the Euclidean distance transform, (i) symmetric multiprocessors (SMPs) and (ii) clusters of workstations. Two algorithms are parallelized. The first one, an independent line-column Euclidean distance transform algorithm, is parallelized on a SMP, and on a cluster. The second one, an ordered propagation Euclidean distance transform algorithm, is paralellized on a cluster.
329

Processamento eficiente de junção espacial em ambiente paralelo e distribuído baseado em Spatialhadoop

Mendes, Eduardo Fernando 17 February 2017 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-08-17T12:19:08Z No. of bitstreams: 1 TeseEFM.pdf: 31334481 bytes, checksum: 966afb8a981794db0aee3bc97ee11d5b (MD5) / Approved for entry into archive by Ronildo Prado (producaointelectual.bco@ufscar.br) on 2017-10-25T17:55:23Z (GMT) No. of bitstreams: 1 TeseEFM.pdf: 31334481 bytes, checksum: 966afb8a981794db0aee3bc97ee11d5b (MD5) / Approved for entry into archive by Ronildo Prado (producaointelectual.bco@ufscar.br) on 2017-10-25T17:55:35Z (GMT) No. of bitstreams: 1 TeseEFM.pdf: 31334481 bytes, checksum: 966afb8a981794db0aee3bc97ee11d5b (MD5) / Made available in DSpace on 2017-10-25T18:01:51Z (GMT). No. of bitstreams: 1 TeseEFM.pdf: 31334481 bytes, checksum: 966afb8a981794db0aee3bc97ee11d5b (MD5) Previous issue date: 2017-02-17 / Não recebi financiamento / The huge volume of spatial data generated and made available in recent years from different sources, such as remote sensing, smart phones, space telescopes, and satellites, has motivated researchers and practitioners around the world to find out a way to process efficiently this huge volume of spatial data. Systems based on the MapReduce programming paradigm, such as Hadoop, have proven to be an efficient framework for processing huge volumes of data in many applications. However, Hadoop has showed not to be adequate in native support for spatial data due to its central structure is not aware of the spatial characteristics of such data. The solution to this problem gave rise to SpatialHadoop, which is a Hadoop extension with native support for spatial data. However, SpatialHadoop does not enable to jointly allocate related spatial data and also does not take into account any characteristics of the data in the process of task scheduler for processing on the nodes of a cluster of computers. Given this scenario, this PhD dissertation aims to propose new strategies to improve the performance of the processing of the spatial join operations for huge volumes of data using SpatialHadoop. For this purpose, the proposed solutions explore the joint allocation of related spatial data and the scheduling strategy of MapReduce for related spatial data also allocated in a jointly form. The efficient data access is an essential step in achieving better performance during query processing. Therefore, the proposed solutions allow the reduction of network traffic and I/O operations to the disk and consequently improve the performance of spatial join processing by using SpatialHadoop. By means of experimental evaluations, it was possible to show that the novel data allocation policies and scheduling tasks actually improve the total processing time of the spatial join operations. The performance gain varied from 14.7% to 23.6% if compared to the baseline proposed by CoS-HDFS and varied from 8.3% to 65% if compared to the native support of SpatialHadoop. / A explosão no volume de dados espaciais gerados e disponibilizados nos últimos anos, provenientes de diferentes fontes, por exemplo, sensoriamento remoto, telefones inteligentes, telescópios espaciais e satélites, motivaram pesquisadores e profissionais em todo o mundo a encontrar uma forma de processar de forma eficiente esse grande volume de dados espaciais. Sistemas baseados no paradigma de programação MapReduce, como exemplo Hadoop, provaram ser durante anos um framework eficiente para o processamento de enormes volumes de dados em muitas aplicações. No entanto, o Hadoop demonstrou não ser adequado no suporte nativo a dados espaciais devido a sua estrutura central não ter conhecimento das características espaciais desses dados. A solução para este problema deu origem ao SpatialHadoop, uma extensão do Hadoop, com suporte nativo para dados espaciais. Entretanto o SpatialHadoop não é capaz de alocar conjuntamente dados espaciais relacionados e também não leva em consideração qualquer característica dos dados no processo de escalonamento das tarefas para processamento nos nós de um cluster de computadores. Diante deste cenário, esta tese tem por objetivo propor novas estratégias para melhorar o desempenho do processamento das operações de junção espacial para grandes volumes de dados usando o SpatialHadoop. Para tanto, as soluções propostas exploram a alocação conjunta dos dados espaciais relacionados e a estratégia de escalonamento de tarefas MapReduce para dados espaciais relacionados também alocados de forma conjunta. Acredita-se que o acesso eficiente aos dados é um passo essencial para alcançar um melhor desempenho durante o processamento de consultas. Desta forma, as soluções propostas permitem a redução do tráfego de rede e operações de Entrada/Saída para o disco e consequentemente melhoram o desempenho no processamento de junção espacial usando SpatialHadoop. Por meio de testes de desempenho experimentais foi possível comprovar que as novas políticas de alocação de dados e escalonamento de tarefas de fato melhoram o tempo total de processamento das operações de junção espacial. O ganho de desempenho variou de 14,7% a 23,6% com relação ao baseline proposto por CoS-HDFS e variou de 8,3% a 65% com relação ao suporte nativo do SpatialHadoop.
330

MPI sobre MOM para suportar log de mensagens pessimista remoto / MPI over MOM to support remote pessimistic message logging

Machado, Caciano dos Santos January 2010 (has links)
O aumento crescente no número de processadores das arquiteturas paralelas que estão no topo dos rankings de desempenho, apesar de permitir uma maior capacidade de processamento, também traz consigo um aumento na taxa de falhas diretamente proporcional ao número de processadores. Atualmente, as técnicas de tolerância a falhas com recuperação retroativa são as mais empregadas em aplicações MPI, principalmente a técnica de checkpoint coordenado. No entanto, previsões afirmam que essa última técnica será inadequada para as arquiteturas emergentes. Em contrapartida, as técnicas de log de mensagens possuem características que as tornam mais apropriadas no novo cenário que se estabelece. O presente trabalho consiste em uma proposta de log de mensagens pessimista remoto com checkpoint não-coordenado e a avaliação de desempenho da comunicação MPI sobre Publish/Subscriber no qual se baseia o log de mensagens. O trabalho compreende: um estudo das técnicas de tolerância a falhas mais empregadas em ambientes de alto desempenho e a motivação para a escolha dessa variante de log de mensagens; a proposta de log de mensagens; uma implementação de comunicação Open MPI sobre OpenAMQ e sua respectiva avaliação de desempenho com comunicação tradicional TCP/IP e com o log de mensagens pessimista local da distribuição do Open MPI. Os benchmarks utilizados foram o NetPIPE, o NAS Parallel Benchmarks e a aplicação Virginia Hydrodynamics (VH-1). / The growing number of processors in parallel architectures at the top of performance rankings allows a higher processing capacity. However, it also brings an increase in the fault rate which is directly proportional to the number of processors. Nowadays, coordinated checkpoint is the most widely used rollback technique for system recovery in the occurrence of faults in MPI applications. Nevertheless, projections point that this technique will be inappropriate for the emerging architectures. On the other hand, message logging seems to be more appropriate to this new scenario. This work consists in a proposal of pessimistic message logging (remote based) with non-coordinated checkpoint and the performance evaluation of an MPI communication mechanism that works over Publish/Subscriber channels in which the proposed message logging is based. The work is organized as following: an study of fault tolerant techniques used in HPC and the motivation for choosing this variant of message logging; a message logging proposal; an implementation of Open MPI communication over OpenAMQ; performance evaluation and comparision with the tradicional TCP/IP communication and a pessimistic message logging (sender based) from Open MPI distribution. The benchmark set is composed of NetPIPE, NAS Parallel Benchmarks and Virginia Hydrodynamics (VH-1).

Page generated in 0.081 seconds