• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2841
  • 572
  • 241
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3717
  • 1131
  • 945
  • 591
  • 587
  • 577
  • 525
  • 495
  • 465
  • 348
  • 308
  • 286
  • 279
  • 259
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Decomposição da estatística do gráfico de controle multivariado t² de Hotelling por meio de um algoritmo computacional

Konrath, Andréa Cristina January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-19T15:41:59Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T01:14:57Z : No. of bitstreams: 1 189977.pdf: 16277196 bytes, checksum: e1d42f93f848c687104a019c2d3287c8 (MD5) / Este trabalho tem como objetivo apresentar a decomposição da estatística T2 de Hotelling, através de um algoritmo computacional, para auxiliar na detecção das variáveis significativas no momento em que as características de qualidade do processo monitoradas saem fora dos limites de controle em processos multivariados. O método de decomposição utilizado é de Mason, Tracy &Young (1995), que sugere que a estatística seja dividida em componentes independentes, cada um refletindo a contribuição de uma variável individual. Os resultados apresentam-se satisfatórios ao objetivo proposto, e a descrição do referido método é apresentada passo a passo, sendo o algoritmo computacional testado com um banco de dados retirado da literatura (Mitra, 1993), bem como a geração de dados aleatoriamente.
132

Projeto de planos de medição para a estimação de estados em sistemas de potência via algoritmos genéticos

Coser, Joni January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-20T00:31:59Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T01:28:49Z : No. of bitstreams: 1 182413.pdf: 4887020 bytes, checksum: 45c1f265743a8ffcd4ee6d778892c7c9 (MD5) / O trabalho descrito nesta dissertação trata do problema do planejamento da medição na estimação de estados em sistemas de potência. Um plano de medição define o tipo, o número e a posição das medidas a serem processadas por um estimador de estados para avaliar o estado de operação de um sistema elétrico de potência em tempo real. O principal objetivo do trabalho é implementar uma metodologia que permita obter planos de medição adequados para o processo de estimação de estados, de modo a possibilitar o processamento de medidas portadoras de erros de grande magnitude (erros grosseiros) a mínimo custo; os planos de medição devem ser ao mesmo tempo robustos face à perda de certos pontos de medição. A escolha de um plano de medição adequado nesse sentido é um problema do tipo combinatorial e, portanto, favorece o emprego dos algoritmos genéticos como método de busca na sua solução. Os resultados do emprego da metodologia desenvolvida são mostrados em sistemas-teste do IEEE e atestam a eficiência dos procedimentos empregados no tratamento do problema em questão.
133

Um algoritmo heurístico para solução de problemas de grande escala de localização de instalações com hierarquias

Nunes, Luiz Fernando January 2002 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-20T07:06:50Z (GMT). No. of bitstreams: 1 189148.pdf: 1079005 bytes, checksum: 1e3e85ccfa99df884bf10a139290c0f9 (MD5) / Muitos sistemas que oferecem serviços de atendimento, distribuição ou coleta, são constituídos por diferentes tipos de instalações, apresentando algum relacionamento hierárquico entre as mesmas. Assim, o objetivo deste trabalho é discutir e resolver de forma aproximada, uma classe de problemas de localização de instalações com dois níveis de hierarquias, incluindo problemas de grande escala. Dentre os problemas práticos que podem ser resolvidos com a técnica proposta, estão sistemas para tratamento de saúde, compostos por hospitais e postos de saúde. Nestes sistemas os clientes devem buscar tratamento em um posto de saúde ou diretamente em um hospital, sendo que uma fração q dos clientes atendidos inicialmente em um posto de saúde são transferidos para um hospital para complementar o tratamento. Também podem ser resolvidos os problemas que envolvem produção/distribuição de mercadorias, como aqueles compostos por fábricas e armazéns. Neste caso, mercadorias são transportadas das fábricas para os clientes, passando ou não por armazéns intermediários. Os problemas são modelados de forma que os custos com transporte, entre as instalações do primeiro e segundo nível, podem diferir dos custos com transporte entre os clientes e as instalações. Além disto, não são consideradas as capacidades das instalações e cada cliente tem sua localização e demanda bem definidos, sendo atendido por exatamente uma instalação do primeiro ou segundo nível. Em qualquer caso, busca-se minimizar os custos com transporte ou transporte e abertura das instalações, caso as quantidades destas não estejam impostas pelo problema. Em linhas gerais a técnica proposta utiliza um algoritmo conhecido por Forward p-Median para gerar uma solução inicial para o problema. Neste algoritmo utiliza-se uma versão modificada do algoritmo de Teitz e Bart, para o problema das p-medianas. Sobre esta solução inicial, são então efetuadas melhorias que incluem procedimentos de troca. A avaliação da qualidade das soluções obtidas é feita com o uso de limites inferiores, obtidos através de relaxação Lagrangeana.
134

Fluxo de potência ótimo :: algoritmos de pontos interiores, abordagem multi-objetivo e aplicação de transformações ortogonais /

Carvalho, Ricardo José de Oliveira January 1999 (has links)
Tese (Doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-19T00:42:38Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-09T03:03:25Z : No. of bitstreams: 1 142040.pdf: 4960110 bytes, checksum: 67258325c345b5eb44d0ecdb72250c13 (MD5)
135

Algoritmo genético restrito por listas tabu no contexto de mineração de dados

Lopes, Fábio Mendonça 08 February 2011 (has links)
Resumo O presente trabalho teve como objetivo a obtenção e implementação de um algoritmo de geração de um classificador, no contexto da Mineração de Dados. Este classificador utilizou Algoritmos Genéticos (AGs). Alguns dos fundamentos que justificaram a escolha deste paradigma, foram baseados em sua grande capacidade em lidar com ruídos, dados inválidos ou imprecisos e, sua facilidade de adaptação frente à diferentes domínios de dados. A principal contribução do algoritmo projetado é a utilização de listas tabu restringindo o processo de seleção do AG. Esta restrição permite gerar um conjunto de regras potenciais para o classificador. Este tipo de estrategia foi proposta recentemente para trabalhar com funções multimodais e ainda não tinha sido avaliado seu comportamento no contexto de mineração de dados. Para análise da eficiência do algoritmo implementado foram realizados testes em cinco bases de dados, e os resultados comparados a 34 algoritmos classificadores. Posteriormente, foram realizados testes com adição de ruídos nas bases de dados. O algoritmo implementado demonstrou ser efeciente e robusto. A estratégia utilizada para manter a diversidade do AGs se mostrou válida, pois mesmo na utilização de populações menores, o algoritmo conseguiu manter sua precisão de classificação. A maior dificuldade encontrada no algoritmo foi o ajuste da medida de distância, parâmetro utilizado para as listas Tabu, o que afetou diretamente os resultados da precisão de classificação do algoritmo.
136

Utilizando algoritmos de busca meta-heurística para estabelecer sequências de teste de integração para programas orientados a aspectos

Galvan, Rodrigo 29 August 2011 (has links)
Resumo: O uso de novos paradigmas, tais como os de orientação a objetos e a aspectos, trouxe novos desafios para o teste de software, atividade considerada fundamental na maioria das organizações de software. Estes desafios têm sido tema de pesquisa em diferentes trabalhos da literatura. No teste de integração de programas orientados a aspectos, similarmente ao teste de programas orientados a objetos, um problema que se destaca é o de estabelecer uma ordem de integração e teste para classes e aspectos que implique em um custo mínimo de criação de stubs. Algumas estratégias para este problema foram investigadas considerando um grafo específico para o contexto de programas orientados a aspectos que representa as relações de dependência entre classes e aspectos. Quando existem ciclos de dependência em tais grafos, o problema não é trivial e muitas estratégias levam a geração de soluções sub-ótimas. Outra desvantagem é que soluções baseadas em grafos geralmente não permitem o uso de diferentes medidas e fatores que podem influenciar no processo de criação de stubs tais como número de atributos, número de métodos, etc. Para reduzir estas limitações, este trabalho explora uma nova estratégia baseada em algoritmos de busca meta-heurísticos. Diferentes algoritmos de busca são investigados e comparados, além de diferentes funções objetivo que permitem lidar com objetivos múltiplos baseadas em agregação de funções e conceitos de dominância de Pareto. Os resultados obtidos nos experimentos mostram que os algoritmos introduzidos apresentam soluções com menor custo que as estratégias tradicionais.
137

Algoritmos de recuperação de fase para sistemas ópticos com modulação DP-QPSK

Ferreira, Hugo Borges 06 December 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, 2011. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2012-05-07T14:17:30Z No. of bitstreams: 1 2011_HugoBorgesFerreira.pdf: 1904412 bytes, checksum: 5be7cb37c9fdb70605abcdd95646a191 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2012-05-11T14:57:57Z (GMT) No. of bitstreams: 1 2011_HugoBorgesFerreira.pdf: 1904412 bytes, checksum: 5be7cb37c9fdb70605abcdd95646a191 (MD5) / Made available in DSpace on 2012-05-11T14:57:57Z (GMT). No. of bitstreams: 1 2011_HugoBorgesFerreira.pdf: 1904412 bytes, checksum: 5be7cb37c9fdb70605abcdd95646a191 (MD5) / O crescimento na demanda por tráfego Ethernet tem motivado o desenvolvimento de novos sistemas de transporte de dados a altas taxas e longas distâncias. Um novo esquema de transmissão óptica aparece como solução, permitindo taxas de transmissão superiores a 100 Gb/s por canal óptico. Esse esquema utiliza a modulação QPSK e a multiplexação de sinais em polarizações ortogonais (dual polarization QPSK - DP-QPSK), então, um receptor coerente se faz necessário. Nesses sistemas aliam-se processamento digital de sinais aos detectores coerentes para a compensaçãao de distorções ocorridas na transmissão e recepção. A recuperação de fase é um tópico relevante no projeto de receptores coerentes e várias técnicas podem ser aplicadas. Analisaram-se três técnicas de recuperação de fase, as clássicas Viterbi & Viterbi (V&V) e algoritmo direcionado a decisão (DD), e uma técnica computacionalmente eficiente, chamada aqui de hardware-efficient. Aliado à recuperação de fase, um algoritmo de recuperação de portadora, responsável por estimar diferen¸cas entre a frequência dos lasers transmissor e receptor, também foi estudado. Nas simulações, concluiu-se que a técnica de recuperação de portadora avaliada foi capaz de recuperar desvios de at´e 3, 125 GHz para um sistema DP-QPSK a 100 Gb/s com lasers de largura de linha de 1 MHz, sem penalidade significativa. As técnicas de recuperação de fase V&V e DD com filtro de máxima verossimilhan¸ca (maximum-likelihood - ML) (5 coeficientes) mostraram penalidades inferiores a 1 dB para o mesmo sistema, e inferiores a 0, 5 dB com filtros mais longos (> 10 coeficientes). O algoritmo hardware-efficient mostrou boa aproximação ao desempenho do V&V para um filtro com 5 coeficientes. Simularam-se ainda os algoritmos V&V e DD com filtros planos e filtros complexos não lineares (nonlinear complex filter - NCF) para comparação de resultados. Dados obtidos em um experimento com modulação DP-QPSK à taxa de 112 Gb/s também foram processados. Utilizaram-se técnicas de normalização, equalização e demultiplexação na recuperação do sinal, e os algoritmos de recuperação de fase e portadora foram testados. Uma técnica de estimação de SNR a partir do sinal ruidoso foi empregada, e o impacto sistêmico foi investigado. Mostrou-se que erros de estimação de −6 dB a 6 dB podem levar a até 1 dB de penalidade em um sistema DP-QPSK a 40 Gb/s. Para sistemas a 100 Gb/s, erros de estimação não levaram a penalidades significativas. O desempenho alcançado com o sistema experimental foi compatível ao simulado, validando o modelo teórico utilizado. _____________________________________________________________________________ ABSTRACT / The increasing demand for Ethernet traffic has motivated the development of new long-haul and high transmission rates optical systems. A new scheme for optical transmission appeared as a solution, allowing transmission rates higher than 100 Gb/s per optical channel. This scheme uses QPSK modulation and dual polarization multiplexing (DP-QPSK), therefore, a coherent receptor is needed. These systems combine digital signal processing techniques with the coherent detector, thus, compensating for distortions generated in transmission and detection. Phase recovery is an important subject in coherent receivers’ development and several techniques may be applied. We analyzed three phase recovery algorithms, the classical Viterbi & Viterbi (V&V) and decision directed (DD), and a hardware- efficient algorithm. A carrier recovery algorithm was also studied. This technique estimates frequency mismatches between transmitter and receiver lasers, whilst the phase recovery estimates the phase noise affecting the system. In our simulations, we concluded that the carrier recovery technique was able to compensating for a mismatch of up to 3, 125 GHz in a 100 Gb/s DP-QPSK system with 1 MHz lasers linewidth without noteworthy penalty. The V&V and DD recovery algorithms with maximum-likelihood (ML) filters (5 taps) exhibited less than 1 dB SNR penalty to this system, and less than 0, 5 dB for longer filters (> 10 taps). The hardware-efficient algorithm showed to be a good approximation of the V&V for a 5 taps filter. We also simulated the V&V and DD algorithms with flat filters and nonlinear complex filters (NCF) for comparison. We have also processed data from an optical 112 Gb/s DP-QPSK experimental system. We used normalization, equalization and demultiplexing techniques for the signal recovery and tested the carrier recovery algorithms. An estimation scheme for the SNR was used, and the systemic impact was analyzed. We observed that estimation errors from −6 dB to 6 dB may lead to up to 1 dB SNR penalty for a 40 Gb/s DP-QPSK system. For a 100 Gb/s system, estimation errors have not caused noteworthy SNR penalty. The experimental system performance was compatible with the simulated system, thus, validating our theoretical model.
138

Cálculo da distância de reversão e construção de árvores filogenéticas usando a ordem dos genes

Soncco Álvarez, José Luis 03 March 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-05-11T17:50:21Z No. of bitstreams: 1 2017_JoséLuisSonccoÁlvarez.pdf: 1420459 bytes, checksum: d3aeb52c5b121fa780cdd693f78d263a (MD5) / Approved for entry into archive by Guimaraes Jacqueline (jacqueline.guimaraes@bce.unb.br) on 2017-05-17T14:03:21Z (GMT) No. of bitstreams: 1 2017_JoséLuisSonccoÁlvarez.pdf: 1420459 bytes, checksum: d3aeb52c5b121fa780cdd693f78d263a (MD5) / Made available in DSpace on 2017-05-17T14:03:21Z (GMT). No. of bitstreams: 1 2017_JoséLuisSonccoÁlvarez.pdf: 1420459 bytes, checksum: d3aeb52c5b121fa780cdd693f78d263a (MD5) / O cálculo de distâncias evolutivas, como as distâncias de reversão e double cut and join, entre a ordem dos genes de dois organismos e um problema combinatório complexo. Este cenário pode ficar ainda mais complicado se quisermos construir árvores filogenéticas, visto que a maioria das abordagens da literatura primeiro solucionam o problema da mediana de três genomas, o qual foi demonstrado ser NP-Difícil para vários modelos evolutivos. Neste trabalho propomos vários algoritmos evolutivos para o problema de ordenação de permutações (sem sinal) por reversões, cuja saída e a distancia de reversão. Estes algoritmos são baseados em um algoritmo genético simples, sobre o qual foram incorporados varias heurísticas como busca local, busca por oposição, e eliminação de pontos de quebra. Experimentos foram realizados usando diferentes dados (permutações) baseados na ordem dos genes, os quais foram gerados artificialmente (de forma aleatória) e também a partir de dados biológicos. Dentre estes algoritmos os que melhores resultados tem para casos práticos, ou seja, permutações de comprimento ate 120, são os chamados AMBO e AMBO-Híbrido. Estes resultados foram validados usando testes estatísticos como Friedman e Holm. Adicionalmente, foi implementado um software para construir arvores filogenéticas chamado de HELPHY, que toma como entrada dados baseados na ordem dos genes (permutações com sinal). Primeiro foi proposto um algoritmo guloso para o problema da pequena filogenia, cujo objetivo e calcular o custo de uma determinada árvore. Logo, para o problema da grande filogenia foi proposta uma abordagem baseada em busca em vizinhança variável, cujo objetivo e explorar o espaço de soluções de estruturas de árvores. Experimentos mostraram que HELPHY conseguiu melhorar o tempo de execução para encontrar árvores com bons escores (distância de reversão) para o dataset Campanulaceae; além disso, uma nova árvore tendo o melhor escore (distância double cut and join) na literatura foi encontrado para o dataset Hemiascomycetes. / Calculating evolutionary distances, such as the reversal distance or the double cut and join distance, between the gene orders of two organisms is a complex combinatory problem. This scenario can be even more complicated if we want to build phylogenetic trees, since most of the approaches in the literature first solves the median problem for three genomes, which was shown to be NP-Hard for various evolutionary models. In this work, we are proposing several evolutionary algorithms for the problem of sorting (unsigned) permutations by reversals, whose output is the reversal distance. These algorithms are based on a simple genetic algorithm, on which were embedded different heuristics such as local search, opposition-based learning, and elimination of breakpoints. Experiments were performed using different types of data (permutations) based on gene orders which were generated artificially (in a random way) and also from biological data. From these algorithms, the ones with the best results for practical cases, that is, permutations of length up to 120, are called as AMBO and AMBO-Hibrido. These results were validated by applying the Friedman and Holm statistical tests. Moreover, a software called HELPHY for building phylogenetic trees was implemented, which takes as input data based on gene order (signed permutations). First, an greedy algorithm was proposed for the small phylogeny problem, whose aim is to calculate the cost (score) of a given tree structure. Then, an approach based on variable neighborhood search was proposed for the large phylogeny problem, whose aim is to explore the search space of tree structures. Results of the experiments showed that HELPHY improved the execution time for finding good scores (reversal distance) for the dataset Campanulaceae; besides, a new tree structure with the best score (double cut and join distance) in the literature was found for the dataset Hemiascomycetes.
139

Correção de artefatos laterais em algoritmo para escâner de mesa para avaliação de filmes radiocrômicos / Correction of side artifacts in algorithm for table scanner for evaluation of radiocromic films

Santos, Gilvan Lopes dos 05 August 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade UnB Gama, Programa de Pós-Graduação em Engenharia Biomédica, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-11-14T16:04:03Z No. of bitstreams: 1 2017_GilvanLopesdosSantos.pdf: 4735272 bytes, checksum: 5c463f97448846a35c6b5db7f9c8b2d1 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-11-20T21:30:55Z (GMT) No. of bitstreams: 1 2017_GilvanLopesdosSantos.pdf: 4735272 bytes, checksum: 5c463f97448846a35c6b5db7f9c8b2d1 (MD5) / Made available in DSpace on 2017-11-20T21:30:55Z (GMT). No. of bitstreams: 1 2017_GilvanLopesdosSantos.pdf: 4735272 bytes, checksum: 5c463f97448846a35c6b5db7f9c8b2d1 (MD5) Previous issue date: 2017-11-20 / Filmes radiocrômicos são indicados para avaliar a diferença entre a dose planejada e a dose depositada em radioterapia. A precisão da dosimetria com o uso de filmes faz com que haja uma relação entre os níveis R, G e B (Red - vermelha, Green – verde, Blue - azul) e as doses de radiação, mas esta relação varia com a posição do filme ao longo do escâner. Para corrigir este problema, este estudo teve por objetivo implementar um algoritmo em código livre, por meio da metodologia proposta por Lewis e Chan (2015). Para isso, foi necessário levantar, por um processo empírico, a relação entre os níveis R, G e B e as doses. Após o levantamento das funções de mapeamento entre os níveis e as doses, uma imagem digitalizada pôde ser convertida em imagem de dose. Assim, os filmes foram preparados, irradiados e escaneados a posições determinadas com intervalos de tempo. As imagens escaneadas foram separadas aos níveis de R, G e B e analisadas com o software ImageJ. Os valores dos níveís de doses foram usados na implementação de códigos do algoritmo contemplando os canais e as posições do filme. Os níveis de R, G e B foram corrigidos nas imagens originais pelo algoritmo usando interpolação linear para gerar nova imagem processada para cada posição em função dos níveis do centro do escâner. O algoritmo foi validado e aprovado com a correção de todas as regiões de artefatos de filmes. Um caso pertinente está na média das duas posições extremas do canal vermelho, em que o desvio da imagem original foi de 5,8%, enquanto o desvio da imagem processada foi de 1,6%. Foi crescente a influência dos efeitos de tempo entre a irradiação e a digitalização dos filmes com desvio de 1% para o período de 12 para 72 horas. O algoritmo corrigiu de modo equivalente as imagens processadas mesmo levando em consideração apenas a posição no processo de correção. As diferenças entre os níveis de R, G e B e as densidades óticas das imagens originais e processadas foram semelhantes. Com este estudo, espera-se ampliar a aplicação do uso do algoritmo para os campos de tratamento de radioterapia. / Radiochromic films are indicated to evaluate the difference between the planned dose and the dose deposited in radiotherapy. The accuracy of the dosimetry with the use of films causes a relationship between the R, G, and B levels and the radiation doses, but this relation varies with the position of the film along the scanner. To correct this problem, this study aimed to implement a free code algorithm in Python, using the methodology proposed by Lewis and Chan (2015). For this, it was necessary to raise by an empirical process, the relationship between the levels R, G, and B (red, green and blue) and doses. After surveying mapping functions between levels and doses, a scanned image could be converted into a dose image. Thus, the films were prepared, irradiated and scanned at determined positions at time intervals. Scanned images were separated at R, G, and B levels and analyzed with ImageJ. The values of dose levels were used in the implementation of algorithm codes contemplating the channels and the positions of the film. The levels of R, G, and B were corrected in the original images by the algorithm using linear interpolation, to generate new processed image for each position as a function of the levels of the center of the scanner. The algorithm was validated and approved with the correction of all regions of movie artifacts. An example is the average of the two extreme positions of the red channel, which the deviation of the original image was 5.8%, while the deviation of the processed image was 1.6%. The influence of the time effects between the irradiation and the scanning of films with 1% deviation for the period from 12 to 72 hours was increasing. The algorithm equivalently corrected the processed images even taking into account only the position in the correction process. The differences between the levels of R, G, and B and the optical densities of the original and processed images were similar. With this study, it is hoped to extend the application of the algorithm to all radiotherapy treatment sites.
140

Modelos para o mapeamento de aplicações em infra-estruturas de comunicação intrachip

Marcon, Cesar Augusto Missio January 2005 (has links)
O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Page generated in 0.0264 seconds