• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 486
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7624
  • 2223
  • 1814
  • 1759
  • 1276
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Implementação de Visualização de Dados Tridimensionais de Malhas Irregulares no Processador Cell Broadband Engine. / Irregular grid raycasting implementation on the cell broadband engine.

Guilherme Mota Cavalcanti de Albuquerque Cox 02 October 2009 (has links)
Direct volume rendering has become a popular technique for visualizing volumetric data from sources such as scientific simulations, analytic functions, and medical scanners, among others. Volume rendering algorithms, such as raycasting, can produce high-quality images, however, the use of raycasting has been limited due to its high demands on computational power and memory bandwidth. In this paper, we propose a new implementation of the raycasting algorithm that takes advantage of the highly parallel architecture of the Cell Broadband Engine processor, with 9 heterogeneous cores, in order to allow interactive raycasting of irregular datasets. All the computational power of the Cell BE processor, though, comes at the cost of a different programming model. Applications need to be rewritten in order to explore the full potential of the Cell processor, which requires using multithreading and vectorized code. In our approach, we tackle this problem by distributing ray computations using the visible faces, and vectorizing the lighting integral operations inside each core. Our experimental results show that we can obtain good speedups reducing the overall rendering time significantly. / A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
362

Metaheurísticas de busca local para o problema de sequenciamento de tarefas em máquinas paralelas não relacionadas com tempo de preparação dependente da sequência.

Silva, Cristiano Luís Turbino de França e January 2014 (has links)
Submitted by Maurílio Figueiredo (maurilioafigueiredo@yahoo.com.br) on 2014-06-30T19:54:20Z No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_MetaheurísticasBuscaLocal.pdf: 5158364 bytes, checksum: 9ff1b731ffa05dadf988172a590814c1 (MD5) / Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2014-07-07T13:15:13Z (GMT) No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_MetaheurísticasBuscaLocal.pdf: 5158364 bytes, checksum: 9ff1b731ffa05dadf988172a590814c1 (MD5) / Made available in DSpace on 2014-07-07T13:15:13Z (GMT). No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_MetaheurísticasBuscaLocal.pdf: 5158364 bytes, checksum: 9ff1b731ffa05dadf988172a590814c1 (MD5) Previous issue date: 2014 / Este trabalho apresenta uma proposta e a avaliação computacional de quatro métodos de busca local estocástica para o problema de sequenciamento de tarefas em máquinas paralelas não relacionadas com tempo de preparação dependente da sequência (UPMSP - unrelated parallel machine scheduling problem with sequence dependent setup times). As quatro abordagens metaheurísticas que são analisadas para o UPMSP baseam-se em: Simulated Annealing (SA), Iterated Local Search (ILS), Late Acceptance Hill Climbing (LAHC) e Step Counting Hill Climbing (SCHC). A estrutura das vizinhancas, bem como os parâmetros dos algoritmos, foram amplamente testados e analisados, sendo possível verificar como os parâmetros afetam o comportamento de cada algoritmo implementado e pesquisar os melhores parâmetros. As comparações dos resultados obtidos foram realizadas com os resultados apresentados por Vallada e Ruiz (2011), proponentes do conjunto de 50 instâncias consideradas e, mais recentemente, por Haddad (2012). O método que obteve o melhor resultado nessas 50 instâncias foi testado para todas as 1.000 instâncias grandes, apresentadas por Vallada e Ruiz (2011), melhorando em 96,6% (966 instâncias) a melhor solução conhecida encontrada por esses últimos autores. __________________________________________________________________________________________ / ABSTRACT: This paper presents a proposal and a computational review of four methods of stochastic local search to the unrelated parallel machine scheduling problem with sequence dependent setup times (UPMSP). The four metaheuristics approaches that are analyzed for the UPMSP are based in: Simulated Annealing (SA), Iterated Local Search (ILS), Late Acceptance Hill Climbing (LAHC) and Step Counting Hill Climbing (SCHC). The structure of neighborhoods, as well as the parameters of the algorithms, were widely tested and analyzed, being possible verify how the parameters affect the behavior of each algorithm implemented and search the best parameters. The comparisons of the results were accomplished with the results presented by Vallada and Ruiz (2011), who proposed the set of 50 instances considered, and, more recently, by Haddad (2012). The method that got the best result in these 50 instances was tested for every 1.000 large instances, presented by Vallada and Ruiz (2011), improving in 96.6% (966 instances) the best known solution found by this last authors
363

Detecção e diagnostico de irregularidades na industria de fiação textil

Loesch, Claudio January 1995 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T20:05:29Z (GMT). No. of bitstreams: 1 103906.pdf: 3072312 bytes, checksum: 086273c101eae289905ae0929fa27c1a (MD5) Previous issue date: 1995 / Esta tese tem por objetivo apresentar uma solução ao problema da classificação e diagnóstico de irregularidades detectadas em materiais de natureza fibrosa que ocorrem na fiação têxtil, mediante a interpretação de dados fornecidos pelo regularímetro. Um estudo de diversas propostas implementando discriminadores neurais para classificar irregularidades constatadas é apresentado, culminando com a seleção de implementações comprovadas como mais eficientes. Adicionalmente é apresentada a implementação de uma ferramenta de sistema especialista baseada em regras de reprodução em um banco de conhecimentos, este último objetivando a utilização de informações provenientes da etapa classificatória para inferir diagnósticos adequados. A implementação computacional da fase de detecção e classificação e da fase de diagnóstico foram realizadas de forma a construir um sistema integrado, como proposta de solução semi-automatizada. Seu uso constitui uma ferramenta de apoio ao processo decisório de especialista têxtil em regulametria. A eficácia do sistema proposto é analisada mediante tabulação de dados estatísticos coletados a partir de conjuntos de simulações de irregularidades sob estratificação de diversas variáveis de controle.
364

Gerenciamento energeticamente eficiente de memória para multiprocessamento em chip explorando múltiplas scratchpads

Nihei, Gustavo Henrique January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2013-03-04T19:18:38Z (GMT). No. of bitstreams: 1 305016.pdf: 1639667 bytes, checksum: 311ae2d24eecf273bdb00a19f87e1468 (MD5) / A fim de proporcionar a alta capacidade de processamento requerida pelos dispositivos eletrônicos pessoais, sem ultrapassar os limites aceitáveis de potência e de consumo de energia, os sistemas em chip (SoCs) adotam o multiprocessamento. Para tanto, os SoCs possuem 2, 4 ou mais processadores, cada um com caches L1 privativas, conectados por meio de um barramento. Como o espaço de endereçamento visto pelos processadores é único, a programação do sistema pode assumir o modelo de memória compartilhada. A coerência entre as caches geralmente é assegurada pelo protocolo snooping. Para tirar proveito do paralelismo dos SoCs multiprocessados (MPSoCs), aplicações são desenvolvidas com uso de múltiplas threads executando concorrentemente. Neste contexto, observa-se que os dados de pilha de uma dada thread são acessados somente pelo processador no qual a thread está executando. Desta forma, a relocação da pilha para memória scratchpad (SPM) pode ser explorada para reduzir a energia do subsistema de memória. Esta redução advém não apenas da menor energia gasta em cada acesso à pilha, mas também da redução das faltas nas caches L1 de dados e da penalidade imposta pelo protocolo snooping. No presente trabalho propõe-se uma técnica para o gerenciamento dinâmico de dados de pilha em múltiplas SPMs, visando redução de energia no subsistema de memória em MPSoCs. A técnica utiliza um gerenciador totalmente em software, o qual é responsável por alocar e desalocar os dados de pilha de thread em SPM. A utilização da técnica dispensa intervenção do programador, pois as alterações necessárias no código da aplicação são realizadas por um compilador adaptado. Foram obtidos resultados experimentais através da simulação de 400 aplicações geradas aleatoriamente, assumindo-se 20 plataformas multiprocessadas, totalizando 8000 casos de uso. Os resultados mostram que, variando-se o perfil das aplicações quanto à proporção de acessos a dados de pilha, a técnica proporciona reduções de energia no subsistema de memória entre 11% e 20%, em média, para plataformas com caches L1 de 32KB, e reduções entre 14,7% e 25,9%, em média, para plataformas com caches L1 de 64KB. Para plataformas com caches L1 de menor capacidade, a redução de energia é menor pois a penalidade de faltas nas caches L1 de instruções imposta pelo gerenciador torna-se relevante.
365

Análise da compatibilidade de componentes especificados em UML

Teixeira, Nara Sueina January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2013-03-04T20:12:58Z (GMT). No. of bitstreams: 1 307638.pdf: 3034447 bytes, checksum: 51a95fd6bb38f8e99ec85b04c51e8572 (MD5) / Na abordagem de desenvolvimento orientado a componentes, um aplicativo é produzido por meio da conexão de dois ou mais componentes. O aumento da previsibilidade do resultado da combinação de um componente com outros ainda é uma questão em aberto para pesquisa. A análise de compatibilidade de componentes é realizada a partir da descrição da interface dos componentes interligados. A maioria das propostas de análise de compatibilidade pesquisadas se restringe à verificação da ligação entre dois componentes e não considera todo o conjunto de componentes de uma aplicação. E quando o faz, limita-se a detectar apenas deadlock no sistema. Este trabalho propõe uma estratégia para a realização automatizada da análise comportamental de componentes a partir de uma abordagem descrita na literatura onde a descrição da interface de componentes é feita integralmente em UML. A descrição estrutural utiliza os diagramas de componentes, classe e implantação, e a comportamental, o diagrama de máquina de estados. A estratégia proposta estabelece uma forma de conversão da máquina de estados dos componentes individuais e da aplicação para redes de Petri, de forma transparente para o usuário, e define critérios para a análise comportamental. Problemas comportamentais são identificados a partir da interpretação das propriedades das redes de Petri no contexto dos componentes. Essa solução considera o comportamento do sistema como um todo e permite a identificação, além de deadlock, de possíveis problemas comportamentais, tratadas como advertências e que devem ser analisadas pelo usuário, tais como: serviços indisponíveis, temporariamente disponíveis ou serviços disponíveis no componente que passam a ser temporariamente disponíveis ou até indisiponíveis na aplicação. A solução proposta permite uma maior previsibilidade no resultado da combinação de componentes. Essa solução foi automatizada no ambiente SEA, por meio de ferramentas automatizadas que emitem relatórios com os problemas encontrados. São apresentados os estudos de caso realizados para avaliação da proposta. / In the component-based software development, an application is produced by connecting two or more components. Increasing predictability of the result of combination of a component with others components is still an issue for research. The compatibility analysis of components is performed from the interface#s description of the interconnected components. Most proposals for compatibility analysis are limited to verify the compatibility between only two components and does not consider the whole component set of an application. And when they do it, they only detect deadlock in the system. This study proposes a strategy to achieve automated behavioral analysis of components from an approach described in the literature, in which the interface of components is described entirely in UML.The structural description uses the component, class and deployment diagrams, and behavior description, the state machine diagram diagram. The proposed strategy provides a way of converting the state machine of the individual components and of the application in Petri nets, transparently to the user, and sets criteria for behavioral analysis. Behavioral problems are identified from the interpretation of the Petri nets properties in the context of the components. This solution considers the behavior of the system as a whole and allows the identification, in addition to deadlock, of potential behavioral problems, and treats then as warnings that must be analyzed by the user, such as: unavailable services, temporarily available services, or component available services become temporarily available or unavailable in the application. The proposed solution allows a more predictable result of the combination of components. This solution has been automated in the SEA environment, using automated tools included in it, where reports are issued with the found problems. The case studies produced to evaluate the proposal are presented.
366

Visualização de conjuntos de dados grandes formados por esferas

Inácio, Renan Teston January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2012 / Made available in DSpace on 2013-06-25T21:36:16Z (GMT). No. of bitstreams: 1 313460.pdf: 6437697 bytes, checksum: 28d8c3c074d5febb4534a14f28366597 (MD5) / Este trabalho trata da visualização grá?ca de conjuntos de dados cujas principais características é ser formado por esferas e possuir um grande volume de informações. As principais di?culdades em se trabalhar com dados numerosos é, além da performance, exibir a informação de forma clara. Para solucionar estes problemas foi criado um renderizador básico baseado na técnica de sprites com otimizações em nível de objeto e de imagem. Posteriormente foram analisados algoritmos de renderização com suporte a transparência, onde o depth peeling se mostrou adequado. O algoritmo foi adaptado para permitir a geração de uma imagem incompleta, tendo em vista a performance, porém foi feita uma quanti?cação do erro para limites aceitáveis poderem ser estabelecidos. Finalmente a modalidade de renderização utilizando a técnica de ambient occlusion foi implementada para melhor compreensão espacial dos dados, usando otimização de deferred shading. A performance obtida foi su?ciente para a visualização interativa dos conjuntos de dados.<br> / Abstract : This work deals with the graphical visualization of datasets which the main feature is being formed by spheres e have a great volume of information. The main dificulties when working with numerous data is, in addition to performance, show the information in a clear way. In order to solve these problems a basic renderer was created based on sprites techniques with optimizations at object and image level. Afterwards rendering algorithms with translucency support were analyzed, where depth peeling shown itself adequate. The algorithm was adapted to allow the generation of an incomplete image, in view of performance, but a quantification of the error was created so acceptable thresholds can be established. Finally the rendering mode using the ambient occlusion technique was implemented for better spatial comprehension of the data, using deferred shading optimization. The performance was enough for a interactive visualization of the datasets.
367

Suporte á análise de compatibilidade comportamental e estrutural entre componentes no ambiente SEA

Cunha, Roberto Silvino da January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2013-07-15T22:55:20Z (GMT). No. of bitstreams: 1 233489.pdf: 1375860 bytes, checksum: e74ecf21e916ed222f237b02ca3677b2 (MD5) / A utilização de componentes para o desenvolvimento de sistemas é uma abordagem que promove o reuso, tanto de código quanto de projeto, em um alto nível de abstração. Mas para que o reuso seja vantajoso, isto é, exija menos esforço que o desenvolvimento de um novo artefato de software, então o componente deve ser descrito de forma que, com o mínimo esforço, sua compatibilidade com os outros componentes possa ser avaliada. Com esta avaliação, poderá ser tomada a decisão sobre seu uso como está, em caso de constatação da compatibilidade ou, no caso de incompatibilidade, decidir sobre compatibilização ou abandono. Este trabalho trata formas de automatizar a análise de compatibilidade estrutural e comportamental entre componentes, durante o processo de especificação de projeto. A idéia é modelar uma arquitetura de componentes, para que se possa visualizar suas conexões, e com isto poder fazer as análises necessárias para garantir a compatibilidade e o perfeito funcionamento desta arquitetura. Na implementação foi utilizado o ambiente de desenvolvimento SEA, produzido sob o framework OCEAN. Eles permitem que especificações e ferramentas possam ser desenvolvidas e que trabalhem integradas. Para a verificação de compatibilidade estrutural são levantados os tipos de incompatibilidade e as soluções permitidas dentro do universo de possibilidades da arquitetura da especificação que se quer verificar. Redes de Petri ordinárias são utilizadas para que as análises de suas propriedades e suas interpretações, para o contexto de componentes, possa permitir a automação da verificação de compatibilidade comportamental. Ferramentas para as análises estruturais e comportamentais foram desenvolvidas e estão integradas ao ambiente SEA, fazendo a leitura de informações contidas nas especificações da estrutura de componentes. Com as informações da estrutura de componentes e as análises necessárias levantadas neste trabalho é feita a verificação automatizada da compatibilidade entre os componentes. Caso haja alguma incompatibilidade, possíveis soluções são propostas, ficando a cargo do desenvolvedor escolher, dentre elas, a melhor solução.
368

Pré-processamento para a mineração de dados

Schmitt, Jeovani January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-15T23:15:02Z (GMT). No. of bitstreams: 1 223783.pdf: 989944 bytes, checksum: 5339f705a93558e2bbd0069d6c4d34b9 (MD5) / A mineração de dados em grandes bases pode requerer alto tempo computacional. Além do mais, é comum as bases de dados conterem variáveis mensuradas em diferentes níveis: intervalar, ordinal e nominal. Neste caso, técnicas desenvolvidas para variáveis quantitativas não poderiam ser aplicadas sob as variáveis originais. Como exemplo, pode-se citar a análise de agrupamentos pelo método das k-médias. Este exige que as variáveis de entradas sejam quantitativas. Este trabalho apresenta uma metodologia para a fase do pré-processamento em mineração de dados, que utiliza a análise de componentes principais (ACP) com escalonamento ótimo (EO). O pré-processamento é uma etapa fundamental que pode melhorar a performance dos algoritmos de análise, através da redução de dimensionalidade. O escalonamento ótimo permite analisar bases que contenham variáveis observadas em diferentes níveis de mensuração. Através da ACP é possível obter uma redução das variáveis originais em um número de componentes principais, gerando novas coordenadas, menor que o número de variáveis originais. As novas coordenadas podem ser utilizadas na mineração de dados propriamente dita, em tarefas como agrupamentos, classificação entre outras. Essas tarefas podem ser realizadas por métodos estatísticos ou computacionais, como redes neurais, algoritmos genéticos entre outros. A metodologia proposta foi testada em uma base de dados com 118.776 registros de pessoas, pesquisadas pelo Instituto Brasileiro de Geografia e Estatística - IBGE, contendo 13 variáveis observadas em diferentes níveis de mensuração. Através da ACP com EO, as 13 variáveis foram reduzidas a 6 componentes principais, preservando ainda 77% da variabilidade original. Sob o novo conjunto de coordenadas foi aplicada a análise de agrupamentos, utilizando o algoritmo das k-médias para a separação dos grupos, com o objetivo de ilustrar uma tarefa comum em mineração de dados, a identificação de grupos, onde foi possível descrever 6 subgrupos ou clusters.
369

Autenticação contínua pela dinâmica da digitação usando máquinas de comitê

Silva Filho, Sérgio Roberto de Lima e January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2013-07-16T00:19:11Z (GMT). No. of bitstreams: 1 222831.pdf: 751246 bytes, checksum: c310a0dd131f93c15fa5d86fe9a310a0 (MD5) / O uso de sistemas automatizados simplifica a vida das pessoas, no entanto a dependência destes sistemas gera informações críticas armazenadas nos computadores tornando-os possíveis alvos de ataques. Para proteger o acesso a estas informações existem mecanismos de autenticação. Atualmente a maioria destes mecanismos autentica o usuário apenas na entrada do sistema, sendo que o usuário pode deixar o computador sem sair da sessão ou bloquear seu acesso, possibilitando a um intruso acessar os recursos disponíveis. Isto mostra a insuficiência dos mecanismos de autenticação realizados apenas na entrada do sistema. O objetivo deste trabalho é apresentar uma metodologia de baixo custo e não intrusiva que possibilite a autenticação contínua do usuário enquanto este está utilizando o teclado de um computador. A autenticação é realizada através do reconhecimento do padrão de digitação do usuário, que é uma característica biométrica comportamental. Neste trabalho foram abordadas duas metodologias para solução deste problema de reconhecimento de padrões, ambas utilizando Redes Neurais Artificiais (RNAs). Na primeira abordagem, uma única RNA é utilizada para representar o modelo de cada usuário e classificar dados apostos ao sistema biométrico, já na segunda abordagem é utilizado o conceito de máquinas de comitê, onde um conjunto de RNAs combinadas formam o modelo do usuário. Cada uma destas RNAs possui a capacidade de resolver uma tarefa simples, mas ao serem combinadas possibilitam a solução de uma tarefa complexa. Experimentos realizados para testar as abordagens propostas mostram que a utilização da primeira abordagem não possibilitou a classificação dos usuários testados neste trabalho, no entanto na segunda abordagem, os resultados mostram que, utilizando como informação alvo um texto fixo e limiares diferentes para cada usuário, o sistema apresentou taxa de falsa aceitação (FAR) de 0,15% e taxa de falsa rejeição (FRR) de 0%.
370

Uma interface para refinamento de pesquisas de políticas de segurança em ambientes de grid services

Chryssovergis, Marcelo Digiacomo January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T00:45:32Z (GMT). No. of bitstreams: 1 229512.pdf: 851100 bytes, checksum: 14a20c287c2eb8408d2ad0d986363fbc (MD5) / A computação em grid (ou computação em grade) consiste em uma forma de computação distribuída onde o foco principal é o compartilhamento coordenado de recursos em larga escala e resolução de problemas em organizações virtuais dinâmicas e multi-institucionais. Porém, tal compartilhamento deve ser altamente controlado, para garantir a segurança dos recursos envolvidos. Este trabalho se baseia na especificação OGSA (Open Grid Service Architecture) proposta pelo GGF (Global Grid Forum), em particular no Globus Toolkit 3 que a implementa, e apresenta uma proposta de extensão ao módulo de monitoramento e descoberta de recursos (MDS), para filtrar os resultados retornados baseado nos atributos do usuário e nas políticas do recurso.

Page generated in 0.0444 seconds