• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5395
  • 422
  • 156
  • 128
  • 128
  • 125
  • 70
  • 58
  • 56
  • 56
  • 55
  • 31
  • 6
  • 3
  • 2
  • Tagged with
  • 5975
  • 2379
  • 1751
  • 977
  • 964
  • 911
  • 895
  • 881
  • 697
  • 692
  • 672
  • 553
  • 515
  • 459
  • 441
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Geotomografia eletromagnética: algoritmo tomográfico, filtro bidimensional adaptativo e algoritmo de segmentação de imagens /

Lopes, Eliezer Pereira. January 1998 (has links)
Tese (Doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico / Made available in DSpace on 2012-10-17T08:51:32Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T23:22:23Z : No. of bitstreams: 1 137674.pdf: 17785349 bytes, checksum: aeccc86b9fa07b3310b0b549d3f7e186 (MD5)
152

Detecção e tratamento de cliques naturais em bancos de fala visando síntese concatenativa de alta qualidade

Nicodem, Monique Vitório January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-22T18:54:17Z (GMT). No. of bitstreams: 1 223937.pdf: 2922286 bytes, checksum: 0cb58a7fc98709ea8f7148c1ca88f811 (MD5)
153

Estudo do comportamento do algoritmo LMS aplicado à reconstrução de vídeo com super-resolução

Costa, Guilherme Holsbach January 2007 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-23T01:54:12Z (GMT). No. of bitstreams: 1 241190.pdf: 3505797 bytes, checksum: fb22df3961f4db9e5b39b576efb6d9f2 (MD5) / A reconstrução com super-resolução (SRR) de imagens consiste basicamente em combinar diversas imagens de baixa-resolução de uma mesma cena para formar uma imagem com resolução mais alta. Para isso, a posição relativa entre as imagens precisa ser geralmente estimada (registro). As principais características dessa técnica são a elevada sensibilidade a erros de registro, a dificuldade de modelagem dos sinais de imagem, o mau condicionamento do problema de SRR, e o elevado custo computacional. Dentre os algoritmos existentes na literatura, o LMS-SRR oferece grande vantagem computacional, uma qualidade importante para processamento em tempo-real. Entretanto, algoritmos adaptativos como os da família LMS carecem de modelos teóricos de comportamento quando aplicados a SRR, um requisito para que seus parâmetros possam ser projetados de forma eficiente. Neste trabalho, um modelo analítico para o comportamento estocástico do LMS-SRR é proposto. Equações recursivas são derivadas para os erros médio e quadrático médio de reconstrução, como funções dos erros de registro. Diretrizes específicas para o projeto dos parâmetros do algoritmo são propostas. Importantes conclusões acerca do efeito do passo de convergência no desempenho do algoritmo são apresentadas. Por fim, contrário ao que é tradicionalmente assumido em SRR, é mostrado que um nível moderado de erro de registro pode ser benéfico ao desempenho do algoritmo, dependendo da implementação. Nesses casos, os erros de registro podem contribuir para a redução da complexidade computacional, evitando a necessidade de um termo de regularização.
154

Reconhecimento de voz para comandos de direcionamento por meio de redes neurais

Valiati, Joao Francisco January 2000 (has links)
Este trabalho relata o desenvolvimento de uma aplicação capaz de reconhecer um vocabulário restrito de comandos de direcionamento pronunciados de forma isolada e independentes do locutor. Os métodos utilizados para efetivar o reconhecimento foram: técnicas clássicas de processamento de sinais e redes neurais artificiais. No processamento de sinais visou-se o pré-processamento das amostras para obtenção dos coeficientes cepstrais. Enquanto que para o treinamento e classificação foram utilizadas duas redes neurais distintas, as redes: Backpropagation e Fuzzy ARTMAP. Diversas amostras foram coletadas de diferentes usuários no sentido de compor um banco de dados flexível para o aprendizado das redes neurais, que garantisse uma representação satisfatória da grande variabilidade que apresentam as pronúncias entre as vozes dos usuários. Com a aplicação de tais técnicas, o reconhecimento demostrou-se eficaz, distinguindo cada um dos comandos com bons índices de acerto, uma vez que o sistema é independente do locutor.
155

Reconhecimento de voz para comandos de direcionamento por meio de redes neurais

Valiati, Joao Francisco January 2000 (has links)
Este trabalho relata o desenvolvimento de uma aplicação capaz de reconhecer um vocabulário restrito de comandos de direcionamento pronunciados de forma isolada e independentes do locutor. Os métodos utilizados para efetivar o reconhecimento foram: técnicas clássicas de processamento de sinais e redes neurais artificiais. No processamento de sinais visou-se o pré-processamento das amostras para obtenção dos coeficientes cepstrais. Enquanto que para o treinamento e classificação foram utilizadas duas redes neurais distintas, as redes: Backpropagation e Fuzzy ARTMAP. Diversas amostras foram coletadas de diferentes usuários no sentido de compor um banco de dados flexível para o aprendizado das redes neurais, que garantisse uma representação satisfatória da grande variabilidade que apresentam as pronúncias entre as vozes dos usuários. Com a aplicação de tais técnicas, o reconhecimento demostrou-se eficaz, distinguindo cada um dos comandos com bons índices de acerto, uma vez que o sistema é independente do locutor.
156

Profiling and reducing micro-architecture bottlenecks at the hardware level / BLAP : um caracterizador de blocos básicos de arquitetura

Moreira, Francis Birck January 2014 (has links)
A maior parte dos mecanismos em processadores superescalares atuais usam granularidade de instrução para criar ou caracterizar especulações, tais como predição de desvios ou prefetchers. No entanto, muitas das características das instruções podem ser obtidas ao analisar uma granularidade mais grossa, o bloco básico de código, aumentando a quantidade de código coberta em um espaço similar de armazenamento. Adicionalmente, códigos podem ser analisados mais precisamente e prover uma variedade maior de informação ao observar diferentes tipos de instruções e suas relações. Devido a estas vantagens, a análise no nível de blocos pode fornecer mais oportunidades para mecanismos que necessitam desta informação. Por exemplo, é possível integrar informações de desvios mal previstos e acessos a memória para gerar informações mais precisas de quais acessos a memória oferecem melhor desempenho ao serem priorizados. Nesta tese propomos o Block-Level Architecture Profiler (BLAP) (Block Level Architecture Profiler), um mecanismo em hardware que caracteriza gargalos no nível microarquitetural, tal como loads delinquentes, desvios de difícil previsão e contenção nas unidades funcionais. O BLAP trabalha no nível de bloco básico, apenas detectando e fornecendo informações que podem ser usada para otimizar tais gargalos. Um mecanismo para a remoção de prefetches e uma política de controlador de memória DRAM foram criados para usar a informação criada pelo BLAP e demonstrar seu potencial. Juntos, estes mecanismos são capazes de melhorar o desempenho do sistema em até 17.39% (3.9% em média). Nosso método mostrou também ganhos médios de 13.14% quando avaliado com uma pressão na memória mais alta devido a prefetchers mais agressivos. / Most mechanisms in current superscalar processors use instruction granularity information for speculation, such as branch predictors or prefetchers. However, many of these characteristics can be obtained at the basic block level, increasing the amount of code that can be covered while requiring less space to store the data. Moreover, the code can be profiled more accurately and provide a higher variety of information by analyzing different instruction types inside a block. Because of these advantages, block-level analysis can offer more opportunities for mechanisms that use this information. For example, it is possible to integrate information about branch prediction and memory accesses to provide precise information for speculative mechanisms, increasing accuracy and performance. We propose a BLAP, an online mechanism that profiles bottlenecks at the microarchitectural level, such as delinquent memory loads, hard-to-predict branches and contention for functional units. BLAP works at the basic block level, providing information that can be used to reduce the impact of these bottlenecks. A prefetch dropping mechanism and a memory controller policy were developed to use the profiled information provided by BLAP. Together, these mechanisms are able to improve performance by up to 17.39% (3.90% on average). Our technique showed average gains of 13.14% when evaluated under high memory pressure due to highly aggressive prefetch.
157

Microcomputadores : um estudo sobre sua implantação na pequena e media empresa: com base numa metodologia de enfoque sistemico

Pinto, Sergio Luiz de Moraes January 1987 (has links)
Dissertação (mestrado) - Universidade de São Paulo, Faculdade de Economia e Administração / Made available in DSpace on 2013-07-15T20:52:17Z (GMT). No. of bitstreams: 0
158

Uma proposta metodológica para compilação de corpus paralelo bilíngue e de pequena dimensão

Fleuri, Lilian Jurkevicz January 2013 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Comunicação e Expressão, Programa de Pós-Graduação em Estudos da Tradução, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:22:31Z (GMT). No. of bitstreams: 1 326306.pdf: 10379029 bytes, checksum: 5aa65bff66aad532aefa8422854a97c0 (MD5) Previous issue date: 2013 / Localizando-se no contexto de pesquisa do projeto CORDIALL (Corpus Discursivo para Análises Linguísticas e Literárias) (UFMG) e do Grupo de Pesquisa TRACOR (Grupo de Pesquisa em Tradução e Corpora) (UFSC), esta tese apresenta uma proposta metodológica de compilação de corpus, pautada no perfil e nas necessidades emergentes em 20 dissertações de mestrado produzidas entre 2003 e 2010 em Estudos da Tradução, utilizando simultaneamente o arcabouço metodológico de corpus e teórico da Linguística Sistêmico-Funcional. Nesta tese a Linguística de Corpus oferece os fundamentos teórico-metodológicos, no que tange à Metodologia de Corpus(Barnbrook, 1996 Kennedy, 1998; Bowker, 2001; Mason, 2008) e os Estudos da Tradução Baseados em Corpus (ETBC) oferecem os fundamentos teórico-metodológicos voltados aos Estudos da Tradução (cf. Baker, 1995; Olohan, 2004; Vasconcellos, 2009; Assis, 2012; Feitosa, 2005; Fernandes, 2006). Para o desenvolvimento da pesquisa, são adotados procedimentos metodológicos para: a coleta e a descrição dos métodos das 20 pesquisas analisadas; a criação de uma proposta metodológica, por meio de Templates em Processadores de Texto, como o MS Word, e Aplicativos de Planilhas, como o MS Excel; e o teste destes Templates em um Estudo Piloto. A análise do perfil metodológico das 20 dissertações identifica que a maioria das dissertações passa pelos seguintes processos de compilação de corpus: (i) preparação do corpus para um alinhamento semiautomático; (ii) alinhamento das unidades desalinhadas; (iii) anotação do corpus e revisão da anotação e (iv) quantificação dos dados. A análise dessas dissertações evidencia, entretanto, algumas inconsistências metodológicas nos processos de compilação do corpus, o que pode comprometer a eficiência e a continuidade da pesquisa, tais como: (a) ausência de padronização metodológica que implica desperdício de tempo de pesquisa na fase de compilação do corpus; (b) excesso de etapas metodológicas para a execução de um único procedimento; (c) demasiadas transições de um programa a outro durante a fase de compilação do corpus e (d) produção de inúmeros documentos. Com base nos resultados dessas análises, propõe-se um método mais eficiente, que implica em: (a) agilizar os processos de compilação de corpora paralelos bilíngues de pequena dimensão, (b) reduzir o número das etapas em cada processo, (c) reduzir o número dos programas utilizados; (d) reduzir o número da geração de diferentes documentos e (e) flexibilizar o modo de anotação do corpus. O modelo metodológico desenvolvido em um Template no processador de texto e outro em um aplicativo de planilha. Esses Templates são testados em um Estudo Piloto e seus resultados comparados ao método de compilação adotado em Fleuri (2006), tendo utilizado ambos o mesmo corpus. Os resultados desse Estudo apontam para a produtividade e viabilidade da proposta metodológica, que mostra ser capaz de agilizar o processo (i) de preparação do corpus para o alinhamento, (ii) de correção das unidades desalinhadas no corpus paralelo, (iii) de quantificação dos dados, assim como, ser capaz de flexibilizar o código de anotação do corpus e de organizar a exposição em tabela e gráficos dos elementos anotados e dos dados quantificados. O Estudo Piloto, em comparação a Fleuri (2006), mostrou ter reduzido a ¼ o tempo total de compilação, a metade o número de etapas totais executadas, a 1/5 o número de programas utilizados e a menos da metade o número de documentos gerado.<br> / Abstract : Within the context of research in the project CORDIALL and TRACOR developed at UFMG and UFSC (Brazil), this PhD thesis presents a methodological proposal for corpus compilation, based on the profiles and the needs of 20 Master's thesis in the interface with Translation Studies, Corpus Linguistics, and Systemic-Functional Linguistics, developed in Brazil between 2003 and 2010. The methodological and theoretical concepts that conduces this thesis are presented by the Corpus-Based Method presented in Corpus Linguistics (Barnbrook, 1996 Kennedy, 1998; Bowker, 2001; Mason, 2008), and the Corpus-Based Translation Studies (cf. Baker, 1995; Olohan, 2004; Vasconcellos., 2009; Assis, 2012; Feitosa, 2005; Fernandes, 2006). The methods followed in this research consist in: colecting and describing the 20 MA thesis mencioned before; studying their methods; creating a fast and economic methodological proposal for corpora compiling, using programming features of Word Processor and Spreadsheet Application; and testing this method in an Pilot Study. The analysis of the methodological profile of these 20 Master thesis identifies that their parallel bilingual small corpus compilation processes are the following: (i) corpus preparation for a semi-automatic alignment; (ii) alignment; (iii) corpus annotation and annotation edition; and (iv) data quantification. Nevertheless, the analysis points to methodological inconsistencies in the processes of corpus compilation, which can impair the investigation itself or the continuation of it in further studies. The inconsistencies concern the: (i) high amount of time spent on the compilation processes; (ii) high number of stages involved in just one process; (iii) high number of transitions between different software; and (iv) high production of documents. Based on these results, this Thesis proposes to solve such inconsistencies by creating an efficiate method of corpus compilation, that aims to: (i) fasten the compilation processes; (ii) reduce the number of stages involved in each process; (iii) reduce the number of software accessed during the corpus compilation; (iv) reduce the number of production of different documents; and plus (v) to turn the corpus annotation more flexible. The proposal is developed on MS Office software (MS Word and MS Excel). Templates with Macros and Formula are created and tested in a Pilot Study, whose results are compared with the corpus compilation results in Fleuri (2006). The methodological proposal reveals to fasten the process of (i) corpus preparation for the alignment; (ii) alignment; (iii) data quantification; and to make the corpus annotation more flexible and the data display more organized (in tables and graphics). The Pilot Study, comparing to Fleuri (2006), reduced to ¼ the total time involved in the corpus compilation; to ½ the total number of stages involved in the corpus compilation; to 1/5 the total number of transitions among different software and to less than ½ the number of document produced.
159

Modelo posicional de marcas d'água digitais

Borges, Paulo Vinicius Koerich January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-22T04:04:16Z (GMT). No. of bitstreams: 0 / Este trabalho apresenta um novo metodo de sistema de marca d´agua digital para imagens, denominado m´etodo posicional. Nessa abordagem, a informaçao a ser transmitida é dada pela posiçao da marca d´agua, e nao exclusivamente pelo seu conteudo, como ocorre em sistemas usuais. Considerando uma imagem digital de tamanho M × N, existe um numero muito grande de alternativas (em termos de posicionamento) de como inserir sobre essa imagem um dado numero de blocos de marcas d´agua de dimensoes wh × ww, onde wh · ww M · N. Para cada uma dessas alternativas, fazendo uso de um esquema de codificaçao apropriado, pode ser atribuida uma sequencia de bits S. Assim, blocos de marca d´agua sao adicionados a uma imagem, e suas posiçoes correspondem `a informaçao a ser inserida. Resultados experimentais ilustram que a principal vantagem da proposta é a alta transparencia perceptual, pois apenas uma pequena parte da imagem é modificada. Equações para a capacidade do método sao deduzidas em funçao das dimensoes da imagem e da marca d´agua. Sao também apresentados aspectos de uma inserçao informada aplicada ao m´etodo, onde consideram-se características da imagem antes da inserçao final. O objetivo do trabalho é apresentar um sistema de marca d´agua que, sob determinadas circunstancias, seja útil e mais eficiente que outros métodos tradicionais.
160

Gerencia confiável de redes locais baseada em diagnóstico distribuído

Bona, Luis Carlos Erpen de 07 February 2011 (has links)
Resumo: Este trabalho apresenta uma ferramenta para gerência confiável de redes baseada em diagnóstico distribuído. A ferramenta utiliza os serviços do protocolo de gerência SNMP (Simple Network Management Protocol) e implementa o algoritmo Hi-ADSD with Timestamps. A ferramenta é composta por um sistema onde múltiplos agentes SNMP, executando o algoritmo de diagnóstico distribuído, monitoram a si mesmos e a um conjunto de serviços e dispositivos da rede. A estratégia para garantir a monitoração destes serviços e dispositivos de redes no algoritmo Hi-ADSD with Timestamps é uma contribuição deste trabalho. A MIB (Management Information Base) chamada Test-MIB é especificada neste trabalho, esta MIB é implementada por cada unidade da ferramenta e fornece as estruturas utilizadas pelo algoritmo de diagnóstico. A Test-MIB também permite a definição de procedimentos de testes específicos para os elementos de rede monitorados. As informações obtidas pela ferramenta são disponíveis através da MIB, que pode ser acessada através de aplicações SNMP ou através de uma interface Web. Resultados práticos apresentados incluem a utilização da ferramenta para monitorar uma rede local. Um servidor Web tolerante a falhas usando a ferramenta de diagóstico também é apresentado.

Page generated in 0.0705 seconds