• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 694
  • 38
  • 15
  • 4
  • 4
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 759
  • 759
  • 305
  • 301
  • 288
  • 195
  • 135
  • 124
  • 122
  • 117
  • 86
  • 82
  • 80
  • 78
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Desconvolução autodidata concorrente para beamformers não supervisionados em antenas controladas por reatância

Ortolan, Leonardo January 2007 (has links)
Made available in DSpace on 2013-08-07T18:52:57Z (GMT). No. of bitstreams: 1 000392290-Texto+Completo-0.pdf: 2449610 bytes, checksum: e98cfa50388a7a3f744c3841c0b5837e (MD5) Previous issue date: 2007 / The electronically steerable parasitic array radiator (ESPAR) is a smart antenna suited for low-cost user terminal applications. Beamforming is achieved by adaptively adjusting the load reactances at parasitic elements surrounding the active central element. The main goal is to establish nulls in the interfering directions of the array radiation pattern. This work presents two new blind beamformers for use with reactance domain controlled arrays, such as ESPAR antennas. The new beamformers are based on the concurrent operation of two stochastic gradient algorithms, one which minimizes a cost function that measures the received signal energy dispersion and other which minimizes the Euclidean distance between the received digital modulation symbols and the ones in the reference constellation. The first algorithm applies the principle of operation of the Concurrent Self-learning Deconvolution Process (CSDP) to the Maximum Moment Criterion (MMC) algorithm. The second algorithm uses the original architecture of the CSDP, which relies upon the Constant Modulus Algorithm (CMA). These two approaches not only evaluate the energy of the received signal, but also the signal phase, needing no transmission of any training sequence. The results show that these two concurrent approaches result not only in a smaller mean square error (MSE) in relation to the reference constellation of the digital modulation but also result in a better signal to interference ratio. / A ESPAR (Electronically Steerable Parasitic Array Radiator) é uma antena adaptativa, utilizada para recepção de sinais digitais. Esta antena, diferentemente das demais antenas inteligentes, necessita de apenas um downconverter no elemento central ativo. Todos os outros elementos da antena são parasitas e modelam o diagrama de irradiação através do ajuste independente de reatâncias controláveis. Estas reatâncias são ajustadas por meio de um algoritmo adaptativo. O objetivo deste algoritmo é buscar um conjunto de valores para as reatâncias, tal que o diagrama de irradiação seja modelado de modo a anular sinais interferentes. Neste trabalho são propostos dois novos algoritmos baseados no Gradiente Estocástico, para controle de antenas controladas por reatâncias, tal como a ESPAR. O primeiro algoritmo aplica o princípio de operação do Processo de Desconvolução Autodidata Concorrente (PDAC) ao algoritmo Maximum Moment Criterion (MMC). Já o segundo algoritmo utiliza a arquitetura original do PDAC. Esses processos avaliam não apenas a energia do sinal recebido (amplitude), mas também a fase do sinal, sem necessidade de transmissão de qualquer seqüência de treino. Os resultados obtidos demonstram que os algoritmos que utilizam a arquitetura concorrente não só resultam em um menor erro médio quadrático em relação à constelação de referência da modulação digital, como também resultam em uma melhor relação sinal-interferência.
172

Estudo e desenvolvimento de algoritmos para o reconhecimento de arritmias cardíacas

Scolari, Diogo January 2007 (has links)
Made available in DSpace on 2013-08-07T18:53:04Z (GMT). No. of bitstreams: 1 000396423-Texto+Completo-0.pdf: 3058753 bytes, checksum: a4035eb0df593d854258c168ae594b28 (MD5) Previous issue date: 2007 / The purpose of this work is studying the algorithms that can recognize cardiac arrhythmias. In this sense, a detailed analysis of two algorithms was made: HMM (Hidden Markov Model) and RBF (Radial Basis Function) artificial neural network, with the aim of recognizing three arrhythmias and the regular rhythm. The arrhythmias used for this research are: Atrial Fibrillation, Ventricular Tachycardia and Ventricular Fibrillation. They were selected by the following reasons: due to the need for immediate eletric defibrillation in Ventricular Tachycardia and Ventricular Fibrillation, and to the fact that the Atrial Fibrillation is the most incident in the world's population. The need for recognition of arrhythmias can be seen in AED (Automatic External Defibrillator) equipments, which is utilized to recognize and reverse the cardiac arrest in areas outside the hospitals environments. These pieces of equipment are being increasingly utilized by many countries, as an atempt to diminish mortality rates. Firstly, the heart was studied theoretically and the characteristics of each arrhythmia were analysed, in order to identify them. Secondly, pacients were selected in the biological signal database, PhsysioNet, for collecting data. After that, the results were generated by the comparison between the algorithms and their precisions. Finally, it was possible to confirm that both algorithms present good performance in the recognition of cardiac arrhythmias and was possible to reveal performance characteristics of both systems that corroborate the purpose of this work. / O presente trabalho tem por objetivo o estudo de algoritmos para o reconhecimento de arritmias cardíacas. Para tanto, fez-se uma análise detalhada de dois algoritmos: HMM (Hidden Markov Model) e rede neural artificial do tipo RBF (Radial Basis Function), com a finalidade de reconhecer três arritmias e o ritmo normal. As arritmias que foram utilizadas na pesquisa são: a Fibrilação Atrial, a Taquicardia Ventricular e a Fibrilação Ventricular. Tais arritmias foram selecionadas pela necessidade de desfibrilação elétrica imediata na Taquicardia Ventricular e na Fibrilação Ventricular e pelo fato da Fibrilação Atrial ser a arritmia de maior incidência na população mundial. A necessidade de reconhecimento de arritmias pode ser vista em equipamentos DEA (Desfibriladores Externos Automáticos), utilizados para reconhecer e reverter a parada cardíaca em locais fora de ambientes hospitalares. Estes equipamentos estão sendo cada vez mais utilizados em vários países, como uma tentativa de diminuir o índice de mortalidade. Primeiramente, foi feito um estudo teórico sobre o coração, analisando as características de cada tipo de arritmia, a fim de poder identificá-las. Os pacientes foram selecionados no banco de dados de sinais biológicos, PhysioNet, para coleta de dados. Após isso, foi feita uma análise teórica detalhada dos sistemas de reconhecimento e em seguida, passou-se a gerar resultados a partir da comparação entre os algoritmos e suas precisões. Para atingir tais resultados, foi elaborada uma metodologia específica de pesquisa. Ao final, foi possível constatar que ambos algoritmos apresentam bom desempenho no reconhecimento das arritmias cardíacas, bem como também foi possível expor as características de desempenho de cada um dos sistemas.
173

Desenvolvimento de uma gôndola para realização de experimentos em uma centrífuga

Gomes, Michele dos Santos January 2008 (has links)
Made available in DSpace on 2013-08-07T18:53:29Z (GMT). No. of bitstreams: 1 000401160-Texto+Completo-0.pdf: 17525525 bytes, checksum: eb8803afa7e7de25def9d819f3df916e (MD5) Previous issue date: 2008 / Human centrifuges had been used to train pilots and test anti-g suits, which were developed to reduce the effects of the simulated hypergravity on human physiology. The small centrifuge of the Microgravity Center/PUCRS has some determined functions, while the microcomputer captures the data sent from it. This data corresponds to that obtained from various sensors already existing in the centrifuge, and to others that have been added during this study. These sensors supply information to microcomputer in an integrated form, in near real time, for future analyse. A library of functions for serial port communication, called ComPort Library version 2. 64, was used for the asynchronous communication between the reception’s module of the signs acquired by the radio’s enlace. This is a non-cost library. Initially, it was planed to be a shareware library, but it ultimately became a freeware library with available source codes, which are compatible with version 7. 0 of Delphi™ that was used in this project. / Centrífugas humanas têm sido utilizadas para treinamento de pilotos e em testes com trajes anti-G, que são utilizados para minimizar os efeitos da hipergravidade simulada na fisiologia humana. A centrífuga de pequeno porte do Centro de Microgravidade/PUCRS realiza algumas funções determinadas, enquanto o microcomputador capta os dados emitidos por ela. Estes dados correspondem aos enviados pelos diversos sensores existentes na centrífuga e aos novos sensores adicionados neste trabalho. Estes sensores fornecem dados no microcomputador de forma integrada, em tempo próximo ao real, para serem analisadas posteriormente. Após estabilizar-se a velocidade da centrífuga de pequeno porte e esta não sofrer variações, o valor colhido do sensor de velocidade é então confrontado com o valor obtido no tacômetro. Prosseguiu-se com o processo de aferição dos instrumentos e a sincronização entre todos os sensores e placas. Para a comunicação assíncrona entre o módulo de recepção dos sinais vindos via enlace de rádio, foi usada uma biblioteca de funções de comunicação com a porta serial, chamada ComPort Library versão 2. 64. Esta biblioteca está disponível para uso sem custos.
174

Método para processamento e análise de sinais de eletrocardiogramas através de premissas geométricas

Santos, Daiane Pioli dos January 2018 (has links)
A interpretação dos gráficos gerados em exames com eletrocardiogramas (ECG) requer profissionais da área da saúde treinados para identificar as oscilações elétricas que resultam da atividade do coração. Ainda assim, pequenas alterações podem não ser percebidas, ou desprezadas, eliminando chances potenciais de detecção de patologias em estágios iniciais. A grande maioria dos procedimentos automatizados para a análise de ECGs é baseada em técnicas de filtragem digitais e estatísticas, nas quais geralmente se verifica a desvantagem não apenas do custo computacional, como também a perda da qualidade do sinal e o consequente comprometimento das informações extraídas. O presente trabalho lança mão de filtros com premissas geométricas que preservam essas informações e ainda contribuem para a redução no número de pontos redundantes contidos em um ECG. Também propõe a criação de uma identidade cardíaca capaz de traduzir o padrão morfológico único e característico de cada paciente. Foram analisados ECGs de 52 indivíduos saudáveis, e a redução de pontos alcançada foi de mais de 95%. Por fim, o desenvolvimento de uma ferramenta gráfica apresentou uma nova abordagem que viabiliza tanto uma análise personalizada do ECG, como também um acompanhamento da condição cardíaca ao longo da vida. / An interpretation of the graphs generated on electrocardiograms exams (ECG) requires trained healthcare professionals to identify the electrical oscillations that result from heart activity. Even so, small changes can not be perceived, and clinical changes may be neglected, eliminating potential chances of detection of pathologies still in early stages. The large majority of automated procedures for analysis of ECGs are based on digital and statistical filtering techniques, in which it usually occurs beyond computational cost, loss of signal quality and the resulting compromise of extracted information. The present work makes use of filters with geometric premises that preserve this information and also contribute to the reduction in the number of redundant points contained in an ECG. It also proposes the creation of a cardiac identity capable of translating the unique and characteristic morphological pattern of each patient. ECGs were analyzed from 52 healthy individuals, and the reduction of points achieved was greater than 95%. Finally, the development of a graphical tool presented a new approach that enables both a personalized ECG analysis and a monitoring of the cardiac condition throughout life.
175

O problema quadrático de autovalor em vibrações e nanotecnologia

Scotti, Monica January 2007 (has links)
Nesta dissertação é apresentado o problema quadrático de autovalores com ênfase em modelos encontrados no estudo de vibrações. É feita uma discussão dos métodos de resolução do problema de autovalor de primeira ordem que podem ser utilizados em conjunto com as técnicas de linearização do problema quadrático quando reduzido a um problema generalizado. Tal abordagem é muito comum na resolução dos problemas quadráticos, no entanto, é possível discutir os métodos da potência e o método de Krylov sem recorrer á linearização. Para isto é utilizada uma abordagem direta dos problemas de segunda ordem que originam o problema quadrático de autovalor em termos da solução fundamental ou função de Green de valor inicial. Simulações são realizadas para problemas de autovalor que provêm da nanotecnologia e da dinâmica estrutural. / In this dissertation the quadratic eigenvalue problem is presented with an emphasis on models found in the study of vibrations. A discussion is made of the numerical methods for solving the first-order eigenvalue problem that can be used in conjunction with linearization techniques of the quadratic problem when reduced to a generalized problem. Such an approach is very common in the resolution of quadratic problems, however, it is possible to discuss the power method and the method of Krylov without using linearization. In order to do so there is employed a direct approach of problems of second order that originate the quadratic eigenvalue problem in terms of the fundamental solution or initial value Green's Function. Simulations have been performed for eigenvalue problems arising in nanotechnology and structural dynamics.
176

Sistema para processamento de áudio em aparelhos auditivos baseado em filtros analógicos utilizando a decomposição Wavelet / System for processing audio for hearing aid based in analog filters using the Wavelet decomposition

Rodrigues, Gabriela Meira de Moura 27 February 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade Gama, Programa de Pós-Graduação em Engenharia Biomédica, 2014. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2014-08-20T15:41:30Z No. of bitstreams: 1 2014_GabrielaMeiraMouraRodrigues.pdf: 2041493 bytes, checksum: 180ce25c6e4d76ca85efcf259d58dcff (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-08-22T12:34:44Z (GMT) No. of bitstreams: 1 2014_GabrielaMeiraMouraRodrigues.pdf: 2041493 bytes, checksum: 180ce25c6e4d76ca85efcf259d58dcff (MD5) / Made available in DSpace on 2014-08-22T12:34:45Z (GMT). No. of bitstreams: 1 2014_GabrielaMeiraMouraRodrigues.pdf: 2041493 bytes, checksum: 180ce25c6e4d76ca85efcf259d58dcff (MD5) / A utilização de filtros analógicos da Transformada Wavelet (WT) em um sistema de tratamento de áudio para aparelho auditivo possui vantagens como melhor relação sinal-ruído (SNR), comparadas com outras técnicas de processamento de sinais utilizadas neste tipo de sistema. A relação sinal-ruído (SNR) é maior com esse tipo de tratamento, obtendo ainda melhor resultado ao selecionar a Gaussiana de ordem primeira como filtro da Wavelet. Além disso, devido ao fato de o sistema apresentado ser analógico não há necessidade de implementação de conversores Analógico-Digital (A/D) e Digital-Analógico (D/A). Foram realizados vários testes por diagramas de blocos, utilizando o programa computacional Simulink do MATLAB, com filtros passa-banda, passa-baixa e com todos os filtros da transformada Wavelet, confirmando o bom funcionamento da gaussiana de ordem primeira como filtro da Wavelet. Por fim, foram explanadas as diferenças entre os tipos e intensidades das deficiências auditivas, selecionando o grau moderado (entre 40 e 69 dB Na) para o tratamento com o presente sistema levando em consideração o limiar de dor dependente da frequência, ou seja, o limite máximo suportável pela orelha humana podendo ocorrer danos à estrutura. O som acrescido de ruído foi tratado pelas gaussianas 8,16,32 e 64 e em seguida foi submetido a um amplificador de controle de ganho automático (AGC). Através dos resultados obtidos em simulações elétricas, foi atingida uma melhor Relação Sinal Ruído (SNR), e assim, melhorando a qualidade sonora do sinal processado. ______________________________________________________________________________ ABSTRACT / The use of analog filters for Wavelet Transformer in a system for processing audio for hearing aid has advantages, for example, the better Signal Noise Ratio(SNR), comparing to others techniques of signal processing used in this type of system. The signal to noise ratio (SNR) is higher with this type of treatment, still getting better results when treated selecting Gaussian first order as a filter of Wavelet decomposition. Furthermore, the fact that the system is analog, there is no need to implement analog to digital and digital to analog converters. In this work several tests on system level where performed. Using the computation programmer Simulink of MatLab with band-pass filters, low-pass, and all filters of the Wavelet Transform, confirm the suitability of the Gaussian wavelet filter of the first order. The differences between the types and intensities of hearing loss were explained, choosing moderate (between 40 and 69 dB Na) for treatment with this system taking into account the threshold of pain frequency dependent, that is, supportively maximum limit damage to the human ear can occur structure. The sound with a Gaussian noise was addressed by 8, 16, 32 and 64 wavelet scales, and then, was applied to an automatic gain control (AGC) circuit. From the simulated results, we obtained better Signal Noise Ratio (SNR), and thus, improving the sound quality of the processed signal.
177

Criação e manipulação de áudio 3D em tempo real utilizando unidades de processamento gráfico (GPU)

Gomes, Diego Augusto Rodrigues 04 April 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2012. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2012-09-17T12:27:02Z No. of bitstreams: 1 2012_DiegoAugustoRodrigoGomes.pdf: 3113948 bytes, checksum: ddbeed3645907de67f488ff7848877d5 (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2012-09-18T11:02:03Z (GMT) No. of bitstreams: 1 2012_DiegoAugustoRodrigoGomes.pdf: 3113948 bytes, checksum: ddbeed3645907de67f488ff7848877d5 (MD5) / Made available in DSpace on 2012-09-18T11:02:03Z (GMT). No. of bitstreams: 1 2012_DiegoAugustoRodrigoGomes.pdf: 3113948 bytes, checksum: ddbeed3645907de67f488ff7848877d5 (MD5) / O uso crescente de unidades de processamento gráfico, Graphics Processing Units (GPUs), no desenvolvimento de aplicações de propósito geral nos permite criar softwares e sistemas capazes de processar grandes volumes de dados paralelamente. Isso faz com que aplicações, que antes imagin´avamos inviáveis no sentido de sua utilização, possam ser construídas. No contexto de aplicações que demandam alto poder de processamento, encontra-se o processo de criação de áudio tridimensional em tempo real e os sistemas de auralização. Tais sistemas têm o objetivo de simular virtualmente o posicionamento de fontes sonoras por meio de funções matem áticas responsáveis por aplicar os parâmetros de direcionalidade em um bloco de sinal de áudio, transmitindo-nos a sensação de posicionamento no campo sonoro ao nosso redor. Essa capacidade demanda a utilização de procedimentos de interpolação capazes de estimar as funções matemáticas de posi- ções pelas quais tais valores não são conhecidos, a partir de funções vizinhas previamente conhecidas. A possibilidade de otimização desses métodos de interpolação e consequentemente de sistemas que se utilizam destes m´etodos, abre caminhos para novas experiências sonoras no campo do entretenimento e da realidade virtual. Para tornar essa otimização possível, experimenta-se o uso de dispositivos eficientes e acessíveis capazes de processar um volume massivo de dados em paralelo. Este trabalho mantém o foco no desenvolvimento de uma biblioteca capaz de realizar a interpolação de HRTFs, as funções de transferência relacionadas à cabeça responsáveis por transmitir a percepção de direcionalidade de uma fonte sonora, e a síntese de áudio tridimensional em tempo real por meio da utilização de hardware gráfico para o processamento massivo de dados em paralelo e tomando como base o algoritmo de interpolação no domínio da transformada wavelet desenvolvido em trabalhos anteriores. Além disso, com a otimização desse método de interpolação, apresenta-se um programa capaz de sintetizar em tempo real o áudio resultante da aplicação dessas funções a partir de dados referentes ao posicionamento espacial da fonte sonora fornecidos por um usuário. Também como parte do escopo desse trabalho, a implementação com técnicas de processamento paralelo com base no uso de múltiplas threads é comparada com a implementação utilizando GPU. ______________________________________________________________________________ ABSTRACT / The increasing use of graphics processing units (GPUs) in the development of general- purpose applications allows us to develop software and systems capable of processing large amount of data in parallel. This means that applications once thought impractical, in the sense of its use, can be constructed with the use of these powerful and emerging processing units. In the context of applications that are heavy in terms of processing, there is the process of creating three-dimensional audio in real time and the auralization systems. Such systems are designed to virtually simulate the placement of sound sources by means of mathematical functions responsible for applying the parameters of directionality in a block of audio signal, giving us the sense of position in the sound field around the listener. This capability requires the use of interpolation procedures able to estimate the mathematical functions of positions, for which such values are not known, from neighboring functions previously known. The possibility of optimization of these methods of interpolation, and as a consequence the systems that use these methods, brings new sound experiences in the field of entertainment and virtual reality. To make this optimization possible, we experiment to use efficient and affordable devices capable of handling a massive volume of data in parallel. This work aims to focus on the development of a library to interpolate the HRTFs, the mathematical functions responsible for transmitting the perception of directionality of a sound source, and to synthesize 3D audio in real-time by using graphic hardware for massive and parallel data processing based on the interpolation algorithm in wavelet domain developed in previous works. In addition, with the optimization of this method of interpolation, as a result of using graphics processing units, a program was created to synthesize real-time audio resulting from the application of these transfer functions from data on the spatial positioning of the source sound provided by a user. Also as part of the scope of this work, we compare the implementation using multiple threads techniques with the implementation using GPU.
178

Estimação da direção de chegada (DOA) de sinais eletromagnéticos em canais reversos CDMA utilizando antenas inteligentes

Horewicz, Marcelo Corrêa 15 December 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2006. / Submitted by Thaíza da Silva Santos (thaiza28@hotmail.com) on 2011-02-12T15:57:08Z No. of bitstreams: 1 2006_MarceloCorreahorewicz.pdf: 1086280 bytes, checksum: 874b6d68c3fe7095344992a7e4452c60 (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2011-02-15T22:46:58Z (GMT) No. of bitstreams: 1 2006_MarceloCorreahorewicz.pdf: 1086280 bytes, checksum: 874b6d68c3fe7095344992a7e4452c60 (MD5) / Made available in DSpace on 2011-02-15T22:46:58Z (GMT). No. of bitstreams: 1 2006_MarceloCorreahorewicz.pdf: 1086280 bytes, checksum: 874b6d68c3fe7095344992a7e4452c60 (MD5) / O grande esforço dos engenheiros de telecomunicações é a viabilização de métodos que permitam o uso eficiente do espectro de freqüências, que é um bem escasso. O Acesso Múltiplo por Divisão de Código (CDMA) e a técnica de processamento espacial utilizando arranjo de antenas são duas tecnologias que podem ser aplicadas para este fim. Neste contexto, a utilização de antenas inteligentes melhora a recepção ao mesmo tempo em que diminui as interferências. Para isto, é importante que a direção de chegada (DOA) dos sinais de interesse seja estimada. Neste trabalho de dissertação, inicialmente, a tecnologia de antenas inteligentes e o sistema celular CDMA são descritos. Em seguida, diversas técnicas de estimação de direção de chegada de sinais eletromagnéticos em canais reversos CDMA são estudadas e comparadas. Depois, três estimadores de DOA, utilizando o método de estimação de máxima verossimilhança (ML) com o algoritmo de máxima expectância (EM), aqui denominados de EM1, EMM e EMS, são apresentados e, seus desempenhos são comparados pelo erro médio absoluto das estimativas e pela variância do erro de estimação. É verificado, por meio de simulações em MATLAB, que o algoritmo EMM possui excelente desempenho em todos os cenários criados. Pelo resultado das simulações é possível concluir que o algoritmo EMM apresenta os melhores resultados em ambiente CDMA. _________________________________________________________________________________ ABSTRACT / The great effort of communications engineers is to create methods that allows improve spectrum usage efficiency, that is a scarce resource. The Code Division Multiple Access (CDMA) and the spatial processing techniques using array of antennas are two enable technologies to achieve this task. In this context, the smart antennas technique can improve the reception of the signals of interest and can reduce the interferences at the same time. For this reason, it is important the estimation of the Direction of Arrival (DOA) of the signals of interest. In this dissertation, initially, the technology of smart antennas and the cellular CDMA system are described. Then, several Direction of Arrival estimation techniques of electromagnetic signals using the reverse channels CDMA are studied and compared. After that, three Direction of Arrival estimators are presented and their performances are compared for estimative absolute mean error and estimative variance error. These methods use the maximum likelihood (ML) approach with expectation maximization (EM) algorithm and are called EM1, EMM and EMS. It is verified, using simulations in MATLAB, the EMM algorithm has excellent performance in all created scenarios. In conclusion, the EMM algorithm using in reverse channel CDMA presents better results.
179

Atualização do laboratório de antenas do ENE/UNB para medição de sinais em ambiente Wireless operando até 6GHZ

Silva, Maurício de Almeida 15 March 2011 (has links)
Dissertação (mestrado)-Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2011. / Submitted by Débora Amorim Romcy Pereira (deboraromcy@bce.unb.br) on 2011-06-27T12:36:09Z No. of bitstreams: 1 2011_MaurícioDeAlmeidaSilva.pdf: 1710694 bytes, checksum: b942a9f0be02bcde793b689e583df996 (MD5) / Approved for entry into archive by Guilherme Lourenço Machado(gui.admin@gmail.com) on 2011-06-27T15:41:51Z (GMT) No. of bitstreams: 1 2011_MaurícioDeAlmeidaSilva.pdf: 1710694 bytes, checksum: b942a9f0be02bcde793b689e583df996 (MD5) / Made available in DSpace on 2011-06-27T15:41:51Z (GMT). No. of bitstreams: 1 2011_MaurícioDeAlmeidaSilva.pdf: 1710694 bytes, checksum: b942a9f0be02bcde793b689e583df996 (MD5) / Atualmente, as pessoas estão usufruindo de acesso à internet wireless por meio de serviços de telefonia, rádio e televisão. O rápido crescimento da internet wireless proporciona uma demanda por meios de acesso com cada vez mais velocidade. Para atender a esta demanda por acesso à internet a qualquer momento e garantindo qualidade do serviço, o grupo de trabalho IEEE 802.16 definiu uma nova tecnologia de banda larga para acesso wireless chamada de WiMAX (Worldwide Interoperability for Microwave Access). Desde o início da implantação do primeiro sistema de telecomunicação móvel, existe o interesse em se ter uma previsão de como tais sinais se comportariam, quais os fatores seriam significantes neste comportamento. Outra preocupação crescente foi o modo de realizar as medidas destes mesmos sinais e quais seriam os passos a seguir e os padrões a serem observados. Foi a partir destes fatores de motivação, que vários pesquisadores dedicaram parte do seu tempo na realização de estudos com base empírica e determinísticas para obtenção de modelos que forneçam uma boa previsão dos comportamentos dos sinais que estavam sendo transmitidos. Desta forma, para permitir a realização de estudos envolvendo sinais gerados na faixa de frequência da tecnologia WiMAX (2,5 GHz, 3,5 GHz e 5,8 GHZ), foi realizada prospecção de equipamentos que poderiam ser adquiridos para atualização do laboratório de antenas e consequente realização de experimentos didáticos envolvendo frequências de até 6GHz. Tendo sido adquirido o equipamento Agilent FieldFox RF Analyzer N9912A e GPS (eTrexH da Garmin), bem como cabos e antenas que viabilizassem a realização de experimentos vii didáticos no laboratório de antenas. Foram realizados testes com os equipamentos adquiridos e executados experimentos didáticos no laboratório de antenas (validação de diagrama de radiação de uma das antena e da fórmula de Friis para perda no espaço livre). Foi realizado ainda contato com empresa de Brasília que está operando com a tecnologia WiMAX em 5,8 GHz, objetivando realizar experimentos de medida do sinal gerado por esta empresa e posterior comparação dos resultados obtidos com alguns modelos de predição. ______________________________________________________________________________________ ABSTRACT / Nowadays, people are using wireless internet access for telephony, radio and television services. The rapid growth of wireless internet causes a demand for high speed ways of access. In order to serve the demand for access to the internet and to ensure quality of service, the IEEE 802.16 working group introduced a new broadband wireless access technology referred to as WiMAX (Worldwide Interoperability for Microwave Access). Since the beginning of the implementation of the first mobile telecommunication system, it is useful to predict how is the behavior of such signals and which factors could determine this behavior. Another increasing concern was the way to perform the measurements of these same signals and which steps are required, as well as the standards that needed to be observed. Within this context, many researchers conducted empirical and deterministic studies to obtain models that provide a good prediction of the electrical behavior of the signals that are being transmitted. In order to investigate signal in the frequency range of WiMAX (2.5 GHz, 3.5 GHz and 5.8 GHz), we specified and acquired equipments to upgrade the antenna laboratory and performed teaching experiments involving frequencies up to 6GHz. We also purchased the Agilent N9912A FieldFox RF Analyzer and GPS (Garmin eTrexH), as well as cables and antennas to perform the educational experiments (validation of the radiation patterns of antennas and the Friis formula for free space loss). ix Finally, we also contacted a company in Brasilia, which is operating commercially with WiMAX at 5.8 GHz, and carried out experiments to measure the signal generated by this company and compared the results obtained with a few prediction models available in the literature.
180

Métricas de qualidade de imagens sem referência utilizando atenção visual / No-reference image quality metric based on visual attention

Garrido, Tainá Borges Andrade 01 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Engenharia Elétrica, 2014. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-04-15T13:13:40Z No. of bitstreams: 1 2014_TainaBorgesAndradeGarrido.pdf: 5153253 bytes, checksum: 24bb24a97464b34e15acf8a3b9b6ab0d (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-07-22T13:38:06Z (GMT) No. of bitstreams: 1 2014_TainaBorgesAndradeGarrido.pdf: 5153253 bytes, checksum: 24bb24a97464b34e15acf8a3b9b6ab0d (MD5) / Made available in DSpace on 2014-07-22T13:38:06Z (GMT). No. of bitstreams: 1 2014_TainaBorgesAndradeGarrido.pdf: 5153253 bytes, checksum: 24bb24a97464b34e15acf8a3b9b6ab0d (MD5) / A qualidade da imagem está associada a capacidade do Sistema Visual Humano (SVH) perceber degradações. Muitas métricas de qualidade se utilizam da comparação com a imagem original para mensurar a qualidade da imagem degradada. Estas métricas são conhecidas como métricas com referência ou referenciadas. Infelizmente, em aplicações práticas nem sempre se dispõe da imagem de referência para a avaliação da qualidade. Dessa forma, muitas pesquisas têm sido desenvolvidas com a finalidade de criar e implementar métricas de avaliação objetivas sem-referência ou não referenciadas. Naturalmente, por não utilizar a referência (original) para estimar a qualidade, estas métricas são menos precisas que as métricas com referência. Neste contexto, o presente trabalho tem o objetivo de melhorar o desempenho de métricas de qualidade sem-referência disponíveis na literatura. Com este fim, apresentamos uma proposta de aperfeiçoamento destas métricas utilizando modelos computacionais de atenção visual. Com este objetivo, foram empregadas estratégias de combinação da imagem degradada com os respectivos mapas de saliência gerados pelos modelos de atenção visual. Os experimentos realizados através de simulações computacionais apontam que enfatizar as áreas mais relevantes (ou mais salientes) da imagem é uma estratégia eficaz para melhorar o desempenho de métricas existentes. _______________________________________________________________________________________ ABSTRACT / Image quality is frequently associated with the ability of the Human Visual System (HVS) to perceive degradations. In the last few years, several image quality metrics have been proposed that use the original image (or reference) to estimate image quality. These metrics are known as full-reference (FR) metrics. Unfortunately, the reference is not always available in practical application. The alternative consists of using no-reference (NR) image quality metrics that blindly estimate the quality of an image, without having access to the original image. These metrics, in general, have a lower performance when compared to FR image quality metrics. The goal of this work is to improve the performance of no-reference image quality metrics using visual attention computational models. With this goal, we present strategies that consist of combining the test image with saliency maps generated by visual attention models. Experimental results indicate that the proposed approach can be an effective strategy for improving the performance of existing objective metrics.

Page generated in 0.1181 seconds