• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 9
  • 9
  • 7
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Prostředí pro verifikaci digitálních filtrů / Software for digital filter verification

Tesařík, Jan January 2016 (has links)
Diploma thesis deals with design of verification environment for analyzing systems with digital filters. Verification environment is written in SystemVerilog language and it is generated by program, which is also providing generation of input data for system of filters. Matlab environment is used for gaining the reference data. The simulation of the designed involvement with digital filters is performed by program ModelSim. The most watched parameter is functional coverage which indicates how big part of the HDL description has been tested.
2

Cfar Processing With Multiple Exponential Smoothers For Nonhomogeneous Environments

Gurakan, Berk 01 December 2010 (has links) (PDF)
Conventional methods of CFAR detection always use windowing, in the sense that some number of cells are investigated and the target present/absent decision is made according to the composition of the cells in that window. The most commonly used versions of CFAR detection algorithms are cell averaging CFAR, smallest of cell averaging CFAR, greatest of cell averaging CFAR and order-statistics CFAR. These methods all use windowing to set the decision threshold. In this thesis, rather than using windowed CFAR algorithms, a new method of estimating the background threshold is presented, analyzed and simulated. This new method is called the Switching IIR CFAR algorithm and uses two IIR filters to accurately estimate the background threshold. Then, using a comparison procedure, one of the filters is selected as the current threshold estimate and used. The results are seen to be satisfactory and comparable to conventional CFAR methods. The basic advantages of using the SIIR CFAR method are computational simplicity, small memory requirement and acceptable performance under clutter edges and multiple targets.
3

SuperSampleRate-Filter in FPGAs für Subsample-Zeitauflösung und hochauflösende Energiemessung mit Gigasample-Digitizern

Jäger, Markus 28 March 2018 (has links)
Increasing sampling rates and sampling accuracies of analog-to-digital converters (ADCs) are growing the importance of digital data acquisition and signal processing for applications requiring high bandwidth. In this context, this work is focused on researching and developing new techniques and a new system architecture for optimal throughput and minimal intrinsic dead time. The investigations of this work concentrate on event processing systems by pulse shaping on SuperSampleRate (SSR) ADC data streams. SSR ADC data streams are data streams which require processing of more than one sample per clock cycle by digital circuits. To implement data processing in this work only Field Programmable Gate Arrays (FPGAs) are used, as they provide the right approach for high throughput and minimum dead time with ability to adapt to high- application-specific circuits afterwards. As a result of this work a system architecture was developed which decouples the event acquisition and their processing inside the FPGA. This property is realized by a special FIFO structure in the FPGA. This concept achieves an intrinsic dead time of one ADC sample period and allows pre-processing of all channels by multiple instantiated processing cores and scheduling in hardware. By means of this new system architecture, two conventional scientific measuring instruments based on analog technology were improved by digital data acquisition and signal processing. These measuring instruments are a spectrometer for time-differential perturbed angular correlations (TDPAC) and a digital spectrometer and data acquisition system at a nuclear microprobe for ion beam analysis and imaging. Both measuring instruments detect elementary particles or radiation emitted by the measuring sample by detectors as events. The time curves of several analog detector output signals (channels) are now recorded by ADCs and forwarded without loss as SSR data streams to one FPGA. The hardware used here are FPGA digitizers which isolate the data acquisition and subsequent pre-processing by FPGAs into modules. The improvement of the measuring efficiency of the two digital measuring instruments was achieved by minimizing the dead time, increasing the throughput, and by matching their time and energy resolutions with the conventional measuring instruments. Specifically to enable better time and energy resolutions combined with maximum throughput, this work has developed and implemented parallel processing SSR FIR and SSR IIR filters for pulse shaping as processing cores in the FPGAs which can handle multiple samples per clock cycle. To match the time resolution performance of conventional Constant Fraction Discriminators (CFDs) these filter implementations realize a digital Constant Fraction Trigger (CFT) with fractional delays (below one sampling period). In this work the energy resolution was optimized by implementing a transfer function adjustable SSR IIR filter. Thus the filter provides maximum flexibility for pulse shaping of different detector types. By implementing the computationally intensive pre-processing in FPGAs, the measuring instruments could be equipped with only one underutilized PC, which can now implement new functionalities. These functionalities include a runtime-optimized coincidence measurement of stretched cascades (like for 180mHf) for the TDPAC spectrometer and a digital pileup rejection for the data acquisition system for ion beam analysis. / Die digitale Messwerterfassung und -verarbeitung erhält unter anderem durch steigende Abtastraten und Abtastgenauigkeiten von Analog-Digital-Wandlern (ADCs) wachsende Bedeutung für Anwendungen, welche eine hohe Bandbreite voraussetzen. In diesem Rahmen widmet sich diese Arbeit der Erforschung und Entwicklung neuer Techniken und einer neuen Systemarchitektur, mit denen eine Datenaufnahme und anschließende Signalverarbeitung, bei optimalem Durchsatz und minimaler intrinsische Totzeit umgesetzt werden kann. Die Untersuchungen fokussieren sich dabei auf Systeme zur Ereignisverarbeitung durch Impulsformung (pulse shaping) auf SuperSampleRate(SSR)-ADC-Datenströmen. SSR-ADC-Datenströme sind dabei ADC-Datenströme, welche eine Verarbeitung durch digitale Schaltungen benötigen, bei denen mehr als ein Sample pro Taktzyklus behandelt werden muss, um Datenverlust zu verhindern. Zur Implementierung der Datenverarbeitung kommen dazu ausschließlich Field Programmable Gate Arrays (FPGAs) zum Einsatz, da diese den passenden Ansatz für digitale Schaltungen mit hohen Durchsatz und minimaler Totzeit mit gleichzeitiger nachträglicher Anpassbarkeit für hoch anwendungsspezifische Schaltungen bieten. Als Ergebnis wurde in dieser Arbeit eine Systemarchitektur entwickelt, welche die Ereigniserfassung und deren Verarbeitung im FPGA voneinander entkoppelt. Dies wird durch eine im FPGA realisierte FIFO-Struktur ermöglicht. Durch dieses Konzept wird eine intrinsische Totzeit der Systeme in der Größenordnung der ADC-Abtastperiodenlänge erreicht und eine Vorverarbeitung aller Kanäle durch mehrfache instanziierte Verarbeitungskerne und Scheduling in Hardware ermöglicht. Mittels dieser neuen Systemarchitektur werden zwei auf analogtechnisch basierende konventionelle wissenschaftliche Messinstrumente, durch digitale Messwerterfassung und Signalverarbeitung, verbessert. Bei diesen Messinstrumenten handelt es sich um ein Spektrometer zur zeitaufgelösten gestörten Winkelkorrelation (engl. Time Differential Perturbed Angular Correlation (kurz TDPAC-Spektrometer)) und ein Datenerfassungssystem zur ortsaufgelösten elementspezifischen Ionenstrahlanalyse und Ionenstrahlmikroskopie, welche im Wesentlichen von der Messprobe emittierte und durch Detektoren erfasste Elementarteilchen oder Strahlung als Ereignisse verarbeiten. Die Verläufe der analogen Detektorausgangssignale werden dabei mittels ADCs erfasst und verlustfrei als SSR-Datenströme an einen FPGA weitergeleitet. Dabei werden mehrere ADC-Datenströme (dann Kanäle genannt) von einem FPGA verarbeitet. Als Hardware kommen hier FPGA-Digitizer zum Einsatz. Diese Module isolieren die digitale Messwerterfassung durch ADCs und eine anschließende Vorverarbeitung von FPGAs, deren digitale Schaltung individuell implementiert werden kann, in eine Hardware. Eine Verbesserung der Messeffizienz der beiden digitalisierten Messinstrumente konnte durch die Minimierung der Totzeit, die Erhöhung des Durchsatzes aber auch durch die Anknüpfung ihrer Zeit- und Energieauflösung der detektierten Ereignisse erreicht werden. Speziell zur Ermöglichung besserer Zeit- und Energieauflösungen von Detektorereignissen mit maximalem Durchsatz wurden in dieser Arbeit SSR-FIR- und SSR-IIR-Filter zur Impulsformung als Verarbeitungskerne in den verwendeten FPGAs implementiert, welche pro Taktzyklus mehrere Samples verarbeiten können. Diese Filterimplementierungen setzen zur Optimierung der Zeitauflösung im Subsample-Bereich mit den Constant Fraction Trigger (CFT) an der Leistungsfähigkeit konventioneller Constant Fraction Discriminator (CFDs) an und ermöglichen ebenso Fractional Delays (Zeitverzögerungen unter einer Abtastperiode). Die Energieauflösung wurde in dieser Arbeit dadurch optimiert, dass der entwickelte SSR-IIR-Filter in seiner Übertragungsfunktion anpassbar ist und so maximale Flexibilität zur Impulsformung unterschiedlicher Detektortypen bietet. Durch die Umsetzung der rechenintensiven Vorverarbeitung in FPGAs konnten die Messinstrumente mit lediglich einem Mess-PC ausgestattet werden, welcher nun neue Funktionalitäten umsetzen kann. Zu diesen Funktionalitäten gehört eine laufzeitoptimierte Koinzidenzmessung gestreckter Kaskaden (Kaskade mit mehr als einem Start-Ereignis) für das TDPAC-Spektrometer und eine digitale Pileup-Verwerfung für das Datenerfassungssystem zur Ionenstrahlanalyse.
4

Generalized Bandpass Sampling Receivers for Software Defined Radio

Sun, Yi-Ran January 2006 (has links)
Based on different sampling theorem, for example classic Shannon’s sampling theorem and Papoulis’ generalized sampling theorem, signals are processed by the sampling devices without loss of information. As an interface between radio receiver front-ends and digital signal processing blocks, sampling devices play a dominant role in digital radio communications. Under the concept of Software Defined Radio (SDR), radio systems are going through the second evolution that mixes analog, digital and software technologies in modern radio designs. One design goal of SDR is to put the A/D converter as close as possible to the antenna. BandPass Sampling (BPS) enables one to have an interface between the RF or the higher IF signal and the A/D converter, and it might be a solution to SDR. However, three sources of performance degradation present in BPS systems, harmful signal spectral overlapping, noise aliasing and sampling timing jitter, hinder the conventional BPS theory from practical circuit implementations. In this thesis work, Generalized Quadrature BandPass Sampling (GQBPS) is first invented and comprehensively studied with focus on the noise aliasing problem. GQBPS consists of both BPS and FIR filtering that can use either real or complex coefficients. By well-designed FIR filtering, GQBPS can also perform frequency down-conversion in addition to noise aliasing reduction. GQBPS is a nonuniform sampling method in most cases. With respect to real circuit implementations, uniform sampling is easier to be realized compared to nonuniform sampling. GQBPS has been also extended to Generalized Uniform BandPass Sampling (GUBPS). GUBPS shares the same property of noise aliasing suppression as GQBPS besides that the samples are uniformly spaced. Due to the moving average operation of FIR filtering, the effect of sampling jitter is also reduced to a certain degree in GQBPS and GUBPS. By choosing a suitable sampling rate, harmful signal spectral overlapping can be avoided. Due to the property of quadrature sampling, the “self image” problem caused by I/Q mismatches is eliminated. Comprehensive theoretical analyses and program simulations on GQBPS and GUBPS have been done based on a general mathematic model. Circuit architecture to implementing GUBPS in Switched-Capacitor circuit technique has been proposed and analyzed. To improve the selectivity at the sampling output, FIR filtering is extended by adding a 1st order complex IIR filter in the implementation. GQBPS and GUBPS operate in voltage-mode. Besides voltage sampling, BPS can also be realized by charge sampling in current-mode. Most other research groups in this area are focusing on bandpass charge sampling. However, the theoretical analysis shows that our GQBPS and GUBPS in voltage mode are more efficient to suppress noise aliasing as compared to bandpass charge sampling with embedded filtering. The aliasing bands of sampled-data spectrum are always weighted by continuous-frequency factors for bandpass charge sampling with embedded filtering while discrete-frequency factors for GQBPS and GUBPS. The transmission zeros of intrinsic filtering will eliminate the corresponding whole aliasing bands of both signal and noise in GQBPS and GUBPS, while it will only cause notches at a limited set of frequencies in bandpass charge sampling. In addition, charge sampling performs an intrinsic continuous-time sinc function that always includes lowpass filtering. This is a drawback for a bandpass input signal. / QC 20100921
5

Design of digital filters using genetic algorithms

Ahmad, Sabbir U. 17 December 2008 (has links)
In recent years, genetic algorithms (GAs) began to be used in many disciplines such as pattern recognition, robotics, biology, and medicine to name just a few. GAs are based on Darwin's principle of natural selection which happens to be a slow process and, as a result, these algorithms tend to require a large amount of computation. However, they offer certain advantages as well over classical gradient-based optimization algorithms such as steepest-descent and Newton-type algorithms. For example, having located local suboptimal solutions they can discard them in favor of more promising local solutions and, therefore, they are more likely to obtain better solutions in multimodal problems. By contrast, classical optimization algorithms though very efficient, they are not equipped to discard inferior local solutions in favour of more optimal ones. This dissertation is concerned with the design of several types of digital filters by using GAs as detailed bellow. In Chap. 2, two approaches for the design of fractional delay (FD) filters based on a GA are developed. The approaches exploit the advantages of a global search technique to determine the coefficients of FD FIR and allpass-IIR filters based on the so-called Farrow structure. The GA approach was compared with a least-squares approach and was found to lead to improvements in the amplitude response and/or delay characteristic. In Chap. 3, a GA-based approach is developed for the design of delay equalizers. In this approach, the equalizer coefficients are optimized using an objective function based on the passband filter-equalizer group delay. The required equalizer is built by adding new second-order sections until the desired accuracy in terms of the flatness of the group delay with respect to the passband is achieved. With this approach stable delay equalizers satisfying arbitrary prescribed specifications with the desired degree of group-delay flatness can easily be obtained. In Chap. 4, a GA-based approach for the design of multiplierless FIR filters is developed. A recently-introduced GA, called orthogonal GA (OGA) based on the so-called experimental design technique, is exploited to obtain fixed-point implementations of linear-phase FIR filters. In this approach, the effects of finite word length are minimized by considering the filter as a cascade of two sections. The OGA leads to an improved amplitude response relative to that of an equivalent direct-form cascade filter obtained using the Remez exchange algorithm. In Chap. 5, a multiobjective GA for the design of asymmetric FIR filters is proposed. This GA uses a specially tailored elitist nondominated sorting GA (ENSGA) to obtain so-called Pareto-optimal solutions for the problem at hand. Flexibility is introduced in the design by imposing phase-response linearity only in the passband instead of the entire baseband as in conventional designs. Three objective functions based on the amplitude-response error and the flatness of the group-delay characteristic are explored in the design examples considered. When compared with a WLS design method, the ENSGA was found to lead to improvements in the amplitude response and passband group-delay characteristic. In Chap. 6, a hybrid approach for the design of IIR filters using a GA along with a quasi-Newton (QN) algorithm is developed. The hybrid algorithm, referenced to as the genetic quasi-Newton (GQN) algorithm combines the flexibility and reliability inherent in the GA with the fast convergence and precision of the QN algorithm. The GA is used as a global search tool to explore different regions in the parameter space whereas the QN algorithm exploits the efficiency of a gradient-based algorithm in locating local solutions. The GQN algorithm works well with an arbitrary random initialization and filters that would satisfy prescribed amplitude-response specifications can easily be designed
6

Modelo de histerese para ferrites de potência

Sousa, Leonardo Cheles January 2018 (has links)
Orientador: Prof. Dr. Luiz Alberto Luz de Almeida / Coorientador: Prof. Dr. Carlos Eduardo Capovilla / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia Elétrica, Santo André, 2018. / O trabalho apresenta uma extensao da limitacao estatica Loop Proximity (..2..) do modelo de histerese para incorporar a componente reversivel de magnetizacao dependente de taxa para modelar nucleos de ferrite de energia e, possivelmente, materiais ferromagneticos baseados em ferro e niquel para aplicacoes de baixa frequencia. O modelo proposto e baseado em a combinacao do modelo estatico (..2..) com um filtro discreto dinamico linear de uma resposta de impulso infinita. Dois casos em que a histerese depende da frequencia de excitacao apresentada usando dados sinteticos para validar a capacidade do modelo para representar o comportamento de nucleos fisicos reais. A tecnica de otimizacao por enxames de particulas e empregada como um metodo para estimacao de parametros no resultado modelo estatico-dinamico nao linear. Os resultados da simulacao sao apresentados indicando que trouxemos a comunidade eletronica de potencia um modelo de nucleo promissor e alternativo para componentes magneticos usado em fontes de energia renovaveis. / We present an extension of the static Limiting Loop Proximity ..2.. hysteresis model to incorporate reversible magnetization and rate-dependency to model power ferrite cores and, possibly, ferromagnetic materials based on iron and nickel for low-frequency applications. The proposed model is based on the combination of the ..2.. static model with a dynamical discrete linear filter of an infinite impulse response. Two cases where the hysteresis depends on the excitation frequency are presented using synthetic data to validate de capacity of the model to behave as real physical cores. The particle swarm optimization is employed as a method for parameter estimation in the resulting nonlinear static-dynamic model. Simulation results are presented indicating that we brought to the power electronic community apromising and alternative core model for magnetic components used in renewable power sources.
7

MEMS-Laser-Display-System: Analyse, Implementierung und Testverfahrenentwicklung

Specht, Hendrik 20 May 2011 (has links)
In der vorliegenden Arbeit werden die im Zusammenhang mit der Strahlablenkung stehenden Systemaspekte der auf MEMS-Scanner basierenden Laser-Display-Technologie theoretisch analysiert und aus den Ergebnissen die praktische Implementierung eines Laser-Display-Systems als Testplattform vorgenommen. Dabei werden mit einem Ansatz auf Basis zweier 1D-Scanner und einem weiteren Ansatz mit einem 2D-Scanner zwei Varianten realisiert. Darüber hinaus erfolgt die Entwicklung eines bildbasierten Multiparametertestverfahrens, welches sowohl für den Test komplettierter Strahlablenkeinheiten bzw. Projektionsmodule als auch zum umfassenden und zeiteffizienten Test von MEMS-Scannern auf Wafer-Level geeignet ist. Mit diesem Verfahren erfolgt eine Charakterisierung der zwei realisierten Varianten des Laser-Displays. Ausgehend von den Eigenschaften des menschlichen visuellen Systems und den daraus resultierenden Anforderungen an das Bild sowie einer systemtheoretischen Betrachtung des mechanischen Verhaltens von MEMS-Scannern bildet die Ansteuersignalerzeugung für den resonanten Betrieb der schnellen und den quasistatischen Betrieb der langsamen Achse einen Schwerpunkt. Neben dem reinen digitalen Regler- bzw. Filterentwurf sowie mehreren Linearisierungsmaßnahmen beinhaltet dieser auch die Herleitung einer FPGA-basierten Videosignalverarbeitung zur Konvertierung von Scannpattern, Zeitregime und Auflösung mit einer entsprechenden Synchronisierung von Strahlablenkung und Lasermodulation. Auf Grundlage der daraus resultierenden Erkenntnisse über den Zusammenhang zwischen Scanner-/Systemparametern und Bildparametern werden Testbild-Bildverarbeitungsalgorithmus-Kombinationen entwickelt und diese, angeordnet in einer Sequenz, mit einem Kalibrierverfahren zu einem Testverfahren für MEMS-Scanner vervollständigt. Die Ergebnisse dieser Arbeit entstanden im Rahmen von industriell beauftragten F&E-Projekten und fließen in die andauernde Fortführung des Themas beim Auftraggeber ein.
8

Impact des transformations algorithmiques sur la synthèse de haut niveau : application au traitement du signal et des images / Impact of algorithmic transforms for High Level Synthesis (HLS) : application to signal and image processing

Ye, Haixiong 20 May 2014 (has links)
La thèse porte sur l'impact d'optimisations algorithmiques pour la synthèse automatique HLS pour ASIC. Ces optimisations algorithmiques sont des transformations de haut niveau, qui de part leur nature intrinsèque restent hors de porter des compilateurs modernes, même les plus optimisants. Le but est d'analyser l'impact des optimisations et transformations de haut niveau sur la surface, la consommation énergétique et la vitesse du circuit ASIC. Les trois algorithmes évalués sont les filtres non récursifs, les filtres récursifs et un algorithme de détection de mouvement. Sur chaque exemple, des gains ont été possibles en vitesse et/ou en surface et/ou en consommation. Le gain le plus spectaculaire est un facteur x12.6 de réduction de l'énergie tout en maitrisant la surface de synthèse et en respectant la contrainte d'exécution temps réel. Afin de mettre en perspective les résultats (consommation et vitesse), un benchmark supplémentaire a été réalisé sur un microprocesseur ST XP70 avec extension VECx, un processeur ARM Cortex avec extension Neon et un processeur Intel Penryn avec extensions SSE. / The thesis deals with the impact of algorithmic transforms for HLS synthesis for ASIC. These algorithmic transforms are high level transforms that are beyond the capabilities of modern optimizing compilers. The goal is to analyse the impact of the High level transforms on area execution time and energy consumption. Three algorithms have been analyzed: non recursive filters, recursive filter and a motion detection application. On each algorithm, the optimizations and transformations lead to speedups and area/surface gains. The most impressive gain in energy reduction is a factor x12.6, while the area remains constant and the execution time smaller than the real-time constraint. A benchmark has been done on SIMD general purpose processor to compare the impact of the high level transforms: ST XP70 microprocessor with VECx extension, ARM Cortex with Non extension and Intel Penryn with SSE extension.
9

MEMS-Laser-Display-System / MEMS Laser Display System

Specht, Hendrik 19 October 2011 (has links) (PDF)
In der vorliegenden Arbeit werden die im Zusammenhang mit der Strahlablenkung stehenden Systemaspekte der auf MEMS-Scanner basierenden Laser-Display-Technologie theoretisch analysiert und aus den Ergebnissen die praktische Implementierung eines Laser-Display-Systems als Testplattform vorgenommen. Dabei werden mit einem Ansatz auf Basis zweier 1D-Scanner und einem weiteren Ansatz mit einem 2D-Scanner zwei Varianten realisiert. Darüber hinaus erfolgt die Entwicklung eines bildbasierten Multiparametertestverfahrens, welches sowohl für den Test komplettierter Strahlablenkeinheiten bzw. Projektionsmodule als auch zum umfassenden und zeiteffizienten Test von MEMS-Scannern auf Wafer-Level geeignet ist. Mit diesem Verfahren erfolgt eine Charakterisierung der zwei realisierten Varianten des Laser-Displays. Ausgehend von den Eigenschaften des menschlichen visuellen Systems und den daraus resultierenden Anforderungen an das Bild sowie einer systemtheoretischen Betrachtung des mechanischen Verhaltens von MEMS-Scannern bildet die Ansteuersignalerzeugung für den resonanten Betrieb der schnellen und den quasistatischen Betrieb der langsamen Achse einen Schwerpunkt. Neben dem reinen digitalen Regler- bzw. Filterentwurf sowie mehreren Linearisierungsmaßnahmen beinhaltet dieser auch die Herleitung einer FPGA-basierten Videosignalverarbeitung zur Konvertierung von Scannpattern, Zeitregime und Auflösung mit einer entsprechenden Synchronisierung von Strahlablenkung und Lasermodulation. Auf Grundlage der daraus resultierenden Erkenntnisse über den Zusammenhang zwischen Scanner-/Systemparametern und Bildparametern werden Testbild-Bildverarbeitungsalgorithmus-Kombinationen entwickelt und diese, angeordnet in einer Sequenz, mit einem Kalibrierverfahren zu einem Testverfahren für MEMS-Scanner vervollständigt. Die Ergebnisse dieser Arbeit entstanden im Rahmen von industriell beauftragten F&E-Projekten und fließen in die andauernde Fortführung des Themas beim Auftraggeber ein.

Page generated in 0.0613 seconds