• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 254
  • 158
  • Tagged with
  • 412
  • 412
  • 412
  • 378
  • 214
  • 214
  • 99
  • 85
  • 56
  • 43
  • 17
  • 16
  • 16
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

IV and CV characterization of 90nm CMOS transistors

Lund, Håvard January 2006 (has links)
A 90nm CMOS technology has been characterized on the basis of IV and CV measurements. This was feasible by means of a state of the art probe station and measurement instrumentation, capable of measuring current and capacitance in the low fA and fF area respectively. From IV results it was found that the static power consumption is an increasing challenge as the technology is scaled down. The IV measurements also showed the impact from small-channel effects, which was not as prominent as expected. Investigation of literature has resulted in a methodology for accomplishing accurate CV measurements on thin-oxide transistors. By using extraction methods on the capacitance measured, key parameters have been obtained for the CMOS technology. Some of the extracted results suffer however from the choice of test setup.
312

Programming graphic card for fast calculation of sound field in marine acoustics

Haugehåtveit, Olav January 2006 (has links)
Commodity computer graphics chips are probably today’s most powerful computational hardware one can buy for money. These chips, known generically as Graphics Processing Units or GPUs, has in recent years evolved from afterthought peripherals to modern, powerful programmable processor. Due to the movie and game industry we are where we are to today. One of Intel’s co-founder Gordon E. Moore said once that the number of transistors on a single integrated chip was to double every 18 month. So far this seems to be correct for the CPU. However for the GPU the development has gone much faster, and the floating point operations per second has increased enormously. Due to this rapid evolvement many researchers and scientists has discovered the enormous floating point potential can be taken advantage of, and a numerous applications has been tested such as audio and image algorithms. Also in the area of marine acoustics this has become interesting, where the demand for high computational power is increasing. This master report investigates how to make a program capable to run on a GPU for calculating an underwater sound field. To do this a graphics chips with programmable vertex and fragment processor is necessary. Programming this will require graphics API like OpenGL, a shading language like GLSL, and a general purpose GPU library like Shallows. A written program in Matlab is the basic for the GPU program. The goal is to reduce calculation time spent to calculate a underwater sound field. From this the increment from Matlab to GPU was found to be around 40-50 times. However if Matlab was able to calculate the same number of rays as maximum on the GPU, the increment would probably be bigger. Since this study was done on a laptop with nVidia GeForce Go 6600 graphics chip, a higher gain would theoretically be obtainable by a desktop graphics chip.
313

Satellite Cluster Consepts : A system evaluation with emphasis on deinterleaving and emitter recognition

Bildøy, Bent Einar Stenersen January 2006 (has links)
In a dense and complex emitter environment, a high pulse arrival rate and a large number of interleaved radar pulse sequences is expected, from both agile and stable emitters. This thesis evaluates the combination of interval-only algorithms with different monopulse parameters, in comparison to a neural network to do accurate emitter classification. This thesis has evaluated a selection of TOA deinterleaving algorithms with the intent to clearly discriminate between pulses emitted from agile emitters. The first section presents the different techniques, with emphasis on pinpointing the different algorithmic structures. The second section presents a neural network combinational recognition system, with a main focus on the fuzzy ARTMAP neural network, where also some practical implementations has been presented. The final section gives a partial system evaluation based on some statistical means, seeking to get an estimate on the information flow from the ESM receiver as a function of both the density and the expected parametric values, i.e. PW since this is proportional to the amount of processed pulses.
314

Evaluation of SDR-implementation of IEEE 802.15.4 Physical Layer

Koteng, Roger Martinsen January 2006 (has links)
The concept of software-defined radio (SDR) holds great promise. The idea behind SDR is to move software as close to the antenna as possible. This can improve flexibility, adaptability and reduce the time-to-market. This thesis covers the evaluation of algorithms for implementing IEEE 802.15.4 physical layer. In collaboration with a digital circuit designer some of these algorithms were chosen and formed a basis for a DSP architecture optimized for low-complexity, low-power radio standards. The performance of a implementation using these algorithms were then evaluated by means of analytical computations and by simulation
315

Power optimized multipliers

Mathiassen, Stian January 2010 (has links)
Power consumption becomes more important as more devices becomes embedded or battery dependant. Multipliers are generally complex circuits, consuming a lot of energy. This thesis uses Sand's multiplier generator, made for his master thesis, as a basis. It uses tree structures to perform the multiplication, but does not take power consumption into account when generating a multiplier. By adding power optimization to the generator, multipliers with low energy consumption could be made automatically. This thesis adds different reduction tree algorithms (Wallace, Dadda and Reduced Area) to the program, and an optimal algorithm might be found. After the multiplier tree generation, an optimization step is performed, trying to exploit the delay and activity characteristics of the generated multiplier. A simplified version of Oskuii's algorithm is used. To be able to compare the different algorithms with each other, a pre-layout power estimation routine was implemented. The estimator is also used by the post-generation optimization. Since accuracy is important in an estimator, the delay through a multiplier was also investigated. Taking the previous mentioned steps into account, we are able to get a 10% decrease in overall power reduction in a 0,18/0,15um CMOS technology, reported by "IC Compiler". Delay characteristics of a multiplier is also supplied, and can be used by other power estimators. This thesis shows how to achieve less power consumption in multipliers. It also shows that the delay model is important for estimation purposes, and how an estimator is used to optimize a multiplier. The findings in this thesis can be used as is, or be used as a basis for further study.
316

Optical Measurements of Picovibrations on Capacitive Micromachined Ultrasonic Transducers

Åldstedt, Mats Marhaug January 2010 (has links)
A research group at the Norwegian University of Science and Technology plan to integrate Capacitive Micromachined Ultrasonic Transducers (CMUTs) in a probe which can be used to image human blood vessels from the inside. With CMUT technology still being in its youth, it is important to characterize different CMUT prototypes to learn which design is best suited for the probe. In this thesis, a network analyzer and a heterodyne interferometer are used to characterize two prototypes, both electrically and optically. The heterodyne interferometer was proven to be extremely sensitive and thus a valuable tool when investigating the behaviour of single CMUT cells. Measurements revealed that the cells within both the CMUT arrays had different resonance frequencies. This effectively broadens the band widths of the prototypes, but reduces their maximum acoustical output power, given that all the cells operate at the same frequency. It was found probable that the CMUT characteristics were influenced by how charges moved within the prototypes. These charging effects are quite complex and would in practice make it hard to predict where the centre frequency of the CMUT array lies from time to time. The vibration pattern of most the cells at their respective resonance frequencies looked healthy both in air and immersed in a liquid when measuring with the interferometer. Immersed, the resonant frequency range of the CMUT become wider, but the peak was located at a lower frequency than in air. The next CMUT prototype to be tested in the future does not fit into the experimental setup. A plan to adapt the setup has been presented in this thesis, making it more practical to handle different samples. This design would also make it easier to investigate crosstalk effects between neighbouring CMUT elements within the arrays. Knowledge aquired in this thesis will hopefully help researchers figure out which areas of the CMUT design have the potential to be improved.
317

FPGA Implementation of a Video Scaler

Skarbø, Roger January 2010 (has links)
Three algorithms for video scaling were developed and tested in software, for implementation on an FPGA. Two of the algorithms were implemented in a video scaler system. These two algorithms scale up with factors 1.25 and 1.875, which is used for scaling SD WIDE to HD resolution and SD WIDE to FullHD resolution, respectively. An algorithm with scaling factor 1.5, scaling HD to FullHD, was also discussed, but not implemented. The video scaler was tested with a verilog testbench provided by ARM. When passing the testbench, the video scaler system was loaded on an FPGA. Results from the FPGA were compared with the software algorithms and the simulation results from the testbench. The video scaler implemented on the FPGA produced predictable results. Even though a fully functional video scaler was made, there were not time left to create the necessary software drivers and application software that would be needed to run the video scaler in real time with live video output. So a comparison of the output from the implemented algorithms is performed with common scaling algorithms used in video scalers, such as bilinear interpolation and bicubic interpolation. This thesis also deal with graphics scaling. Some well-known algorithms for graphic scaling were written in software, including a self-made algorithm to suit hardware. These algorithms were not implemented in hardware, but comparison of the results are performed.
318

Teoretiske og praktiske undersøkelser av Doherty-prinsippet i effektforsterkere. / Theoretical and Practical Investigations of the Doherty Principle in Power Amplifiers.

Nesvold, Magne January 2006 (has links)
Hovedmålet med denne oppgaven har vært å undersøke hvordan effektiviteten og lineariteten til en konvensjonell forsterker kan bedres ved å gjøre nytte av Dohertyteknikken. Utgangspunktet for oppgaven var en tidligere prosjektoppgave, der forskjellige simuleringer for en Dohertyforsterker var foretatt. Tanken var å etterprøve resultatene i denne oppgaven, for så å realisere en forsterker på bakgrunn av disse simuleringene. Etter hvert ble det gått noe bort fra dette, siden enkelte momenter var vanskelige å gjennomføre i praksis. Dessuten ble arbeidsfrekvensen økt fra 1MHz til 10MHz. Undertegnede hadde ikke så mye erfaring med Dohertyteknikken før arbeidet tok til, derfor ble det innledningsvis fokusert på å sette seg inn i generell forsterkerteori, og naturligvis Dohertyteknikken spesielt. Ved siden av dette ble det brukt en del tid på å sette seg inn i simuleringsverktøyet ADS. Simuleringene og målingene kan deles inn i fire deler, der følgende elementer ble undersøkt: Hovedforsterker uten π-nettverk, hovedforsterker med π-nettverk, inngangseffektdeler, og fullstendig Dohertyforsterker. En klasse B-forsterker ble valgt som hovedforsterker, mens peakforsterkeren ble forspent i klasse C. Simuleringene viste at en forbedring i PAE på 5 prosentpoeng skulle være mulig med Dohertyforsterkeren i forhold til en konvensjonell klasse B-forsterker ved 6dB back-off. Lineariteten ble også forbedret ifølge simuleringene, i og med at 1dB-kompresjonspunktet ble forskjøvet fra 7dBm til 12dBm inngangseffekt. Det ble tidlig klart at målingene tilkjennega en annen oppførsel enn simuleringene. Spesielt er det verdt å nevne at den målte drainstrømmen hadde store avvik i forhold til det som ble simulert, der det største avviket var på hele 63.5%. En annen faktor som virket negativt inn på Dohertyforsterkerens egenskaper var tapet gjennom hovedforsterkerens π-nettverk, der et tap på hele 4.2dB ble observert. Inngangseffektdeleren hadde også et tap, men symmetriegenskapene til denne var tilfredsstillende. Som følge av de momentene som er nevnt over, ble den totale forsterkerens oppførsel dårligere enn forventet. PAE til Dohertyforsterkeren var på 30.3% ved 1dB-kompresjonspunktet, mens den ble målt til 38.9% for hovedforsterkeren alene. Lineariteten ble derimot bedret, da kompresjonspunktet ble økt fra ca 15dBm inngangseffekt for hovedforsterkeren, til 22dBm inngangseffekt for Dohertyforsterkeren.
319

Bruk av GPS i vanskelige omgivelser / Use of GPS in challenging environment

Vangen, Tomas January 2006 (has links)
Sammendrag Det har etter hvert blitt et stort problem for nødsentralene at personer som ringer inn ikke vet hvor de er eller hvor ulykken befinner seg. En har også flere ganger lest i avisene om nødsentraler som sender ambulanser og brannbiler feil, på grunn av like stedsnavn. Det er dette som er grunnlaget da Federal Communications Commission (FCC) begynte å stille krav til nettverksleverandører for mobilkommunikasjon, om mulighet for posisjonering av mobilterminaler når disse ringer nødsentralene. Det er i denne sammenheng man forsker på AssistertGPS-løsninger (AGPS). Kravene som FCC har stilt ovenfor nettverksleverandørene har vist seg å være vanskelig å oppfylle, noe som medfører at de fleste nettverksleverandører har fått utsettelse på fristen. AGPS-løsningen som er diskutert i denne rapporten er et prosjekt, som tidligere ble startet av Telenor R&D. Høsten 2005 tok jeg over utviklingen av dette prosjektet igjennom først en prosjektoppgave, og våren 2006 også som masteroppgave. Selve utviklingen av applikasjonene har vist seg å være vanskeligere enn først forventet. Spesielt problematisk har det vært å utvikle klientapplikasjonen. Klientapplikasjonen kjøres på en Nokia 12 M2M GSM-modul, og er utviklet i Java. I klientapplikasjonen kan man ikke bruke en fullstendig versjon av Java, men den mindre, og forenklede, versjonen Java MicroEdition. Det var også et problem med formattering av dataene som sendes ifra AGPS-serveren slik at disse skal passe inn i den proprietære UBX protokollen. Dette gjorde at noen snarveier måtte tas, for å ferdigstille løsningen. For å verifisering av at løsningen virker etter hensikten er det utført en rekke tester i Trondheim sentrum, både utendørs og innendørs. Parameterne det er valgt å fokusere på er, foruten den selvsagte Time-To-First-Fix (TTFF), posisjonsnøyaktigheten til den første posisjonsmålingen etter 3D-fix, samt den samme nøyaktigheten etter 100 sekunder. Alle testene viste en betydelig forbedring av TTFF ved bruk av AGPS, i forhold til målingene uten bruk av AGPS. Dette er et tegn på at løsningen fungerer etter hensikten. Selv om leverandøren av GPS-mottakeren antyder at TTFF kan reduseres ned til omtrentlig 24 sekunder, har en ikke greid å oppnå målinger på dette lave nivået. Det har forekommet målinger av TTFF ned mot 24 sekunder, men gjennomsnittlig ligger målingene noe over. Posisjonen gitt av GPS-mottakeren ved 3D-fix er det også valgt å se nærmere på. Grunnen til dette er at det er denne posisjonen som må sees opp mot FCCs krav, om at posisjonen gitt av en AGPS-løsning må ha en nøyaktighet som må være bedre enn 50 meter for 67 % av tiden (σ), og 150 meter for 95% av tiden (2σ). Under testingen viser det seg at posisjonene som blir målt sjelden oppfyller disse kravene. Noen ganger kan dette forklares med egenskaper på målelokasjonen, som skyggevirkning og refleksjoner, men ikke alltid. Det antas også at en antatt posisjon til AGPS-klienten, som sendes over i AGPS-meldingene har innvirkning på dette.
320

Valg, modellering og utprøving av treghetssensorer for bruk sammen med GPS i vanskelige omgivelser / Selection, Modelling and Tests of Inertial Sensors for use with GPS in Difficult Surroundings

Hystad, Tor Ivar, Høilund, Tore Johan January 2006 (has links)
Denne rapporten dokumenterer utviklingen av en lavkost treghetsnavigasjonsmodul. Rapporten tar for seg prosessen fra valg av komponenter til ferdig prototyp. Treghetsnavigasjonsmodulen er designet for å kunne integreres med en GPS-mottaker. Det som i hovedsak har blitt behandlet i denne rapporten er design av treghetsmodul, kalibrasjon, utvikling av navigasjonsalgoritme ved hjelp av skrogfaste navigasjonsligninger og test av ferdig system med tilhørende analyse av system som helhet og de enkelte komponenter. Utviklingen av programvare i prosjektet har bestått av to deler. Det er utviklet et C-program for en mikrokontroller, som styrer systemet med blant annet punktprøving av data fra alle sensorer og et USB-grensesnitt for kommunikasjon med PC. Det er i tillegg utviklet flere Matlab-program for blant annet innhenting av sensordata, analyse av sensordata, samt et program for utregning av posisjons- og attitydeforandring i sanntid eller som etterprosessering. Resultatet av oppgaven er en håndholdt prototyp navigasjonsenhet bestående av GPS og treghetsnavigasjon. Treghetsnavigasjonsenheten måler vinkelrate og akselerasjon langs tre akser ved hjelp av gyroer og akselerometere. Treghetsmodulens ytelse slik den fremstår i dag er imidlertid så dårlig at det ikke er sett som hensiktsmessig å lage funksjoner for integrasjon med GPS-data. For å øke ytelsen til treghetsmodulen må komponentene analyseres nærmere (spesielt gyroene), bedre kalibrasjons- og kompenseringsrutiner må implementeres. Til slutt i rapporten er det nevnt noen forslag til hva som bør gjøres videre.

Page generated in 0.057 seconds