• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 174
  • 116
  • Tagged with
  • 290
  • 290
  • 290
  • 290
  • 217
  • 213
  • 73
  • 69
  • 11
  • 4
  • 4
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Improving Elastography using SURF Imaging for Suppression of Reverberations

Grythe, Jørgen January 2010 (has links)
<p>For some of the applications of the Second-order UltRasound Field (SURF) imaging technique, a real-time delay-estimation algorithm has been developed for estimating spatially range-varying delays in RF signals. This algorithm is a phase-based approach for subsample delay estimation, and makes no assumption on the local delay variation. Any parametric model can be used for modeling the local delay variation. The phase-based delay estimator uses estimates of the instantaneous frequency and the phase difference and the relationship between the two to estimate the delay. The estimated delay may be used to calculate an improved estimate of the instantaneous frequency, which in turn may be used to calculate new, updated values for the delay using an iterative scheme. Although an iterative scheme introduces a larger bias, the estimated delay values have a significantly lowered standard deviation in comparison to the original method. The delay estimator originally developed for estimating propagation delays for SURF imaging, can also be used for elastography purposes. By not being restricted to locally constant delays, the delay estimator is able to more robustly estimate sharp changes in tissue stiffness, and in estimating small differences in strain more closely. Two different parametric models for the local delay have been tried, one linear, and one polynomial of the first degree. The two various models have been tested on an elastography recording provided by the Ultrasonix company (Ultrasonix Medical Corporation, Vancouver, Canada), and in vitro. Using a polynomial of the second degree as parametric model for the delay is better than a linear model in detecting edges of inclusions located at a depth where the strain is lower than closer to the transducer surface. The differences may be further emphasized by performing spatial filtering with a median filter. The downside of updating the model is an increased computational time of approximately 50%. Multiple reflections, also known as reverberations, appear as acoustic noise in ultrasound images and may greatly impair time-delay estimation, particularly in elastography. Today reverberation suppression is achieved by second harmonic imaging, but this method has the disadvantage of low penetration, and little or no signal in the near field. The SURF imaging technique has the advantages of reverberation suppression in addition to imaging in the fundamental frequency. A reverberation model has been established, and the effect reverberations have on estimated elastography images is studied. When using a layered silicon plate as reverberation model, and imaging through this initial reverberation model placed on top of the imaging phantom, elastography images were not obtained as the quality of the recording was degraded as a result of power loss. By adding reverberations by computer simulations after a recording with a SURF probe with reverberation suppression was performed, a markedly difference between elastography estimates done on the image with reverberations, and the image with reverberations and reverberation suppression was observed. Estimating on a signal with reverberations, the phase-based time-delay algorithm was unable to distinguish any differences in elasticity at all. Estimating time delays on a signal with reverberations and SURF reverberation suppression however, the algorithm was able to clearly estimate differences in strain, and display the presence of an inclusion.</p>
2

Calculation of the coverage area of mobile broadband communications. Focus on land

Martínez Gálvez, Antonio January 2010 (has links)
<p>Calculation of the coverage area of mobile broadband communications. Focus on land</p>
3

On the Efficiency of Data Communication for the Ultramonit Corrosion Monitoring System

Rommetveit, Tarjei January 2006 (has links)
<p>Ultramonit is a system under development for permanent installation on critical parts of the subsea oil- and gas pipelines in order to monitor the corrosion continuously by using ultrasound. The communication link which connects the Ultramonit units with the outside world is identified as the system’s bottleneck, and it is thus of interest to compress the ultrasonic data before transmission. The main goal of this diploma work has been to implement and optimize a lossy compression scheme in C on the available hardware (HW) with respect to a self-defined fidelity measure. Limited resources, such as memory constraints and constraints with respect to the processing time, have been a major issue during implementation. The real-time aspect of the problem results in an intricate relation between transfer time, processing time and compression ratio for a given fidelity. The encoder is optimized with respect to two different bit allocation schemes, two different filters as well as various parameters. Compared to transferring the unprocessed traces, the results demonstrate that the transfer time can be reduced with a factor 12. This yields acceptable fidelity concerning the main application of long term monitoring of subsea pipelines. However, for ultra-high precision applications where the total change in thickness due to corrosion is less than a few micrometers, compression should not be employed.</p>
4

Programming graphic card for fast calculation of sound field in marine acoustics

Haugehåtveit, Olav January 2006 (has links)
<p>Commodity computer graphics chips are probably today’s most powerful computational hardware one can buy for money. These chips, known generically as Graphics Processing Units or GPUs, has in recent years evolved from afterthought peripherals to modern, powerful programmable processor. Due to the movie and game industry we are where we are to today. One of Intel’s co-founder Gordon E. Moore said once that the number of transistors on a single integrated chip was to double every 18 month. So far this seems to be correct for the CPU. However for the GPU the development has gone much faster, and the floating point operations per second has increased enormously. Due to this rapid evolvement many researchers and scientists has discovered the enormous floating point potential can be taken advantage of, and a numerous applications has been tested such as audio and image algorithms. Also in the area of marine acoustics this has become interesting, where the demand for high computational power is increasing. This master report investigates how to make a program capable to run on a GPU for calculating an underwater sound field. To do this a graphics chips with programmable vertex and fragment processor is necessary. Programming this will require graphics API like OpenGL, a shading language like GLSL, and a general purpose GPU library like Shallows. A written program in Matlab is the basic for the GPU program. The goal is to reduce calculation time spent to calculate a underwater sound field. From this the increment from Matlab to GPU was found to be around 40-50 times. However if Matlab was able to calculate the same number of rays as maximum on the GPU, the increment would probably be bigger. Since this study was done on a laptop with nVidia GeForce Go 6600 graphics chip, a higher gain would theoretically be obtainable by a desktop graphics chip.</p>
5

Satellite Cluster Consepts : A system evaluation with emphasis on deinterleaving and emitter recognition

Bildøy, Bent Einar Stenersen January 2006 (has links)
<p>In a dense and complex emitter environment, a high pulse arrival rate and a large number of interleaved radar pulse sequences is expected, from both agile and stable emitters. This thesis evaluates the combination of interval-only algorithms with different monopulse parameters, in comparison to a neural network to do accurate emitter classification. This thesis has evaluated a selection of TOA deinterleaving algorithms with the intent to clearly discriminate between pulses emitted from agile emitters. The first section presents the different techniques, with emphasis on pinpointing the different algorithmic structures. The second section presents a neural network combinational recognition system, with a main focus on the fuzzy ARTMAP neural network, where also some practical implementations has been presented. The final section gives a partial system evaluation based on some statistical means, seeking to get an estimate on the information flow from the ESM receiver as a function of both the density and the expected parametric values, i.e. PW since this is proportional to the amount of processed pulses.</p>
6

Evaluation of SDR-implementation of IEEE 802.15.4 Physical Layer

Koteng, Roger Martinsen January 2006 (has links)
<p>The concept of software-defined radio (SDR) holds great promise. The idea behind SDR is to move software as close to the antenna as possible. This can improve flexibility, adaptability and reduce the time-to-market. This thesis covers the evaluation of algorithms for implementing IEEE 802.15.4 physical layer. In collaboration with a digital circuit designer some of these algorithms were chosen and formed a basis for a DSP architecture optimized for low-complexity, low-power radio standards. The performance of a implementation using these algorithms were then evaluated by means of analytical computations and by simulation</p>
7

Teoretiske og praktiske undersøkelser av Doherty-prinsippet i effektforsterkere. / Theoretical and Practical Investigations of the Doherty Principle in Power Amplifiers.

Nesvold, Magne January 2006 (has links)
<p>Hovedmålet med denne oppgaven har vært å undersøke hvordan effektiviteten og lineariteten til en konvensjonell forsterker kan bedres ved å gjøre nytte av Dohertyteknikken. Utgangspunktet for oppgaven var en tidligere prosjektoppgave, der forskjellige simuleringer for en Dohertyforsterker var foretatt. Tanken var å etterprøve resultatene i denne oppgaven, for så å realisere en forsterker på bakgrunn av disse simuleringene. Etter hvert ble det gått noe bort fra dette, siden enkelte momenter var vanskelige å gjennomføre i praksis. Dessuten ble arbeidsfrekvensen økt fra 1MHz til 10MHz. Undertegnede hadde ikke så mye erfaring med Dohertyteknikken før arbeidet tok til, derfor ble det innledningsvis fokusert på å sette seg inn i generell forsterkerteori, og naturligvis Dohertyteknikken spesielt. Ved siden av dette ble det brukt en del tid på å sette seg inn i simuleringsverktøyet ADS. Simuleringene og målingene kan deles inn i fire deler, der følgende elementer ble undersøkt: Hovedforsterker uten π-nettverk, hovedforsterker med π-nettverk, inngangseffektdeler, og fullstendig Dohertyforsterker. En klasse B-forsterker ble valgt som hovedforsterker, mens peakforsterkeren ble forspent i klasse C. Simuleringene viste at en forbedring i PAE på 5 prosentpoeng skulle være mulig med Dohertyforsterkeren i forhold til en konvensjonell klasse B-forsterker ved 6dB back-off. Lineariteten ble også forbedret ifølge simuleringene, i og med at 1dB-kompresjonspunktet ble forskjøvet fra 7dBm til 12dBm inngangseffekt. Det ble tidlig klart at målingene tilkjennega en annen oppførsel enn simuleringene. Spesielt er det verdt å nevne at den målte drainstrømmen hadde store avvik i forhold til det som ble simulert, der det største avviket var på hele 63.5%. En annen faktor som virket negativt inn på Dohertyforsterkerens egenskaper var tapet gjennom hovedforsterkerens π-nettverk, der et tap på hele 4.2dB ble observert. Inngangseffektdeleren hadde også et tap, men symmetriegenskapene til denne var tilfredsstillende. Som følge av de momentene som er nevnt over, ble den totale forsterkerens oppførsel dårligere enn forventet. PAE til Dohertyforsterkeren var på 30.3% ved 1dB-kompresjonspunktet, mens den ble målt til 38.9% for hovedforsterkeren alene. Lineariteten ble derimot bedret, da kompresjonspunktet ble økt fra ca 15dBm inngangseffekt for hovedforsterkeren, til 22dBm inngangseffekt for Dohertyforsterkeren.</p>
8

Bruk av GPS i vanskelige omgivelser / Use of GPS in challenging environment

Vangen, Tomas January 2006 (has links)
<p>Sammendrag Det har etter hvert blitt et stort problem for nødsentralene at personer som ringer inn ikke vet hvor de er eller hvor ulykken befinner seg. En har også flere ganger lest i avisene om nødsentraler som sender ambulanser og brannbiler feil, på grunn av like stedsnavn. Det er dette som er grunnlaget da Federal Communications Commission (FCC) begynte å stille krav til nettverksleverandører for mobilkommunikasjon, om mulighet for posisjonering av mobilterminaler når disse ringer nødsentralene. Det er i denne sammenheng man forsker på AssistertGPS-løsninger (AGPS). Kravene som FCC har stilt ovenfor nettverksleverandørene har vist seg å være vanskelig å oppfylle, noe som medfører at de fleste nettverksleverandører har fått utsettelse på fristen. AGPS-løsningen som er diskutert i denne rapporten er et prosjekt, som tidligere ble startet av Telenor R&D. Høsten 2005 tok jeg over utviklingen av dette prosjektet igjennom først en prosjektoppgave, og våren 2006 også som masteroppgave. Selve utviklingen av applikasjonene har vist seg å være vanskeligere enn først forventet. Spesielt problematisk har det vært å utvikle klientapplikasjonen. Klientapplikasjonen kjøres på en Nokia 12 M2M GSM-modul, og er utviklet i Java. I klientapplikasjonen kan man ikke bruke en fullstendig versjon av Java, men den mindre, og forenklede, versjonen Java MicroEdition. Det var også et problem med formattering av dataene som sendes ifra AGPS-serveren slik at disse skal passe inn i den proprietære UBX protokollen. Dette gjorde at noen snarveier måtte tas, for å ferdigstille løsningen. For å verifisering av at løsningen virker etter hensikten er det utført en rekke tester i Trondheim sentrum, både utendørs og innendørs. Parameterne det er valgt å fokusere på er, foruten den selvsagte Time-To-First-Fix (TTFF), posisjonsnøyaktigheten til den første posisjonsmålingen etter 3D-fix, samt den samme nøyaktigheten etter 100 sekunder. Alle testene viste en betydelig forbedring av TTFF ved bruk av AGPS, i forhold til målingene uten bruk av AGPS. Dette er et tegn på at løsningen fungerer etter hensikten. Selv om leverandøren av GPS-mottakeren antyder at TTFF kan reduseres ned til omtrentlig 24 sekunder, har en ikke greid å oppnå målinger på dette lave nivået. Det har forekommet målinger av TTFF ned mot 24 sekunder, men gjennomsnittlig ligger målingene noe over. Posisjonen gitt av GPS-mottakeren ved 3D-fix er det også valgt å se nærmere på. Grunnen til dette er at det er denne posisjonen som må sees opp mot FCCs krav, om at posisjonen gitt av en AGPS-løsning må ha en nøyaktighet som må være bedre enn 50 meter for 67 % av tiden (σ), og 150 meter for 95% av tiden (2σ). Under testingen viser det seg at posisjonene som blir målt sjelden oppfyller disse kravene. Noen ganger kan dette forklares med egenskaper på målelokasjonen, som skyggevirkning og refleksjoner, men ikke alltid. Det antas også at en antatt posisjon til AGPS-klienten, som sendes over i AGPS-meldingene har innvirkning på dette.</p>
9

Valg, modellering og utprøving av treghetssensorer for bruk sammen med GPS i vanskelige omgivelser / Selection, Modelling and Tests of Inertial Sensors for use with GPS in Difficult Surroundings

Hystad, Tor Ivar, Høilund, Tore Johan January 2006 (has links)
<p>Denne rapporten dokumenterer utviklingen av en lavkost treghetsnavigasjonsmodul. Rapporten tar for seg prosessen fra valg av komponenter til ferdig prototyp. Treghetsnavigasjonsmodulen er designet for å kunne integreres med en GPS-mottaker. Det som i hovedsak har blitt behandlet i denne rapporten er design av treghetsmodul, kalibrasjon, utvikling av navigasjonsalgoritme ved hjelp av skrogfaste navigasjonsligninger og test av ferdig system med tilhørende analyse av system som helhet og de enkelte komponenter. Utviklingen av programvare i prosjektet har bestått av to deler. Det er utviklet et C-program for en mikrokontroller, som styrer systemet med blant annet punktprøving av data fra alle sensorer og et USB-grensesnitt for kommunikasjon med PC. Det er i tillegg utviklet flere Matlab-program for blant annet innhenting av sensordata, analyse av sensordata, samt et program for utregning av posisjons- og attitydeforandring i sanntid eller som etterprosessering. Resultatet av oppgaven er en håndholdt prototyp navigasjonsenhet bestående av GPS og treghetsnavigasjon. Treghetsnavigasjonsenheten måler vinkelrate og akselerasjon langs tre akser ved hjelp av gyroer og akselerometere. Treghetsmodulens ytelse slik den fremstår i dag er imidlertid så dårlig at det ikke er sett som hensiktsmessig å lage funksjoner for integrasjon med GPS-data. For å øke ytelsen til treghetsmodulen må komponentene analyseres nærmere (spesielt gyroene), bedre kalibrasjons- og kompenseringsrutiner må implementeres. Til slutt i rapporten er det nevnt noen forslag til hva som bør gjøres videre.</p>
10

Støyspektra fra veitrafikk : Gir glattede standardspektra et riktig bilde? / Spectra From Road Traffic : Does Standardized Spectra Tell The Truth?

Killengreen, Tore January 2006 (has links)
<p>Etter flere års arbeid med veistøy har det blitt registrert fellestrekk i ulike veitrafikkstøyspekter. Alle veitrafikkstøyspekter har en frekvenstopp ved lave frekvenser som ligger mellom 50-100 Hz. Deretter følger en bunn i frekvensspekteret mellom omtrent 100-500 Hz før det kommer en ny frekvenstopp ved 1 kHz som forårsakes av dekkstøy. Målet med oppgaven er å finne årsaken til frekvenstoppen mellom 50-100 Hz, samt å se på om frekvenstoppen har stor innflytelse på innendørs støynivå beregnet med entallskarakteristikk. For å finne årsaken til frekvenstoppen ved lave frekvenser er det sett på 2 hypoteser. Den første hypotesen foreslår interferens mellom direkte lyd og første refleksjon fra bakken som årsak til frekvenstoppen. Den andre hypotesen forslår motorstøy som årsak til frekvenstoppen og at motorens grunntone gir senterfrekvensen til frekvenstoppen. Beregningene benyttet for å teste Hypotese 1 viser at den kan forkastes siden resultatene ikke samsvarer med virkeligheten. Hypotese 2 støttes opp om informasjon om motorer og ligningen som gir grunntonen til motoren. f0=((opm/2)*x)/60 f0 angir grunntonen, opm er turtallet på motoren i omdreininger per minutt og x er antall sylindere. Undersøkelser av 25 målte veitrafikkstøyspekter for hastigheter over 50 km/t viser at alle støyspektrene har en frekvenstopp med senterfrekvens i 63 Hz- eller i 80 Hz-oktavbåndet. Som en direkte følge av ligningen som angir grunntonen til motoren er det gjort undersøkelser både av hastigheter ved målestedene og av hva som er den mest vanlige motoren i Norge i dag. Undersøkelsene viser at det er en dominans av lette kjøretøy med firesylindret bensinmotor som vil ha turtall i området 2000-2500 opm ved vanlig kjøring. Det er en betydelig andel kjøretøy med dieselmotor i Norge. Dieselmotorer har turtallsområde som ligger rundt 1500-2000 opm ved vanlig kjøring. Bidraget fra dieselmotorene fører til at noen veitrafikkstøyspekter har en bredere frekvenstopp. Tunge kjøretøy med dieselmotor har 6 eller 8 sylindere og har også et turtallsområde rundt 1500-2000 opm ved vanlig kjøring. Da vil grunntonen ifølge ligningen ligge fra omtrent 80 Hz og oppover. Dieselmotorer med 4, 6 eller 8 sylindere vil bidra til at frekvenstoppen er bredere enn dersom det bare hadde vært bensinmotorer med 4 sylindere på veien. Markerte frekvenstopper kan oppstå ved at frisiktslinjen mellom kilde og mottaker er skjermet. Når frisiktslinjen er skjermet kan det oppstå demping helt ned til 80 Hz og da vil dempingen få frekvenstoppen til å se smalere ut enn den egentlig er. Toppen ved lave frekvenser og toppen ved 1 kHz har klart definerte kilder og vil ha et høyere lydtrykksnivå enn generell støy og vil derfor naturlig danne en bunn i spekteret mellom seg. Det er utført sanntids FFT-analyse av lydfiler tatt opp under måling av veitrafikkstøyspekter. Analysen viser at grunntonen til en motor som øker turtallet er opphav til en frekvenstopp som flytter seg oppover i frekvens med økende turtall. Dette anses som et direkte bevis på Hypotese 2. Det er utført 2 feltmålinger for å undersøke om det er mulig å forutsi hvordan veitrafikkstøyspekteret vil se ut for et gitt målested. Feltmålingene viser at ved hjelp av ligningen som angir grunntonen, informasjon om målestedet som hastighet og veitype og empiri kan det med rimelig nøyaktighet forutsies hvordan veitrafikkstøyspekteret vil se ut for et gitt målested. Det er utført entallskarakteristikkberegninger med reelle veitrafikkstøyspekter og glattede standardspekter fra Byggforsk Håndbok 47 [Homb et al., 1999] for å se om standardspektrene gir et godt nok bilde av virkeligheten. Det er ikke benyttet reduksjonstall for konstruksjoner i beregningene, men i stedet er det brukt 5 reelle nivådifferansespekter og et midlet nivådifferansespekter for å beregne entallskarakteristikkene. Beregningene viser at det er neglisjerbare avvik mellom reelle veitrafikkstøyspekter og standardspektrene når entallskarakteristikken beregnes med et midlet nivådifferansespekter. Når entallskarakteristikken beregnes med reelle nivådifferansespekter kan det oppstå avvik opptil 5 dBA når reelle veitrafikkstøyspekter og standardspekter sammenlignes. Dette viser at det er viktig å være kritisk til beregninger med glattede standardspekter. Ved å samle inn mer data om veitrafikkstøy under 50 km/t og over 90 km/t vil ligningen for grunntonen og empiri kunne brukes med større nøyaktighet for å forutsi formen på veitrafikkstøyspekteret.</p>

Page generated in 0.1012 seconds