• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 295
  • 64
  • Tagged with
  • 359
  • 356
  • 340
  • 339
  • 251
  • 198
  • 105
  • 48
  • 37
  • 36
  • 36
  • 36
  • 36
  • 36
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

The Expectation Propagation Algorithm for use in Approximate Bayesian Analysis of Latent Gaussian Models

Skar, Christian January 2010 (has links)
<p>Analyzing latent Gaussian models by using approximate Bayesian inference methods has proven to be a fast and accurate alternative to running time consuming Markov chain Monte Carlo simulations. A crucial part of these methods is the use of a Gaussian approximation, which is commonly found using an asymptotic expansion approximation. This study considered an alternative method for making a Gaussian approximation, the expectation propagation (EP) algorithm, which is known to be more accurate, but also more computationally demanding. By assuming that the latent field is a Gaussian Markov random field, specialized algorithms for factorizing sparse matrices was used to speed up the EP algorithm. The approximation methods were then compared both with regards to computational complexity and accuracy in the approximations. The expectation propagation algorithm was shown to provide some improvements in accuracy compared to the asymptotic expansion approximation when tested on a binary logistic regression model. However, tests of computational time requirement for computing approximations in simple examples show that the EP algorithm is as much as 15-20 times slower than the alternative method.</p>
72

Topology and Data

Brekke, Øyvind January 2010 (has links)
<p>Today there is an immense production of data, and the need for better methods to analyze data is ever increasing. Topology has many features and good ideas which seem favourable in analyzing certain datasets where statistics is starting to have problems. For example, we see this in datasets originating from microarray experiments. However, topological methods cannot be directly applied on finite point sets coming from such data, or atleast it will not say anything interesting. So, we have to modify the data sets in some way such that we can work on them with the topological machinery. This way of applying topology may be viewed as a kind of discrete version of topology. In this thesis we present some ways to construct simplicial complexes from a finite point cloud, in an attempt to model the underlying space. Together with simplicial homology and persistent homology and barcodes, we obtain a tool to uncover topological features in finite point clouds. This theory is tested with a Java software package called JPlex, which is an implementation of these ideas. Lastly, a method called Mapper is covered. This is also a method for creating simplicial complexes from a finite point cloud. However, Mapper is mostly used to create low dimensional simplicial complexes that can be easily visualized, and structures are then detected this way. An implementation of the Mapper method is also tested on a self made data set.</p>
73

A General Face Recognition System

Manikarnika, Achim Sanjay January 2006 (has links)
<p>In this project a real-time face detection and recognition system has been discussed and implemented. The main focus has been on the detection process which is the first and most important step before starting with the actual recognition. Computably intensive can give good results, but at the cost of the execution speed. The implemented algorithm which was done is project is build upon the work of Garcia, C. and Tziritas, but the algorithm accuracy is traded for faster speed. The program needs between 1-5 seconds on a standard workstation to analyze an image. On an image database with a lot of variety in the images, the system found 70-75% of the faces.</p>
74

Hilberttransformpar og negativ brytning / Hilbert Transform Relations and Negative Refraction

Lind-Johansen, Øyvind January 2006 (has links)
<p>I løpet av de siste årene har det blitt mulig å lage medier som har permittivitet $epsilon_r=chi_e+1$ og permeabilitet $mu_r=chi_m+1$ med simultant negative realdeler. I slike medier vil man få negativ brytning og dette kan utnyttes til å lage en linse som i prinsippet kan få ubegrenset høy oppløsning for en frekvens. La $chi=u+iv$ stå for enten $chi_e$ eller $chi_m$. Jeg viser at oppløsningen til linsa er gitt ved $-ln{(|chi+2|/2)}/d$ forutsatt at tykkelsen $d$ på linsa er noe mindre enn en bølgelengde. Vi ser ut fra dette at oppløsningen er uendelig hvis $u=-2$ og $v=0$ og at vi, for å få høyest mulig oppløsning, ønsker å minimere $|chi+2|=sqrt{(u+2)^2+v^2}$. Kausalitet fører til at $chi$ er element i rommet $H^2$ av analytiske og kvadratisk integrerbare funksjoner i det øvre halvplan. Det følger av dette at $u$ og $v$ er hilberttransformpar. Videre vet vi at $chi$ er hermitsk og at $v$ er positiv for positive argumenter som reflekterer passitivitetsprinsippet for elektromagnetiske medier. Tilsammen setter dette grenser for hvor høy oppløsningen kan bli på et frekvensintervall. Nylig er det funnet en parametrisering av imaginærdelen til slike funksjoner på et frekvensintervall, gitt at realdelen er konstant på intervallet. Jeg identifiserer disse funksjonene som et element i en større klasse hermitske $H^2$-funksjoner hvor imaginærdelen kan parametriseres. Spesielt er det interessant å finne absolutte nedre grenser for den $L^infty$-normen til $|chi+2|$ på intervallet. Det viser seg at ved å sette realdelen lik $x^2/b^2-(a^2+b^2)/(2b^2)-2$ på intervallet kan man omtrent halvere denne nedre grensa i forhold til tilfellet hvor realdelen er konstant lik $-2$.</p>
75

Rekursiv blokkoppdatering av Isingmodellen / Recursive block updating of the Ising model

Sæther, Bjarne January 2006 (has links)
I denne rapporten sammenligner vi tre varianter av MarkovChain Monte Carlo (MCMC) - simulering av Isingmodellen. Vi sammenlignerenkeltnode-oppdatering, naiv blokkoppdatering og rekursiv blokkoppdatering.Vi begynner med å gi en generell introduksjon til markovfelt og Isingmodellen.Deretter viser vi det teoretiske fundamentet som MCMC-metoder hviler på. Etterdet gir vi en teoretisk introduksjon til enkeltnode-oppdatering. Så gir vi en innføringi naiv blokkoppdatering som er den tradisjonelle metoden å utføre blokkoppdateringpå. Deretter gir vi en tilsvarende innføring i en nylig foreslått metodefor å gjennomføre blokkoppdatering, nemlig rekursiv blokkoppdatering. Blokkoppdateringer en metode som har vist seg nyttig med hensyn på miksing når visimulerer. Med det menes at blokkoppdatering har vist seg nyttig i forhold til åutforske utfallsrommet til fordelingen vi er interessert i med færre iterasjoner ennenkeltnode-oppdatering. Problemet med naiv blokkoppdatering er imidlertid atvi raskt får en høy beregningsmengde ved at hver iterasjon tar veldig lang tid. Viprøver også ut rekursiv blokkoppdatering. Denne tar sikte på å redusere beregningsmengdenfor hver iterasjon når vi utfører blokkoppdatering på et markovfelt.Vi viser så simuleringsalgoritmer og resultater. Vi har simulert Isingmodellenmed enkeltnode-oppdatering, naiv blokkoppdatering og rekursiv blokkoppdatering.Det vi sammenligner er antall iterasjoner før markovfeltet konvergerer ogspesielt beregningstiden pr iterasjon. Vi viser at beregningsmengden pr iterasjonøker med 91000 ganger med naiv blokkoppdatering dersom vi går fra en 3 × 3blokk til en 5 × 5 blokk. Tilsvarende tall for rekursiv blokkoppdatering er enøkning på 83 ganger fra en 3 × 3 blokk til en 5 × 5 blokk.Vi sammenligner også tiden det tar før Isingmodellen konvergerer. Når vibenytter naiv blokkoppdatering finner vi at Isingmodellen bruker 15 sekunderpå å konvergere med en 3 × 3 blokk, 910 sekunder på å konvergere med en4×4 blokk og 182000 sekunder med en 5×5 blokk. Tilsvarende tall for rekursivblokkoppdatering er 3.74 sekunder for en 3 × 3 blokk, 72 sekunder for en 4 × 4blokk og 141.2 sekunder for en 5×5 blokk. Når vi benytter enkeltnode-oppdateringbruker feltet 6.6 sekunder på å konvergere. / ntnudaim20061385
76

Haarmål og høyreregulær representasjon på kompakte kvantegrupper / Haar Measure and Right Regular Representations of Compact Quantum Groups

Bertelsen, Vegard Steine January 2006 (has links)
<p>I denne oppgaven vil vi definere og vise eksistens av haarmål på kompakte kvantegrupper, se på hvordan vi ved hjelp av haarmålet kan konstruere en høyreregulær representasjon. Vi vil så gjøre dette ganske eksplisitt for kvante-SU(2).</p>
77

Stokastisk analyse av råtepotensial i huskledning / Stochastic Analysis of Mould Growth Rate in House Cladding

Stokkenes Johansen, Øivind January 2007 (has links)
<p>Det er benyttet regresjonsanalyse for å analysere innsamlet data. For å unngå eller begrense effektene av multikolinearitet er ridgeregresjon tatt i bruk. Fordi målingene er korrelerte med hverandre er generaliserte minstekvadraters metode benyttet. Det er forsøkt å besvare problemstillingen i tre situasjoner. Den første skal være representativ for forhold lignende de teststasjonen er utsatt for. Den andre og tredje skal representere situasjoner som er henholdsvis svakt og sterkt eksponert for råtevekst.</p>
78

Lineær mikset modell for kompressor data med en applikasjon / Linear Mixed Model for Compressor Data with an Application

Herdahl, Mads January 2008 (has links)
<p>StatoilHydro is the operator of the Åsgard oil and gas field outside of Trøndelag, Norway, where large compressors for injection, recompression and export of natural gas are installed. The facility transports and stores up to 36 millions $Sm^3$ of gas every day. If the compressors are not optimally operated, large values are lost. This paper describes how to use linear mixed models to model the condition of the compressors. The focus has been on the 1- and 2- stage recompression compressors. Reference data from Dresser-Rand have been used to make the model. Head and flow data are the modelled, and the explanatory variables used are molweight, rotational speed and an efficiency indicator. The paper also shows how cross validation is used to give an indication of how future datapoints will fit the model. A graphical user interface has been developed to do estimation and plotting with various models. Different models are tested and compared by likelihood methods. For a relatively simple model using three explanatory variables reasonable predictions are obtained. Results are not so good for very high rotational speeds and high molweights.</p>
79

Grafiske analysemetoder for ikke-geometriske design / Graphical Analysis of Nongeometric Designs

Niemi, Ranveig January 2008 (has links)
<p>Den grafiske analyseringen av tonivåforsøk har lenge begrenset seg til Lenth's metode, normalplott og halvnormalplott. Disse plotta baserer seg på at de estimerte kontrastene enten representerer aktive effekter eller støy. For design som ikke tilhører 2^(k-p) familien, dvs. de ikke-geometriske designa, er ikke dette lenger oppfylt. I denne oppgaven viser vi hvordan en ved hjelp av scatterplott og dendogram av absoluttverdien til hovedeffekter og tofaktorsamspill, sammen med aliasstrukturen til designa og ortogonalisering, kan konstruere plott som gjør det lettere å finne aktive effekter. Designa som blir undersøkt er 12 forsøks Plackett and Burman design og to design med 16 forsøk. Nøkkelord: Plackett and Burman, Ortogonalisering, 16 forsøks design, Tonivåforsøk</p>
80

En empirisk studie av FRAME-modellens egenskaper / An empirical study of the FRAME model and its properties

Larsen, Jens Helge Grutle January 2009 (has links)
<p>I denne rapporten beskriver vi en statistisk modell som fanger opp teksturer i et bilde og overfører disse til et annet bilde. Vi modellerer bilder som markovfelt, og beskriver filtre som vi bruker til å fange opp forskjellen mellom et observert og et syntetisk bilde ved hjelp av histogrammer. Denne forskjellen benytter vi til å oppdatere en sannsynlighetsfordeling for det syntetiske bildet ved hjelp av metoden for sannsynlighetsmaksimering. Deretter oppdaterer vi det syntetiske bildet ved å simulere fra den oppdaterte sannsynlighetsfordelingen ved hjelp av Metropolis-Hastings algoritme. Vi implementerer denne modellen på algoritmeform, og evaluerer algoritmen i flere situasjoner. Vi undersøker først om algoritmen kan gjenskape en tydelig struktur. Her virker algoritmen å bestemme en fornuftig sannsynlighetsfordeling, men mikser for dårlig til at vi kan skape nye realisasjoner ved å simulere fra denne. Videre forsøker vi å gjenskape forskjellige AR(2)-prosesser. Her klarer algoritmen å gjenskape realisasjoner med samme langsiktige trender som i de observerte prosessene, men klarer ikke å fange opp mer lokale teksturegenskaper. Vi opplever det samme når vi tester algoritmen på kunstig genererte geologiske realisasjoner, enkelte langsiktige teksturegenskaper fanges opp, men ikke lokale i like stor grad.</p>

Page generated in 0.0556 seconds