• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 560
  • 32
  • 6
  • 2
  • Tagged with
  • 620
  • 620
  • 585
  • 52
  • 41
  • 40
  • 38
  • 34
  • 33
  • 30
  • 30
  • 29
  • 28
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Forecasting Non-Maturing Liabilities / Prediktion av skulder utan fix löptid

Ahmadi-Djam, Adrian, Belfrage Nordström, Sean January 2017 (has links)
With ever increasing regulatory pressure financial institutions are required to carefully monitor their liquidity risk. This Master thesis focuses on asserting the appropriateness of time series models for forecasting deposit volumes by using data from one undisclosed financial institution. Holt-Winters, Stochastic Factor, ARIMA and ARIMAX models are considered with the latter being the one with best out-of-sample performance. The ARIMAX model is appropriate for forecasting deposit volumes on a 3 to 6 month horizon with seasonality accounted for through monthly dummy variables. Explanatory variables such as market volatility and interest rates do improve model accuracy but vastly increases complexity due to the simulations needed for forecasting. / Med ständigt ökande krav på finansiella institutioner måste de noga övervaka sin likviditetsrisk. Detta examensarbete fokuserar på att analysera lämpligheten av tidsseriemodeller för prognoser inlåningsvolymer med hjälp av data från en ej namngiven finansiell institution. Holt-Winters, Stochastic Factor, ARIMA och ARIMAX modellerna används, där den senare uppvisar bäst resultat. ARIMAX modellen är lämplig för prognoser av inlåningsvolymer på en 3-6 månaders tidshorisont där hänsyn till säsongseffekter tagits genom månatliga dummyvariabler. Förklaringsvariabler såsom marknadsvolatilitet och räntor förbättrar modellens prognosticeringsprecision men ökar samtidigt komplexiteten på grund av de simuleringar som krävs.
262

Automatic Projector Calibration for Curved Surfaces Using an Omnidirectional Camera / Automatiserad projektorkalibrering för krökta ytor med en rundstrålande kamera

Tennander, David January 2017 (has links)
This master’s thesis presents one approach to remove distortions generated by projecting onto non flat surfaces. By using an omnidirectional camera a full 360 dome could be calibrated and the corresponding angles between multiple projections could be calculated. The camera was modelled with the Unified Projection Model allowing any omnidirectional camera system to be used. Surface geometry was captured by using Gray code patterns, the optimal image centre was calculated as an quadratic optimisation problem and in the end a Spline surface countering the distortions was generated by using the FAST-LTS regression algorithm. The developed system used a RICOH THETA S camera calibrated by the omnidir module in openCV. A desirable result was achieved and during use of overlapping projectors a maximum error of 0.5° was measured. Testing indicates part of the error could have been introduced in the evaluation measurements. The resulting application is seen as a success and will be used by ÅF Technology AB during calibration of flight simulators. / Denna rapport presenterar en metod för att motverka de distorsioner som uppkommer när en bild projeseras på en icke plan yta. Genom att använda en omnidirectional kamera kan en omslutande dome upplyst av flertalet projektorer bli kalibrerad. Kameran modellerades med The Unified Projection Model då modellen går att anpassa för ett stort antal kamerasystem. Projektorernas bild på ytan lästes av genom att använda Gray kod och sedan beräknades den optimala mittpunkten för den kalibrerade bilden genom att numeriskt lösa ett kvadratiskt NLP problem. Till slut skapas en Spline yta som motvärkar projektionsförvrängningen genom FAST-LTS regression. I den experimentella uppställningen användes en RICOH THETA S kamera som kalibrerades men omnidir modulen i openCV. Ett enligt författarna lyckat resultat uppnåddes och vid överlappning av flertalet projektorer så mättes ett maximalt fel på 0.5° upp. Vidare mätningar antyder att delar av detta fel uppkommit på grund av saknad noggrannhet i utrustningen under evalueringsfasen. Resultatet ses som lyckat och den utvecklade applikationen kommer att användas av ÅF Technology AB vid deras calibrering av flygsimulatorer.
263

Optimal Path Smoothing using Clothoids for Autonomous Vehicles in the Quarry Environment / Bangenerering med hjälp av klothoider för autonoma fordon i gruvindustrin

Zhang, Anda January 2017 (has links)
Autonomous vehicles are a rapidly growing field and will play an important role in future society. The introduction of autonomous machines in the quarry environment increases safety in the hazardous working conditions and reduces the risk of accidents caused by human error. By making the machine electric and autonomous it will also improve the fuel efficiency and reduces carbon emission. The results of this thesis are developed within the electric site project which is lead by Volvo Construction Equipment in Eskilstuna, Sweden. The goal is to transform the quarry and aggregates with the help of the introduction of electric hybrid autonomous machines which is predicted to result in reduced carbon emission by up to 95% .This thesis address the problem of path planning noisy curvatures of the paths that are calculated using coordinates recorded from a manual driven vehicle. This makes the control algorithm for the autonomous vehicle hard to implement. The purpose in this thesis is to develop a procedure to describe paths and smooth those so the curvature becomes smooth and drivable for an autonomous load carrier. To smooth the paths, we use the concept of clothoids which are curves with linear varying curvature. Clothoids are widely used in road design because of its smoothness properties. We solve the smoothing problem by formulating it as an optimization problem where we minimize the number of clothoid segments to avoid unnecessary noisy curvature variations. The results are successful and we are able to produce feasible paths for two test tracks Volvo Construction Equipment uses. We also create a Graphical User Interface in MATLAB to facilitate the creation of the clothoid-based paths from recorded GPS coordinates / Autonoma fordon är ett område som har fått mycket uppmärksamhet inom forskningen och kommer ha en viktig roll i samhället i framtiden. Introduktionen av självkörande fordon i öppna gruvmiljöer ökar säkerheten för personer som jobbar i dessa kritiska områden och reducerar olyckor från mänskliga misstag. Genom att låta maskinerna vara elektriskt drivna kommer också effektivisera bränsle användningen och minska koldioxidutsläppen. Resultaten som har tagits fram i denna uppsats är i samarbete med Volvo Construction Equipment i Eskilstuna, Sverige inom projektet Electric Site. Målet är att transformera den öppna gruvindustrin som använder dieselfordon till att använda självkörande och elektriska fordon vilket ska kunna reducera koldioxidutsläppen med upp till 95 %. I uppsatsen tar vi upp problemet med banplanering av brusig kurvatur från banor som är inspelade från en GPS på en manuell körande bil. Syfte med denna uppsats är att utveckla ett system som kan beskriva banor och släta upp dessa sådan att kurvaturen blir mjuka och autonomt körbara för en lastare. För att släta ut banorna använder vi klotoider, som är kurvor med linj ärt varierande kurvatur längs kurvan. Klotoider är ett välanvänt koncept inom vägdesign på grund av mjuka kurvaturegenskaper. Vi löser utslätningsproblemet genom att formulera det som ett optimeringsproblem där vi minimerar antalet klotoidsegment för att undvika onödiga kurvaturvariationer i form av brus. Resultaten är framgångsrika och vi lyckas skapa körbara banor för två testbanor som Volvo Construction Equipment använder. Vi skapar också ett grafiskt användergränssnitt i MATLAB för att underlätta användare att skapa klotoidbaserade banor från GPS-koordinater som spelats in.
264

Application of Machine Learning techniques to Optimization algorithms / Applikation av maskininlärning till optimerings algoritmer

Dabert, Geoffrey January 2017 (has links)
Optimization problems have been immuned to any attempt of combination with machine learning until a decade ago but it is now an active research field. This thesis has studied the potential implementation of a machine learning heuristic to improve the resolution of the optimization scheduling problems based on a Constraint Programming solver. Some scheduling problems, known as N P -hard problems, suffer from large computational cost (large number of jobs to schedule) and consequent human effort (well-suited heuristics need to be derived). Moreover industrial scheduling problems obviously evolves over time but a lot of features and the basic structure remain the same. Hence they have potential in the implementation a supervised-learning-based heuristic. First part of the study was to model a given benchmark of instances and im- plement some famous heuristics (as earliest due date, combined with the largest duration) in order to solve the benchmark.  Based on the none-optimality of returned solutions, primaries instances were choosen to implement our method. The second part represents the procedure which has been set up to design a supervised-learning-based heuristic. An instance generator was first  built to map the potential industrial evolutions of the instances. It returned secondaries instances representing the learning database. Then a CP-well-suited node ex- traction scheme was set up to collect relevant information from the resolution of the search tree. It will  collect data from nodes of the search tree given a proper criteria. These nodes are next projected onto a constant-dimensional space which described the system, the underlying subtree and the impact of the affectations. Upon these features and designed target values statistical mod- els are implemented. A linear and a gradient  boosting regressions have been implemented, calibrated and tuned upon the data. Last was to integrate the supervised-learning model into an heuristic framework. This has been done via a soft propagation module to try  the instantiation of all the children of the considered node and apply the given module upon them. The selection decision rule was based upon a reconstructed score. Third part was to test the procedure implemented. New secondaries instances were generated and supervised- learning-based heuristic tested against the earliest due date one. The procedure was tested upon two different instances. The integrated heuristic returned positive results for both instances. For the first one (10 jobs to schedule) a gain in the first solution found (resp. the number of backtracks) of 18% (resp. 13% were realized. For the second instance (90 jobs to schedule) a gain in the first solution found of at least 16%. The results come to validate the procedure implemented and the methodology used.
265

Deep learning-based forecasting of financial assets / Prediktering av finansiella tillgångar med hjälp av djupa neuronnät

Widegren, Philip January 2017 (has links)
Deep learning and neural networks has recently become a powerful tool to solve complex problem due to improvements in training algorithms. Examples of successful application can be found in speech recognition and machine translation. There exist relative few finance articles were deep learning have been applied, but existing articles indicate that deep learning can be successfully applied to problems in finance.  This thesis studies forecasting of financial price movements using two types of neural networks, namely; feedforward and recurrent networks. For the feedforward neural networks we considered non-deep networks with more neurons and deep networks with fewer neurons. In addition to the comparison between feedforward and recurrent networks, a comparison between deep and non-deep networks will be made. The recurrent architecture consists of a recurrent layer mapping into a feedforward layer followed by an output layer. The networks are trained with two different feature setups, one less complex and one more complex. The findings for non-deep vs. deep feedforward neural networks imply that there does not exist any general pattern whether deep or non-deep networks are preferable. The findings for recurrent neural networks vs. feedforward neural networks imply that recurrent neural networks do not necessarily outperform feedforward neural networks even though financial data in general are time-dependent. In some cases, adding batch normalization can improve the accuracy for the feedforward neural networks. This can be preferable instead of using more complex models, such as a recurrent neural networks. Moreover, there are significant differences in accuracies between using the two different feature setups. The highest accuracy for all networks are 52.82%, which is significantly better than the simple benchmark. / Djupa neuronnät har under det senaste årtiondet blivit ett väldigt användarbart verktyg för att lösa komplexa problem, tack vare förbättringar i träningsalgoritmer. Två områden där djupinlärning visat sig väldigt användbart är inom taligenkänning och maskinöversättning. Det finns relativt få artiklar där djupinlärning används inom finans men i de få som existerar finns det tydliga tecken på att djupinlärning skulle kunna appliceras framgångsrikt på finansiella problem. Denna uppsats studerar prediktering av finansiella prisrörelser med framåtkopplade nätverk och rekurrenta nätverk. För de framåtkopplade nätverken kommer vi använda oss av djupa nätverk med färre neuroner per lager och mindre djupa nätverk med fler neuroner per lager. Förutom en jämförelse mellan framåtkopplade nätverk och rekurrenta nätverk kommer även en jämförelse mellan de djupa och mindre djupa framåtkopplade nätverken att göras. De rekurrenta nätverket består av ett rekurrent lager som sedan projicerar på ett framåtkopplande lager följt av ett outputlager. Nätverken är tränade med två olika uppsättningar av insignaler, ett mindre komplext och ett mer komplext. Resultaten för jämförelsen mellan de olika framåtkopplade nätverken indikerar att det inte med säkerhet går att säga om man vill använda sig av ett djupare nätverk eller inte, då det beror på många olika faktorer som tex. variabeluppsättning. Resultaten för jämförelsen mellan de rekurrent nätverken och framåtkopplade nätverken indikerar att rekurrenta nätverk nödvändigtvis inte presterar bättre än framåtkopplade nätverk trots att finansiell data vanligtvis är tidsberoende. Det finns signifikanta resultat där den mer komplexa variabeluppsättningen presterar bättre än den mindre komplexa. Den högsta träffsäkerheten för att prediktera rätt tecken på nästkommande prisrörelse är 52.82% vilket är signifikant bättre än ett enkelt benchmark.
266

On the risk relation between Economic Value of Equity and Net Interest Income / Ekonomiskt Värde av Eget Kapital-risk samt Räntenettorisk och sambandet dem emellan

Berglund, André, Svensson, Carl January 2017 (has links)
The Basel Committee has proposed a new Pillar 2 regulatory framework for evaluating the interest rate risk of a bank's banking book appropriately called Interest Rate Risk in the Banking Book. The framework requires a bank to use and report two different interest rate risk measures: Economic Value of Equity (EVE) risk and Net Interest Income (NII) risk. These risk measures have previously been studied separately but few models have been proposed to investigate the relationship between them. Based on previous research we assume that parts of the banking book can be approximated using a portfolio strategy of rolling bonds and propose a model for relating the connection between the portfolio maturity structure, EVE risk and NII risk. By simulating from both single- and multi-factor Vasicek models and measuring risk as Expected Shortfall we illustrate the resulting risk profiles. We also show how altering certain theoretical assumptions seem to have little effect on these risk profiles. / Baselkommittén har föreslagit ett nytt Pelare 2-regelverk för att utvärdera ränterisken i en banks bankbok kallat Interest Rate Risk in the Banking Book. Regelverket kräver att en bank beräknar och rapporterar två olika mått på ränterisk: Ekonomiskt Värde av Eget Kapital-risk (EVE-risk) samt Räntenettorisk (NII-risk). Dessa två mått har tidigare studerats separat men få modeller har föreslagits för att studera relationen dem emellan. Baserat på tidigare forskning så antar vi att delar av bankboken kan approximeras som en rullande obligationsportfölj och föreslår en modell för att relatera sambandet mellan portföljens löptidsstruktur, EVE-risk och NII-risk. Genom att simulera korträntor från Vasicek-modeller med olika antal faktorer så undersöker vi de resulterande riskerna mätt som Expected Shortfall. Vi visar också att vissa av de teoretiska antagandena verkar ha liten påverkan på riskprofilen.
267

Hierarchical clustering of market risk models / Hierarkisk klustring av marknadsriskmodeller

Pucek, Ludvig, Sonebäck, Viktor January 2017 (has links)
This thesis aims to discern what factors and assumptions are the most important in market risk modeling through examining a broad range of models, for different risk measures (VaR0.01, S0:01 and ES0:025) and using hierarchical clustering to identify similarities and dissimilarities between the models. The data used is daily log returns for OMXS30 stock index and Bloomberg Barclays US aggregate bond index (AGG) from which daily risk estimates are simulated. In total, 33 market risk models are included in the study. These models consist of unconditional variance models (Student's t distribution, Normal distribution, Historical simulation and Extreme Value Theory (EVT) with Generalized Pareto Tails (GPD)) and conditional variance models (ARCH, GARCH, GJR-GARCH and EGARCH). The conditional models are used in filtered and unfiltered market risk models. The hierarchical clustering is done for all risk measures and for both time series, and a comparison is made between VaR0:01 and ES0:025.  The thesis shows that the most important assumption is whether the models have conditional or unconditional variance. The hierarchy for assumptions then differ depending on time series and risk measure. For OMXS30, the clusters for VaR0:01 and ES0:025 are the same and the largest dividing factors for the conditional models are (in descending order): Leverage component (EGARCH or GJR-GARCH models) or no leverage component (GARCH or ARCH) Filtered or unfiltered models Type of variance model (EGARCH/GJR-GARCH and GARCH/ARCH) The ES0:01 cluster shows that ES0:01 puts a higher emphasis on normality or non-normality assumptions in the models. The similarities in the different clusters are more prominent for OMXS30 than for AGG. The hierarchical clustering for AGG is also more sensitive to the choice of risk measure. For AGG the variance models are generally less important and more focus lies in the assumed distributions in the variance models (normal innovations or student's t innovations) and the assumed final log return distribution (Normal, Student's t, HS or EVT-tails). In the lowest level clusters, the transition from VaR0:01 to ES0:025 result in a smaller model disagreement. / Denna uppsats syfte är att utröna vilka faktorer och antaganden som är de viktigaste i marknadsriskmodellering genom att undersöka en mängd modeller, för riskmåtten (VaR0.01, S0:01 and ES0:025 ) och genom hierarkisk klustring identifiera likheter och skillnader mellan modellerna Datan som används är dagliga log-returns för OMXS30 och Bloomberg Barclays US aggregate bond index (AGG) från vilka dagliga riskestimat simuleras. Totalt används 33 marknadsriskmodeller i denna studie. Dessa modeller består av mod- eller med obetingad varians (Student’s t-fördelning, normalfördelning, historisk simulering och extremevärdeteori med Generalized Pareto svansar i fördelningen (GPD)) och modeller med betingad varians (ARCH, GARCH, GJR-GARCH och EGARCH). De betingade vari-ansmodellerna används som filtrerade och ofiltrerade modeller. Den hierarkiska klustringen görs för alla riskmått och för båda tidsserierna. En jämförelse görs mellan VaR0:01 och ES0:025. Denna studie visar att det viktigaste antagande är om modellerna har betingad eller obetingad varians. Sedan skiljer hierarkin gällande vilka antaganden som är viktigast beroende på tidsserie och riskmått. För OMXS30 är klustrena för VaR0.01 och ES0.025 likadana och de viktigaste faktorerna i modelleringen är (i sjunkande ordning): Leverage-komponent (EGARCH or GJR-GARCH models) eller ingen leverage-komponen(GARCH or ARCH) Filtrerad eller ofiltrerad modell Typ av variansmodellering (EGARCH/GJR-GARCH and GARCH/ARCH) Klustret för ES0:01 visar att  ES0:01 sätter en större vikt vid antagandet om normalfördelning eller inte normalfördelning i modellerna. Likheterna i de olika klustrena är mer framträdande för OMXS30 än för AGG. Klustren för AGG är även mer känsliga för valet av riskmått. För AGG är de olika valen av varians-modell generellt sett mindre viktiga och fokus ligger istället på den antagna fördelningen i variansmodellerna (normalfördelade eller Student t-fördelade) och den antagna slutgiltiga fördelningen (normal, Student’s t, historisk simulering eller EVT). I de lägsta nivåern i klustrena resulterar bytet från  VaR0:01 till ES0:025 i en mindre spridning mellan modellerna.
268

Datorstödda bevis

Samuelsson, Robin January 2014 (has links)
No description available.
269

Computational methods for microfluidics

af Klinteberg, Ludvig January 2013 (has links)
This thesis is concerned with computational methods for fluid flows on the microscale, also known as microfluidics. This is motivated by current research in biological physics and miniaturization technology, where there is a need to understand complex flows involving microscale structures. Numerical simulations are an important tool for doing this. The first paper of the thesis presents a numerical method for simulating multiphase flows involving insoluble surfactants and moving contact lines. The method is based on an explicit interface tracking method, wherein the interface between two fluids is decomposed into segments, which are represented locally on an Eulerian grid. The framework of this method provides a natural setting for solving the advection-diffusion equation governing the surfactant concentration on the interface. Open interfaces and moving contact lines are also incorporated into the method in a natural way, though we show that care must be taken when regularizing interface forces to the grid near the boundary of the computational domain. In the second paper we present a boundary integral formulation for sedimenting particles in periodic Stokes flow, using the completed double layer boundary integral formulation. The long-range nature of the particle-particle interactions lead to the formulation containing sums which are not absolutely convergent if computed directly. This is solved by applying the method of Ewald summation, which in turn is computed in a fast manner by using the FFT-based spectral Ewald method. The complexity of the resulting method is O(N log N), as the system size is scaled up with the number of discretization points N. We apply the method to systems of sedimenting spheroids, which are discretized using the Nyström method and a basic quadrature rule. The Ewald summation method used in the boundary integral method of the second paper requires a decomposition of the potential being summed. In the introductory chapters of the thesis we present an overview of the available methods for creating Ewald decompositions, and show how the methods and decompositions can be related to each other. / <p>QC 20130124</p>
270

A Physics-Informed Deep Learning Framework for Solving Inverse Problems in Epidemiology

Tronstad, Magnus January 2022 (has links)
This thesis develops and evaluates a physics-informed neural network (PINN) modelling framework for solving inverse problems in epidemiology. The PINN works by modifying the standard mean squared error loss function of the neural network, by adding a term penalizing deviations from a given compartmental model's system of ordinary differential equations. To find estimates for the unknown parameters in the compartmental model, such as the transmission rate, this compound loss function is then minimized with respect to both the neural network's inherent parameters and the unknown parameters in the compartmental model. The following question guided the study: Given time-series data consisting of the 7-day rolling average of the daily incidence of new infectious individuals, and a compartmental model for that data, can a PINN learn the corresponding time-dependent transmission rate parameter? The PINN framework was first validated on simulated (synthetic) epidemiological data, where the PINN was tasked o retrieve the unknown parameters in a given three-compartment SIR (Susceptible-Infectious-Recovered) model. It was then tested on real Covid-19 case data, and tasked to retrieve a time-dependent transmission rate parameter in an SEIR (Susceptible-Exposed-INfectious-Recovered) model. Two different approaches to learning a time-dependent transmission rate based were compared: one assumed a sigmoidal transmission rate with three unknown parameters (model IIa); the other allowed the transmission rate to be aprameterized by the neural netowrk, by adding it as an additional output node (Model IIb). The findings were that the PINN was able to reliably retrieve unknown constant parameters in an SIR model based on simulated data. However, it was also found that the PINN's parameter estimates can be sensitive to noise. Moreover, when learning a time-dependent transmission rate with Model IIb, an important finding was that the PINN would struggle to converge to the true transmission rate in regions of time when there were a relatively low number of total infections. Nevertheless, when employed on Covid-19 data from Stockholm county corresponding to the first wave, the PINN was still able to extract a time-dependent transmission rate in the given SEIR model, largely consistent with the 7-day rolling average of the incidence of new cases, without imposing any a priori assumptions on the shape of the transmission rate other than it should be positive. / I den här studien utvecklas och utvärderas ett modelleringsramverk, som drar nytta av fysikinformerade neurala nätverk (PINN), för lösning av inversa problem inom epidemiologi. I en PINN modifieras den sedvanliga lossfunktionen genom att en term läggs till som straffar avvikelser from en given fackmodells system av differentialekvationer. Genom att minimera denna sammansatta lossfunktion med avseende på både det neurala nätverkets inneboende parametrar och de okända epidemiologiska parametrarnarna i fackmodellen, såsom graden av infektivitet, är förhoppningen att PINNen ska kunna skatta de epidemiologiska parametrarna. Följande forskningsfråga ledde studien: "givet ett 7-dagars rullande medelvärde av den dagliga incidensen av nya bekräftade infekterade fall, och en fackmodell för att beskriva denna data, kan en PINN lära sig en tidsberoende infektivitet i fackmodellen som överstämmer med datan"? PINN-ramverket validerades för på simulerad (syntetisk) epidemiologisk data, där PINNen fick i uppdrag att hitta de okända parametrarna i en given fackmodell med tre fack: SIR (Susceptible-Infectious-Recovered). Det testades därefter på riktig Covid-19 data, med uppdraget att hitta en tidsberoende infektivitetsparameter i en SEIR (Susceptible-Exposed-Infectious-Recovered) modell. Två olika tillvägagångssätt för att lära sig den tidsberoende infektiviteten jämfördes: den ena använde en sigmoid-ansats med tre okända parametrar (Model IIa); den andra tillät det neurala nätverket att parametrisera infektiviteten, genom att lägga till den som en extra komponent i nätverkets utsignal. Resultaten visade att en PINN tillförlitlig kunde identifiera de okända, konstanta, parametrarna i en SIR_modell, men att skattningarna kunde vara känsliga för brus i datan. När Modell IIb användes upptäcktes även att PINNen kunde få svårt att konvergera mot den sanna infektiviteten vid tider då det fanns relativt få totalt infekterade. Trots dessa svårigheter kunde Modell IIb identifiera en tidsberoende infektivitet för en given fackmodell som var konsistent med ett 7-dagars rullande medelvärde an incidensen av nya fall, utan att påtvinga några a priori antaganden om formen på infektiviteten, annat än att den skulle vara positiv.

Page generated in 0.2644 seconds