• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 220
  • 144
  • 144
  • 144
  • 144
  • 144
  • 143
  • 14
  • 1
  • 1
  • Tagged with
  • 544
  • 544
  • 292
  • 138
  • 77
  • 61
  • 59
  • 58
  • 57
  • 56
  • 54
  • 49
  • 46
  • 44
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Electron transport in nano devices: mathematical introduction and preconditioning

Trichtchenko, Olga January 2009 (has links)
In this thesis we outline the mathematical principles behind density functional theory, and describe the iterative Kohn-Sham formulation for computation of electronic density calculations in nano devices. The model for computation of the density of electrons in such device is a non-linear eigenvalue problem that is solved iteratively using the resolvent formalism. There are several bottlenecks to this approach and we propose methods to resolve them. This iterative method involves a matrix inversion. This matrix inversion is called upon when calculating the Green's function for a particular system, the two-probe device. A method to speed up this calculation is to use a preconditioning technique to accelerate the convergence of the iterative metho d. Tests the existing algorithm for a one-dimensional system are presented. The results indicate that these preconditioning methods reduce the condition number of the matrices. / Dans cette thèse, nous présentons les principes mathématiques à la base de la théorie de la fonctionnelle de la densité, et nous décrivons la formule Kohn-Sham itérative pour le calcul des densités d'électron dans les composants nano-électroniques. Le modèle de densité électronique est un problème de valeurpropre non-linéaire que l'on résout de manière itérative. Il y a plusieurs complications liées à cette technique et nous proposons des méthodes pour y remédier. On formule le système à l'aide du calcul de l'opérateur hamiltonien dans une base particulière. Cette inversion de matrice est nécessaire lors du calcul de la fonction de Green pour le système en question: l'appareil à deux sondes. Afin d'accélérer ce calcul, nous utilisons une technique de préconditionnement basée sur la nature itérative du problème. Nous présentons les résultats de nos essais avec différents préconditionneurs. Ceux-ci indiquent que ces méthodes réduisent le nombre de conditionnement de notre matrice. Ce préconditionnement est donc appliqué à des algorithmes d'inversion itératives classiques tels que la méthode de Gauss-Seidel et la méthode du résidu minimal généralisée. En effet, nous observons une réduction du nombre d'itérations nécessaires pour le calcul de la matrice inverse.
92

Description of solutions of systems of equations over free products of groups

Kazachkov, Ilya January 2009 (has links)
Using an analogue of Makanin-Razborov diagrams, we give a description of the solution set of systems of equations over an equationally Noetherian free product of groups $G$. Equivalently, we give a parametrisation of the set $\Hom(H, G)$ of all homomorphisms from a finitely generated group $H$ to $G$. Furthermore, we show that every algebraic set over $G$ can be decomposed as a union of finitely many images of algebraic sets of NTQ systems. If the universal Horn theory of $G$ (the theory of quasi-identities) is decidable, then our constructions are effective. / Utilisant un analogue des diagrammes de Makanin-Razborov, nous donnons une description de l'ensemble des solutions de systémes d'équations dans un produit libre équationallement Noetherien $G$. De maniére équivalente, nous donnons une paramétrisation de l'ensemble $\Hom(H,G)$ des homomorphismes d'un groupe de génération finie $H$à $G$.Si la théorie universelle de Horn de $G$ est décidable, nos constructions sont algorithmique.
93

B-methods: Special time-integrators for differential equations with blow-up solutions

Beck, Mélanie January 2010 (has links)
Many nonlinear differential equations have solutions that cease to exist in finite time because their norm becomes infinite. We say that the solution blows up in finite time. In general, this phenomenon is especially important in the physical interpretation of the results, but unfortunately most of these differential equations can not be explicitly solved. Moreover numerically approximating blow-up phenomena is a delicate problem and most standard methods only yield poor results. / In this thesis we suggest ways to construct fixed-step numerical methods, specialized in the approximation of a blow-up solution, the so-called B-methods (in case of partial differential equations, we obtain semi-discretizations in time). Two approaches are presented in detail: one consists of a splitting method while the other comes from a variation of the constant. Both approaches are based on the same idea: to exploit the fact that the solution of a simplified equation (made up of the nonlinear part that is responsible for the blow-up) can be explicitly written. / We start by properly defining the problem and presenting an extensive literature review concerning both theoretical and numerical results. Then, after explaining the two methods of construction on an example, we apply them to different models and so we obtain numerous B-methods. All these methods are implemented and extensive numerical experiments illustrate the superiority of the performance of B-methods over standard methods. Finally a chapter is devoted to the theoretical study of some B-methods. Theorems which are proven reinforce the promising results of the numerical tests. / De nombreuses équations différentielles non-linéaires ont des solutions qui cessent d'exister en temps fini car leur norme devient infinie. On dit alors que la solution explose en temps fini. Ce phénomène revêt généralement une grande importance dans l'interprétation physique des résultats, malheureusement la plupart de ces équations différentielles ne peuvent pas être résolues explicitement. De plus l'approximation numérique du phénomène d'explosion est délicat et la plupart des méthodes standards ne donnent que des résultats médiocres. / Dans cette thèse nous proposons des façons de construire des méthodes numériques à pas de temps fixe, spécialisées dans l'approximation d'une solution qui explose, les B-méthodes (dans le cas d'équations aux dérivés partielles, nous obtenons des semi-discrétisations en temps). Deux approches sont présentées en détail : l'une consiste en une "splitting method" tandis que l'autre provient d'une variation de la constante. Toutes deux se basent sur la même idée : exploiter le fait que la solution d'une équation simplifiée (formée de la partie non-linéaire responsable de l'explosion) peut être écrite explicitement. / Nous commençons par bien définir le problème et présentons une revue étendue de la littérature consacrée au sujet, tant du point de vue théorique que du point de vue numérique. Puis, après avoir expliqué ces deux méthodes de construction sur un exemple, nous les appliquons à différents modèles et obtenons ainsi de nombreuses B-méthodes. Toutes ces méthodes sont ensuite programmées et des tests numériques étendus viennent illustrer la supériorité des performances des B-méthodes sur celles des méthodes standards. Un chapitre est également consacré à l'étude théorique de quelques B-méthodes. Les théorèmes qui y sont prouvés viennent supporter les résultats prometteurs des tests numériques.
94

Nonparametric random fields with applications in functional imaging

Rohani, Farzan January 2010 (has links)
In functional imaging, we are searching for the location of a particular effect in a group of images. It is often of interest to perform a statistical test at each point of the image, and reject the null hypothesis of "no effect" where there is significant evidence to do so. For such purpose, a test statistic should be evaluated at each point of the image, resulting in a test statistic image. The test statistic image can be considered as a stochastic process or a random field, f, defined on some parameter space, T, and taking values in R. When the statistic image, f, is submitted to a threshold of level u the p-value will be the excursion probability. When f satisfies certain conditions, Random Field Theory (RFT) can be used to estimate the above excursion probability by calculating the expected Euler characteristic (EC) of the excursion sets of f. The existing RFT results give explicit formulas for E[EC(Au)] when f is a function of Gaussian random fields [26, 27]. From the "hypothesis testing" point of view, this means that the test performed at each point of the image should be parametric. Parametric tests often assume that the observations are normally distributed and this assumption does not always hold. If this normality assumption fails, the underlying random fields of our test will not be Gaussian, and consequently, the Gaussian RFT results would not be valid. / In this thesis we propose nonparametric counterparts to these parametric tests. Evaluating a nonparametric test statistic at each point of the parameter space, T, results in a random field, which we call a "nonparametric random field". The nonparametric tests used in this work are the Sign test, the Wilcoxon rank-sum test and a general linear rank test. We define the nonparametric random fields precisely, and then derive a formula for E[EC(Au)], when the parameter space is T = [a, b]. Although these results work only for one-dimensional parameter spaces,they constitute a solid first attempt and should pave the way for future generalizations. Moreover, we introduce a new application for the one-dimensional case, in localization of data types, in file type detection studies. We also study the asymptotic behavior of nonparametric random fields and show that the discrete nonparametric fields converge weakly to Gaussian fields, for which we are able to use the existing RFT results. These asymptotic results can be practically used for any dimension. We finally apply these asymptotic results to brain imaging data. / En imagerie fonctionelle, on cherche à localiser un effet particulier à l'aide d'une collection d'images. Il est souvent d'intérêt d'effectuer un test statistique à chaque point de l'image, et de rejeter l'hypothèse nulle stipulant "aucun effet" s'il y a preuve considérable en cette direction. À cette fin, une statistique-test devrait être évaluée à chaque point de l'image, résultant ainsi en une image statistique-test. L'image statistique-test peut être perçue comme étant un procédé stochastique ou un champ aléatoire, f, défini sur un espace-paramètre, T, et avec image en R. Quand l'image statistique-test, f, est soumise à un seuil de niveau u la p-valeur sera la probabilité d'excursion. Quand f satisfait certaines conditions, la Théorie des Champs Aléatoires (TCA) peut être utilisée afin d'estimer cette probabilité d'excursion en calculant l'espérance mathématique de la caractérisque d'Euler (CE) des ensembles d'excursion de f. Les résultats de la TCA déjà établis procurent des formules explicites pour E[EC(Au)] quand f est une fonction de champs gaussiens [26, 27]. De la perspective des tests d'hypothèse, ceci implique que le test effectué à chaque point de l'image devrait être paramétrique. Les tests paramétriques requièrent fréquemment que les observations soient normalement distribuées, bien que cette hypothèse ne soit pas toujours vraie. Si l'hypothèse de normalité est fausse, les champs aléatoires obtenues à partir de notre statistique-test ne sont pas gaussiens et conséquemment, les résultats de la TCA gaussiens sont invalides. / Dans cette thèse, on propose un homologue non-paramétrique aux tests paramétriques. L'évaluation d'une statistique-test nonparamétrique à chaque point de l'espace-paramètre, T, résulte en un champ aléatoire, que l'on nommera " champ aléatoire non-paramétrique. " Les tests non-paramétriques utilisés dans ce travail sont le test du signe, le test de la somme des rangs de Wilcoxon et le test de rangs linéaire général. On définit précisément le champ aléatoire non-paramétrique, pour ensuite dériver une formule pour E[EC(Au)] quand l'espace-paramètre est T = [a, b]. Bien que ces résultats soient uniquement valides pour des espaces-paramètre unidimensionels, ils constituent un premier pas important et devrait frayer la voie à de plus amples généralisations. De plus, on introduit une nouvelle application pour le cas unidimensionel, notamment concernant la localisation de types de données lors d'études de détection de types de fichiers. On étudie également le comportement asymptotique des champs aléatoires non-paramétriques et démontre que les champs aléatoires discrets converge faiblement vers des champs gaussiens, pour lesquelles les résults de la TAC sont applicables. Ces résultats asymptotiques s'avèrent utiles pour toute dimension. On applique finalement ces résultats asymptotiques à des données d'imagerie cervicale.
95

A Bayesian approach to the statistical interpretation of DNA evidence

Maimon, Geva January 2010 (has links)
This dissertation sets forth a foundation for a continuous model for the interpretation of DNA mixture evidence. We take a new approach to modelling electropherogram data by modelling the actual electropherogram as a curve rather than modelling the allelic peak areas under the curve. This shift allows us to retain all the data available and to bypass the approximation of peak areas by GeneMapper R (Applied Biosystems, 2003). The two problems associated with the use of this programme - prohibitive costs and patented processes - are thus avoided. / To establish a model for electropherogram data, we explore two Bayesian wavelet approaches to modelling functions (Chipman et al., 1997 ; M. Clyde et al., 1998) as well as a Bayesian Adaptive Regression Splines approach (DiMatteo et al., 2001). Furthermore, we establish our own genotyping algorithm, once again circumventing the need for GeneMapper R, and obtain posterior probabilities for the resulting genotypes. / With a model in place for single-source DNA samples, we develop an algorithm that deconvolves a two-person mixture into its separate components and provides the posterior probabilities for the resulting genotype combinations. / In addition, because of the widely recognized need to perform further research on continuous models in mixture interpretation and the difficulty in obtaining the necessary data to do so (due to privacy laws and laboratory restrictions), a tool for simulating realistic data is of the utmost importance. PCRSIM (Gill et al., 2005) is the most popular simulation software for this purpose. We propose a method for refining the parameter estimates used in PCRSIM in order to simulate more accurate data. / Cette dissertation établit les fondations nécessaires à la création d'un modèle continu servant à l'interprétation des échantillons d'ADN à sources multiples (mélanges). Nous prenons une nouvelle approche de la modélisation des données d'´electrophérogrammes en modélisant l'électrophérogramme en tant que courbe plutôt que de modéliser l'aire sous la courbe des sommets alléliques. Cette approche nous permet de conserver toutes les données disponibles et d'éviter l'estimation de l'aire sous la courbe au moyen de GeneMapper R (Applied Biosystems, 2003). Deux problèmes associés à l'utilisation de ce programme - des coûts prohibitifs et une procédure brevetée - sont ainsi évités. / Afin d'établir un modèle pour les données d'électrophérogramme, nous explorons deux approches bayésiennes pour la modélisation des fonctions par ondelettes (Chipman et al., 1997 ; M. Clyde et al., 1998) de même qu'une approche connue sous le nom de Bayesian Adaptive Regression Splines (DiMatteo et al., 2001). De plus, nous élaborons notre propre algorithme pour l'analyse des génotypes, nous permettant, encore une fois, d'éviter GeneMapper R, et d'obtenir les probabilités postérieures des génotypes résultants. / À l'aide d'un modèle d'échantillon d'ADN à source unique, nous développons un algorithme qui divise un échantillon de deux personnes en ses composantes séparées et estime les probabilités postérieures des différentes combinaisons possibles de génotype. / De plus, en raison des lacunes dans la littérature sur les modèles continus pour l'analyse d'échantillons d'ADN à sources multiples et de la difficulté à obtenir les données n´ecessaire pour l'effectuer (en raison des lois sur la protection de la vie privée et des restrictions en laboratoire), un outil qui simule des données réalistes est de la plus grande importance. PCRSIM (Gill et al., 2005) est un outil qui permet de répondre à ce besoin. Par cet outil, nous proposons une méthode pour raffiner les estimations des paramètres afin de simuler des données plus précises.
96

Evaluating zeta functions of Abelian number fields at negative integers

Attwell-Duval, Dylan January 2010 (has links)
In this thesis we study abelian number fields and in particular their zeta functions at the negative integers. The prototypical examples of abelian number fields are the oft-studied cyclotomic fields, a topic upon which many texts have been almost exclusively dedicated to (see for example \cite{washington1997introduction} or nearly any text on global class field theory). \\ We begin by building up our understanding of the characters of finite abelian groups and how they are related to Dedekind zeta functions. We then use tools from number theory such as the Kronecker-Weber theorem and Bernoulli numbers to find a simple algorithm for determining the values of these zeta functions at negative integers. We conclude the thesis by comparing the relative complexity of our method to two alternative methods that use completely different theoretical tools to attack the more general problem of non-abelian number fields. / Dans cette thèse nous étudions les corps de nombres abéliens et en particulier leurs fonctions zeta aux entiers négatifs. Les exemples-type de corps de nombres abéliens sont les corps cyclotomiques que l'on étudie fréquemment, un sujet auquel de nombreux textes ont été entièrement consacrés (voir par exemple \cite{washington1997introduction} ou presque tous les textes sur la théorie globale des corps de classes). / Nous commençons par construire notre comprehension des caractères des groupes abéliens finis et de ce qui les lie aux fonctions zeta de Dedekind. Ensuite nous utilisons des outils de théorie des nombres comme le théorème de Kronecker-Weber et les nombres de Bernouilli pour trouver un algorithme simple pour déterminer les valeurs de ces fonctions zeta aux entiers négatifs. Nous concluons la thèse en comparant la complexité relative de notre méthode a deux méthodes alternatives qui utilisent des outils théoriques complètement différents pour attaquer le problème plus général des corps de nombres non-abéliens.
97

Towards a p-adic theory of harmonic weak Maass forms

Candelori, Luca January 2010 (has links)
Harmonic weak Maass forms are instances of real analytic modular forms which have recently found applications in several areas of mathematics. They provide a framework for Ramanujan's theory of mock modular forms , arise naturally in investigating the surjectivity of Borcherds' singular theta lift , and their Fourier coefficients seem to encode interesting arithmetic information. Until now, harmonic weak Maass forms have been studied solely as complex analytic objects. The aim of this thesis is to recast their definition in more conceptual, algebro-geometric terms, and to lay the foundations of a p-adic theory of harmonic weak Maass forms analogous to the theory of p-adic modular forms formulated by Katz in the classical context. This thesis only discusses harmonic weak Maass forms of weight 0. The treatment of more general integral weights requires no essentially new idea but involves further notational complexities which may obscure the main features of our approach. / Les formes de Maass faiblement harmoniques ont recemment trouve des applications dans plusieurs domaines des mathématiques. Elles fournissent un cadre pour la théorie des ``Mock Modular forms" de Ramanujan, surviennent naturellement dans l'etude de la surjectivite de la correspondance de Borcherds et leurs coefficients de Fourier semblent donner des informations arithmetiques sur les derivees des tordues quadratiques de certaines fonctions L associees aux formes modulaires. Jusqu'a present, les formes de Maass faiblement harmoniques ont uniquement ete etudiees en tant qu' objets analytiques sur les nombres complexes. L'objectif de cette these est de les decrire dans un cadre algebrique plus conceptuel, et de jeter les bases d'une theorie p-adique des formes de Maass faiblement harmoniques, par analogie avec le point de vue geometrique de Katz sur la theorie des formes modulaires p-adiques. Cette these traite uniquement du cas des formes de Maass faiblement harmoniques de poids 0.
98

Dynamical systems based non equilibrium statistical mechanics for Markov chains

Prévost, Mireille January 2011 (has links)
We introduce an abstract framework concerning non-equilibrium statistical mechanics in the specific context of Markov chains. This framework encompasses both the Evans-Searles and the Gallavotti-Cohen fluctuation theorems. To support and expand on these concepts, several results are proven, among which a central limit theorem and a large deviation principle. The interest for Markov chains is twofold. First, they model a great variety of physical systems. Secondly, their simplicity allows for an easy introduction to an otherwise complicated field encompassing the statistical mechanics of Anosov and Axiom A diffeomorphisms. We give two examples relating the present framework to physical cases modelled by Markov chains. One of these concerns chemical reactions and links key concepts from the framework to their well known physical counterpart. / Nous présentons une structure mathématique de la physique statistique hors d'équilibre appliquée aux chaînes de Markov. Cette structure comprend les théoremes de fluctuations de Evans-Searles et de Gallavotti-Cohen. Afin de supporter et enrichir ces concepts, plusieurs résultats sont presentés, notamment un théoreme central limite ainsi qu'un principe de grandes deviations. Il y a deux principales raisons d'étudier les chaînes de Markov. Premièrement, elles modélisent une grand variété de systèmes physiques. Ensuite, leur simplicité permet une introduction facile a un vaste champ comprenant la mécanique statistique des difféomorphismes d'Anosovet Axiome A. Nous présentons deux examples permettant de lier la structure présente a des cas physiques modelés par des chaînes de Markov. Un de ces examples concerne les réactions chimiques et établit un lien entre les concepts clés de la structure et leurs homologues physiques bien connus.
99

Galaxy cutsets and graph connectivity: variations on a theme

Sonnerat, Nicolas January 2011 (has links)
In this thesis we consider cutsets in graphs which can be expressed as unionsof sets each of which is spanned by a tree of diameter at most d-1 for someinteger d ≥ 1; we call these sets galaxy cutsets. These galaxycutsets generalise both star-cutsets and vertex-cuts, and serve as simple models for virus-like attacks on or cascading failures in networks,the crucial property being that neighbours of affected vertices may alsofail and cease to function. We approach our subject from four different pointsof view. We begin by exploring the connection between galaxiesand a suitable type of flow, proving a min-max result for planargraphs. Then, after tackling the fundamental issue of recognising whethera given graph is susceptible to virus-like attacks, i.e. whether it contains a galaxy cutset, we consider a weighted version of the flows that are dualto the galaxies, and prove Θ(log n) lower and upper approximability boundsfor the problem of finding a maximum such flow. We then investigate the problem of network design, that is tosay, the problem of constructing low cost spanning subgraphs of a given graph which are not vulnerable to cascading failures. Finally, weembark on a detailed analysis of the structure of star-cutsets in planar graphs and useour results to derive a polynomial time algorithm for the problem ofneutralising every star-cutset by protecting edges. / Dans cette thèse, nous considerons des séparateurs dans les graphes qui peuvent être éxprimés sous forme d'une union d'ensembles de sommets dans laquelle chaque ensemble est couvert par un arbre de diamètre d-1 pour un nombre entier d ≥ 1; nous appellons ces séparateurs des galaxies séparatrices. Les galaxies séparatrices genéralisent les étoiles séparatrices et les séparateurs formés par un ensemble de sommets, et elles servent comme simple modèle pour des attaques de virus sur ou des cascades de défaillances dans un réseau, la proprieté distinguante étant que les voisins des sommets qui sont affectés peuvent eux aussi faillir. Nous approchons le sujet depuis quatre points de vue différents. Nous commençons par explorer le lien entre les galaxies et un type de flot approprié, et nous prouvons un résultat de type min max pour les graphes planaires. Ensuite, après avoir résolu la question fondamentale de reconnaitre si un graphe donné est sensible aux attaques de virus, c'est-à-dire s'il contient une galaxie séparatrice, nous introduisons des capacités dans les flots correspondants aux galaxies, et demontrons une borne d'approximabilité inférieure et supérieure de Θ(log n)pour le problème de trouver un flot maximum. Ensuite, nous enquêtons sur le problème de dessein de réseau, c'est-à-dire le problème de construire des sous-graphes couvrants peu coûteux qui ne sont pas sensibles aux cascades de défaillances. Finalement, nous nous lançons dans une analyse détaillée de la structure des étoiles séparatrices dans les graphes planaires, et nous utilisons nos résultats pour développer un algorithme polynomial qui résout le problème de neutraliser toutes les étoiles séparatrices en protégeant des arêtes.
100

Simultaneous fixed and random effects selection in finite mixtures of linear mixed-effects models

Du, Ye Ting January 2012 (has links)
Linear mixed-effects (LME) models are frequently used for modeling longitudinal data. One complicating factor in the analysis of such data is that samples are sometimes obtained from a population with significant underlying heterogeneity, which would be hard to capture by a single LME model. Such problems may be addressed by a finite mixture of linear mixed-effects (FMLME) models, which segments the population into subpopulations and models each subpopulation by a distinct LME model. Often in the initial stage of a study, a large number of predictors are introduced. However, their associations to the response variable vary from one component to another of the FMLME model. To enhance predictability and to obtain a parsimonious model, it is of great practical interest to identify the important effects, both fixed and random, in the model. Traditional variable selection techniques such as stepwise deletion and subset selection are computationally expensive even with modest numbers of covariates and components in the mixture model. In this thesis, we introduce a penalized likelihood approach and propose a nested EM algorithm for efficient numerical computations. The estimators are shown to possess consistency and sparsity properties and asymptotic normality. We illustrate the performance of the proposed method through simulations and a real data example. / Les modèles linéaires mixtes (LME) sont fréquemment employés pour la modélisation des données longitudinales. Un facteur qui complique l'analyse de ce genre de données est que les échantillons sont parfois obtenus à partir d'une population d'importante hétérogénéité sous-jacente, qui serait difficile à capter par un seul LME. De tels problèmes peuvent être surmontés par un mélange fini de modèles linéaires mixtes (FMLME), qui segmente la population en sous-populations et modélise chacune de ces dernières par un LME distinct. Souvent, un grand nombre de variables explicatives sont introduites dans la phase initiale d'une étude. Cependant, leurs associations à la variable réponse varient d'un composant à l'autre du modèle FMLME. Afin d'améliorer la prévisibilité et de recueillir un modèle parcimonieux, il est d'un grand intérêt pratique d'identifier les effets importants, tant fixes qu'aléatoires, dans le modèle. Les techniques conventionnelles de sélection de variables telles que la suppression progressive et la sélection de sous-ensembles sont informatiquement chères, même lorsque le nombre de composants et de covariables est relativement modeste. La présente thèse introduit une approche basée sur la vraisemblance pénalisée et propose un algorithme EM imbriqué qui est computationnellement efficace. On démontre aussi que les estimateurs possèdent des propriétés telles que la cohérence, la parcimonie et la normalité asymptotique. On illustre la performance de la méthode proposée au moyen de simulations et d'une application sur un vrai jeu de données.

Page generated in 0.1447 seconds