• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 37
  • 8
  • Tagged with
  • 153
  • 74
  • 36
  • 33
  • 26
  • 21
  • 20
  • 18
  • 18
  • 18
  • 16
  • 15
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Common factors in stochastic volatility of asset returns and new developments of the generalized method of moments

Dovonon, Prosper January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
42

Observation empirique et modélisation des discontinuités du réseau autoroutier : vers l’estimation des capacités / Empiric observation and modelling of the highway network discontinuities : toward capacity estimation

Marczak, Florian 27 October 2014 (has links)
La congestion routière est le résultat d’un excès de la demande sur l’offre. Sur le réseau autoroutier en particulier, la congestion apparaît soit en section courante, soit au niveau des bretelles d’accès, des bretelles de sortie ou des zones d’entrecroisement qui sont généralement appelées les discontinuités ou nœuds du réseau routier. Les objectif de la thèse sont (i) d'apporter des éclairages sur la phénoménologie du trafic au droit des discontinuités du réseau autoroutier et (ii) de proposer des modèles macroscopiques pour en prédire le fonctionnement et évaluer des stratégies d'optimisation de l'écoulement du flux. Contrairement aux modèles existants, les modèles proposés dans cette thèse prennent en compte les phénomènes physiques du trafic en intégrant explicitement les comportements individuels des usagers. Après avoir présenté les outils méthodologiques et expérimentaux mobilisés, la thèse propose une analyse empirique des changements de voie à partir de données individuelles de trajectoires. Sur la base des résultats empiriques, la thèse présente ensuite les modèles analytiques développés qui sont utilisés dans une dernière partie pour proposer des stratégies d'optimisation de l'écoulement du flux du trafic. / The congestion occurs when the demand is higher than the supply. On the highway network, the congestion forms on the diverges, the merges and the weaving section which are generally named the discontinuities of the network. The thesis aims at (i) investigating the traffic phenomenology at the discontinuities of the highway network and (ii) developing macroscopic traffic flow model to forecast their operation and evaluate traffic regulations. Those models will explicitly integrate the drivers' microscopic behaviors. The thesis presents first the methodological and experimental tools. Then, it proposes an empirical analysis of the lane-changes at two merges and one weaving sections. The thesis describes the analytical models while it ends with operational applications of those models.
43

Etude de consistance et applications du modèle Poisson-gamma : modélisation d'une dynamique de recrutement multicentrique / Concistency study and applications of Poisson-gamma model : modelisation of a multicentric recruitment dynamic

Minois, Nathan 07 November 2016 (has links)
Un essai clinique est une recherche biomédicale pratiquée sur l'Homme dont l'objectif est la consolidation et le perfectionnement des connaissances biologiques ou médicales. Le nombre de sujets nécessaire (NSN) est le nombre minimal de patients à inclure dans l'essai afin d'assurer au test statistique une puissance donnée pour observer un effet donné. Pour ce faire plusieurs centres investigateurs sont sollicités. La période entre l'ouverture du premier centre investigateur et le recrutement du dernier patient est appelée période de recrutement que l'on souhaite modéliser. Les premières modélisations remontent à presque 50 ans avec les travaux de Lee, Williford et al. et Morgan avec l'idée déjà d'une modélisation de la dynamique de recrutement par des processus de Poisson. Un problème émerge lors de recrutement multicentriques du fait du manque de caractérisation de l'ensemble des sources de variabilité agissant sur les différentes dynamiques de recrutement. Le modèle dit Poisson-gamma basé sur un processus de Poisson dont les intensités par centre sont considérées comme un échantillon de loi gamma permet l'étude de variabilité. Ce modèle est au coeur de notre projet. Différents objectifs ont motivés la réalisation de cette thèse. Le premier questionnement porte sur la validité de ces modèles. Elle est établie de façon asymptotique et une étude par simulation permet de donner des informations précises sur la validité du modèle. Par la suite l'analyse de bases de données réelles a permis de constater que lors de certaines phases de recrutement, des pauses dans le recrutement sont observables. Une question se pose alors naturellement : comment et faut-il prendre en compte ces informations dans le modèle de dynamique de recrutement ? Il résulte d'études par simulation que la prise en compte de ces données n'améliore pas les performances prédictives du modèle lorsque les sources d'interruptions sont aléatoires mais dont la loi est inchangée au cours du temps. Une autre problématique observable sur les données et inhérente au problème de recrutement de patients est celle des dites sorties d'étude. Une technique Bayésienne empirique analogue à celle du processus de recrutement peut être introduite pour modéliser les sorties d'étude. Ces deux modélisations se couplent très bien et permettent d'estimer la durée de recrutement ainsi que la probabilité de sorties d'étude en se basant sur les données de recrutement d'une étude intermédiaire, donnant des prédictions concernant le processus de randomisation. La dynamique de recrutement possède de multiples facteurs autre que le temps de recrutement. Ces aspects fondamentaux couplés au modèle Poisson-gamma fournissent des indicateurs pertinents pour le suivi des essais. Ainsi est-il possible d'ajuster le nombre de centres au cours de l'essai en fonction d'objectifs prédéfinis, de modéliser et prévoir la chaîne d'approvisionnement nécessaire lors de l'essai et de prévoir l'effet de la randomisation des patients par région sur la puissance du test de l'essai. Il permet également d'avoir un suivi des patients après randomisation permettant ainsi de prévoir un ajustement du nombre de patients en cas de pertes significative d'effectif, ou d'abandonner un essai si les résultats préliminaires sont trop faibles par rapport aux risques connus et observés. La problématique de la dynamique de recrutement peut être couplée avec la dynamique de l'étude en elle-même quand celle-ci est longitudinale. L'indépendance des deux processus permet une estimation facile des différents paramètres. Le résultat est un modèle global du parcours du patient dans l'essai. Deux exemples clés de telles situations sont les données de survie - la modélisation permet alors d'estimer la durée d'un essai quand le critère d'arrêt est le nombre d'événements observés et les modèles de Markov - la modélisation permet alors d'estimer le nombre de patients dans un certain état au bout d'un certain temps. / A clinical trial is a biomedical research which aims to consolidate and improve the biological and medical knowledges. The number of patients required il the minimal number of patients to include in the trial in order to insure a given statistical power of a predefined test. The constitution of this patients' database is one of the fundamental issues of a clinical trial. To do so several investigation centres are opened. The duration between the first opening of a centre and the last recruitment of the needed number of patients is called the recruitemtn duration that we aim to model. The fisrt model goes back 50 years ago with the work of Lee, Williford et al. and Morgan with the idea to model the recruitment dynamic using Poisson processes. One problem emerge, that is the lack of caracterisation of the variabliity of recruitment between centers that is mixed with the mean of the recruitment rates. The most effective model is called the Poisson-gamma model which is based on Poisson processes with random rates (Cox process) with gamma distribution. This model is at the very heart of this project. Different objectives have motivated the realisation of this thesis. First of all the validity of the Poisson-gamma model is established asymptotically. A simulation study that we made permits to give precise informations on the model validity in specific cases (function of the number of centers, the recruitement duration and the mean rates). By studying database, one can observe that there can be breaks during the recruitment dynamic. A question that arise is : How and must we take into account this phenomenon for the prediction of the recruitment duration. The study made tends to show that it is not necessary to take them into account when they are random but their law is stable in time. It also veered around to measure the impact of these breaks on the estimations of the model, that do not impact its validity under some stability hypothesis. An other issue inherent to a patient recruitment dynamic is the phenomenon of screening failure. An empirical Bayesian technique analogue to the one of the recruitment process is used to model the screening failure issue. This hierarchical Bayesian model permit to estimate the duartion of recruitment with screening failure consideration as weel as the probability to drop out from the study using the data at some interim time of analysis, giving predictions on the randomisation dynamic. The recruitment dynamic can be studied in many different ways than just the duration of recruitment. These fundamental aspects coupled with the Poisson-gamma model give relevant indicators for the study follow-up. Multiples applications in this sense are computed. It is therefore possible to adjust the number of centers according to predefined objectives, to model the drug's supply chain per region or center and to predict the effect of the randomisation on the power of the test's study. It also allows to model the folow-up period of the patients by means of transversal or longitudinal methods, that can serve to adjust the number of patients if too many quit during the foloww-up period, or to stop the study if dangerous side effects or no effects are observed on interim data. The problematic of the recruitment dynamic can also be coupled with the dynamic of the study itself when it is longitudinal. The independance between these two processes allows easy estimations of the different parameters. The result is a global model of the patient pathway in the trail. Two key examples of such situations are survival data - the model permit to estimate the duration of the trail when the stopping criterion is the number of events observed, and the Markov model - the model permit to estimate the number of patients in a certain state for a given duartion of analysis.
44

Modélisation par théorie élastique et potentiels empiriques des boucles de dislocation interstitielles dans l’UO2 pour la dynamique d’amas / Empirical potential and elasticity theory modelling of interstitial dislocation loops in UO2 for cluster dynamics application

Le Prioux Halna du Fretay, Arno 06 February 2017 (has links)
Durant l'irradiation en pile, la microstructure de l'UO2 évolue et provoque une dégradation du matériau et une dérive de ses propriétés d'usage. Les modèles cinétiques utilisés pour décrire cette évolution tels que la Dynamique d'Amas (code CRESCENDO) traitent les éléments micro-structuraux principaux que sont les cavités et les boucles de dislocation interstitielles, et présentent une description relativement grossière de la thermodynamique des boucles. Pour répondre à cette insuffisance, ce travail de thèse a conduit à l'élaboration d'un modèle thermodynamique de boucles de dislocation interstitielles sur la base de calculs en potentiels empiriques.Le modèle tient compte de deux types de boucles de dislocation interstitielles occupant différents domaines de tailles:Type 1:Les boucles apparentées aux partielles de Frank des matériaux C.F.C. stables aux petites tailles.Type 2: Les boucles parfaites de vecteur de Burgers (a/2)(110) stables aux grandes tailles.L'expression analytique utilisée pour décrire les boucles de dislocation interstitielles est la formule générale d'énergie élastique des boucles de dislocation circulaires à laquelle des paramètres ont été ajoutés afin de tenir compte de l'énergie de cœur dont les effets sont importants aux petites tailles. Les paramètres ont été déterminés par les calculs en potentiels empiriques des énergies de formation des boucles de dislocation prismatiques orthogonales. L'effet de la réorientation des plans d'habitat boucles de dislocation parfaites est pris en compte par interpolation. La typologie des boucles proposées par le modèle est ainsi compatible avec les observations MET. / During irradiation in reactor, the microstructure of UO2 changes and deteriorates, causing modifications of its physical and mechanical properties. The kinetic models used to describe these changes such as cluster dynamics (CRESCENDO calculation code) consider the main microstructural elements that are cavities and interstitial dislocation loops, and provide a rather rough description of the loop thermodynamics. In order to tackle this issue, this work has led to the development of a thermodynamic model of interstitial dislocation loops based on empirical potential calculations.The model considers two types of interstitial dislocation loops on two different size domains:Type 1: Dislocation loops similar to Frank partials in F.C.C. materials which are stable in the smaller size domain.Type 2: Perfect dislocation loops of Burgers vector (a/2)(110) stable in the larger size domain.The analytical formula used to compute the interstitial dislocation loop formation energies is the one for circular loops which has been modified in order to take into account the effects of the dislocation core, which are significant at smaller sizes. The parameters have been determined by empirical potential calculations of the formation energies of prismatic pure edge dislocation loops. The effect of the habit plane reorientation on the formation energies of perfect dislocation loops has been taken into account by a simple interpolation method. All the different types of loops seen during TEM observations are thus accounted for by the model.
45

Modélisation de nanoalliages à base de platine : Co-Pt, système emblématique de l'ordre, et Pt-Ag, système hybride entre ordre et démixtion / A theoretical study of Pt-based nanoalloys : Co-Pt, typical ordering system, and Pt-Ag, hybrid system between ordering and demixion

Front, Alexis 20 December 2018 (has links)
Cette thèse est consacrée à l'étude de deux systèmes, à la fois proches et différents par leur comportement : Co-Pt, système emblématique de l'ordre chimique, et Pt-Ag, système hybride présentant à la fois un ordre chimique et une tendance à la démixtion, ainsi qu'une forte tendance à la ségrégation. Afin de répondre à ces diverses questions, nous adoptons une approche semi-empirique à travers un potentiel à $N$-corps, permettant les relaxations atomiques, dans l'approximation du second moment de la densité d'états (SMA), couplé à des simulations Monte Carlo dans différents ensembles. Des agrégats de différentes tailles (allant de 1000 à 10000 atomes) et de différentes morphologies (octaèdre tronqué, décaèdre, ou icosaèdre) sont analysés en terme de composition chimique sur les différents sites inéquivalents (sommet, arête, facettes (100) et (111) et coeur) puis comparés aux systèmes de référence (surfaces, volume) sur toute la gamme de concentration. Pour le système Co-Pt, nous observons des structures ordonnées similaires à celles du volume pour le coeur et similaires à celles des surfaces pour les facettes. L'impact de la phase bidimensionnelle (√3×√3)R30◦ propre à la surface, est d'autant plus important sur l'ordre chimique au coeur que la nanoparticule est de petite taille. Pour le système Pt-Ag, nous observons une importante ségrégation de l'Ag en surface, ainsi qu'un enrichissement de Pt en sous-surface, et la stabilisation de la phase ordonnée L1$_{1}$ au coeur. Cette structure peut apparaître en un seul variant ou bien en adoptant tous les variants possibles, conduisant ainsi à une structure en pelures d'oignon. / Due to the correlation between atomic arrangement and physical properties, ordered nanoalloys are particularly interesting in the field of catalysis, magnetism, or optics. By reducing the system size, from alloy to nanoalloy, a lot of questions arise: Is chemical ordering conserved? What is the morphology of nanoalloys? What is the properties evolution as a size function? Is there a coupling between segregation and core ordering? This thesis is dedicated to two systems: Co-Pt, a typical example of ordering and Pt-Ag, hybrid system between ordering and demixion. To answer these questions, we performed Monte Carlo simulations in different ensembles with semi-empirical many-body potential within the Second Moment Approximation (SMA) of the density of states which allows atomic relaxations. Nanoparticles of different sizes (from 1000 to 10000 atoms) and shapes (truncated octahedra, decahedra, or icosahedra) are analyzed considering chemical composition on each site (vertex, edge, (111) and (100) facets and core) and compared to reference systems (surfaces and bulk) on the whole range of composition. For Co-Pt, we get ordered structures similar to the bulk ones and similar to surfaces for facets. The bidimensional phase (√3×√3)R30◦, purely due to surface effect, impacts core ordering, even more for small clusters. For Pt-Ag, we get a strong Ag segregation on surface coupled with a Pt sub-surface enrichment, and a stable L1$_{1}$ phase in the core. This ordered structure may appear with a single variant or with multiple variants, leading to an onion-like structure.
46

Segmentation et classification des signaux non-stationnaires : application au traitement des sons cardiaque et à l'aide au diagnostic

Moukadem, Ali 16 December 2011 (has links) (PDF)
Cette thèse dans le domaine du traitement des signaux non-stationnaires, appliqué aux bruits du cœur mesurés avec un stéthoscope numérique, vise à concevoir un outil automatisé et " intelligent ", permettant aux médecins de disposer d'une source d'information supplémentaire à celle du stéthoscope traditionnel. Une première étape dans l'analyse des signaux du cœur, consiste à localiser le premier et le deuxième son cardiaque (S1 et S2) afin de le segmenter en quatre parties : S1, systole, S2 et diastole. Plusieurs méthodes de localisation des sons cardiaques existent déjà dans la littérature. Une étude comparative entre les méthodes les plus pertinentes est réalisée et deux nouvelles méthodes basées sur la transformation temps-fréquence de Stockwell sont proposées. La première méthode, nommée SRBF, utilise des descripteurs issus du domaine temps-fréquence comme vecteur d'entré au réseau de neurones RBF qui génère l'enveloppe d'amplitude du signal cardiaque, la deuxième méthode, nommée SSE, calcule l'énergie de Shannon du spectre local obtenu par la transformée en S. Ensuite, une phase de détection des extrémités (onset, ending) est nécessaire. Une méthode d'extraction des signaux S1 et S2, basée sur la transformée en S optimisée, est discutée et comparée avec les différentes approches qui existent dans la littérature. Concernant la classification des signaux cardiaques, les méthodes décrites dans la littérature pour classifier S1 et S2, se basent sur des critères temporels (durée de systole et diastole) qui ne seront plus valables dans plusieurs cas pathologiques comme par exemple la tachycardie sévère. Un nouveau descripteur issu du domaine temps-fréquence est évalué et validé pour discriminer S1 de S2. Ensuite, une nouvelle méthode de génération des attributs, basée sur la décomposition modale empirique (EMD) est proposée.Des descripteurs non-linéaires sont également testés, dans le but de classifier des sons cardiaques normaux et sons pathologiques en présence des souffles systoliques. Des outils de traitement et de reconnaissance des signaux non-stationnaires basés sur des caractéristiques morphologique, temps-fréquences et non linéaire du signal, ont été explorés au cours de ce projet de thèse afin de proposer un module d'aide au diagnostic, qui ne nécessite pas d'information à priori sur le sujet traité, robuste vis à vis du bruit et applicable dans des conditions cliniques.
47

Étude théorique et expérimentale du boulonnage à ancrage réparti sous sollicitations axiales

Blanco Martin, Laura 29 March 2012 (has links) (PDF)
Le boulonnage et le câblage à ancrage réparti sont deux techniques de renforcement du terrain couramment utilisées dans l'industrie minière et dans le génie civil. Au fil de cette recherche, on s'intéresse à la réponse de ces éléments sous des sollicitations axiales de traction, en régime statique. Dans ces conditions, l'expérience montre que la rupture se produit le plus fréquemment à l'interface barre-scellement via un processus de décohésion qui commence dès que la force sur la barre atteint une valeur limite. L'objectif est de mieux comprendre le comportement de cette interface, avant et après rupture. Premièrement, on revoit l'état de l'art afin de comprendre le travail effectué et les aspects non maîtrisés à ce jour. Deuxièmement, on décrit des outils analytiques qui permettent de comprendre la réponse d'un boulon ou d'un câble à ancrage réparti soumis à une force de traction. Ensuite, on présente les études expérimentales menées en laboratoire et in situ. Des essais d'arrachement ont été effectués pour déterminer les principaux facteurs qui régissent la réponse de l'interface. Finalement, on analyse les résultats des essais effectués en laboratoire sur les boulons. Après l'obtention des variables nécessaires, on propose un modèle semi-empirique d'interface, qui devra être validé par des essais complémentaires. Cette perspective et d'autres améliorations sont également présentées.
48

Contribution à l'étude du processus empirique de copule

Zari, Tarek 03 May 2010 (has links) (PDF)
Cette thèse traite des propriétés statistiques fines des processus empiriques de copules, éventuellement lissées, dans une optique d'approximations fortes. Lorsque les marges sont connues, nous avons établi une approximation forte du processus empirique bivarié de copules sur des pavés de [0,1]^2. Nous considérons ensuite un cadre plus général où la dimension d de la variable est supérieure à 2 et les marginales sont continues mais inconnues. Nous fournissons, par deux techniques différentes, des approximations fortes du processus empirique de copule par une suite de ponts Browniens attachés à paramètres, ou par une suite de processus de Kiefer attachés à (d+1)-paramètres. Ceci nous permettra d'obtenir des résultats asymptotiques pour le processus empirique de densité de copule, pour les statistiques de rang multivariées et pour le processus empirique de copule lissée ainsi que l'ordre de grandeur du module d'oscillation et la L.L.I du processus empirique de copule. Nous abordons le problème du test à deux échantillons; l'hypothèse nulle consiste en l'identité des deux copules sous-jacentes aux deux échantillons, simultanément avec l'hypothèse d'indépendance des marges. Deux hypothèses alternatives sont considérées, selon qu'on rejette la propriété d'indépendance. Nous proposons plusieurs statistiques de tests basées, essentiellement, sur les normes infinie ou L^2 de la différence entre les deux processus de copules empiriques sous-jacents (statistiques de type Kolmogorov-Smirnov et Cramer Von Mises). Sous l'hypothèse nulle, des bornes et vitesses de convergence presque sûres vers des processus gaussiens sont obtenues.
49

Puissance asymptotique des tests non paramétriques d'ajustement du type Cramer-Von Mises

Boukili Makhoukhi, Mohammed 21 June 2007 (has links) (PDF)
L'analyse statistique, prise au sens large, est centrée sur la description, et, lorsque les circonstances le permettent, la modélisation quantitative des phénomènes observés, pour peu que ces derniers possèdent une part d'incertitude, et donc, qu'ils soient soumis aux lois du hasard. Dans cette activité scientifique, le plus grand soin doit être apporté à la validation des hypothèses de modélisation, nécessaires à l'interprétation des résultats. Ce principe général s'applique d'ailleurs à toutes les sciences expérimentales, et tout aussi bien aux sciences humaines (en psychologie), qu'en économie, et dans bien d'autres disciplines. Une théorie scientifique repose, au départ, sur des hypothèses de modélisation, qui sont ensuite soumises à l'épreuve de l'expérimentation. Celle-ci est basée sur le recueil de données, dont il est nécessaire de décider la nature, compatible ou non, avec les modèles choisis, aboutissant, soit au rejet, soit à l'acceptation, de ces derniers. La statistique a développé, dans ce but, une technologie basée sur les tests d'hypothèses, dont nous nous abstiendrons de discuter dans mon mémoire de thèse les bases et les fondements. Dans cette thèse, nous avons abordé l'étude de certains tests d'ajustement (dits, en Anglais, tests of fit"), de nature paramétrique et non paramétrique. Les aspects techniques de ces tests d'hypothèses ont été abordés, dans le contexte particulier de notre étude pour les tests de type Cramer-Von Mises. On ne manquera pas de citer l'approche initialement utilisée pour les tests de type Kolmogorov-Smirnov. Enfin, l'ouvrage de Nikitin était une référence de base particulièrement adaptée à la nature de notre recherche. L'objectif principal de la thèse est d'évaluer la puissance asymptotique de certains tests d'ajustement, relevant de la catégorie générale des tests de Cramer-Von Mises. Nous avons évalué cette puissance, relativement à des suites convenables d'alternatives locales. Notre méthode utilise les développements de Karhunen-Loève d'un pont brownien pondéré. Notre travail avait pour objet secondaire de compléter des recherches récentes de P.Deheuvels et G.Martynov, qui ont donné l'expression des fonctions propres et valeurs propres des développements de Karhunen-Loève de certains ponts browniens pondérés à l'aide de fonctions de Bessel. Dans le premier temps, nous avons exposé les fondements des développements de Karhunen-Loève [D.K.L], ainsi que les applications qui en découlent en probabilités et statistiques. Le deuxième paragraphe de cette thèse a été consacré à un exposé de la composante de la théorie des tests d'hypothèses adaptée à la suite de notre mémoire. Dans ce même paragraphe, nous montrons l'intérêt qu'apporte une connaissance explicite des composantes d'un développement de Karhunen-Loève, en vue de l'évaluation de la puissance de tests d'ajustement basés sur les statistiques de type Cramer-Von Mises qui sont liées à ce D.K.L.
50

Processus empiriques, estimation non paramétrique et données censurées.

Viallon, Vivian 01 December 2006 (has links) (PDF)
La théorie des processus empiriques joue un rôle central en statistique, puisqu'elle concerne l'ensemble des résultats limites généraux se rapportant aux échantillons aléatoires. En particulier, des lois uniformes du logarithme ont permis d'aborder de manière systématique la convergence en norme sup des estimateurs à noyau. Dans cette thèse, nous obtenons premièrement des lois fonctionnelles uniformes du logarithme pour les incréments du processus des quantiles normé, qui permettent d'établir des propriétés nouvelles des estimateurs basés sur les k-plus proches voisins. Le même type de résultat est ensuite obtenu pour les incréments du processus empirique de Kaplan-Meier, conduisant naturellement à des lois du logarithme uniformes pour des estimateurs de la densité et du taux de mortalité en présence de censure à droite. Dans le cas de la régression multivariée, des lois analogues sont obtenues pour des estimateurs à noyau, notamment dans le cas censuré. Enfin, nous développons un estimateur non paramétrique de la régression sous l'hypothèse du modèle additif dans le cas de censure à droite, permettant de se défaire du fléau de la dimension. Cet estimateur repose essentiellement sur la méthode d'intégration marginale.

Page generated in 0.2968 seconds