• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 77
  • 11
  • 2
  • Tagged with
  • 211
  • 91
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 25
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

IRM de diffusion du Q-space : Acquisition et pré-traitements

Caruyer, Emmanuel 18 July 2012 (has links) (PDF)
Le but général de cette thèse est de proposer de nouvelles méthodes d'acquisition et de traitement du signal en imagerie par résonance magnétique (IRM) de diffusion, dans le but d'ouvrir de nouvelles perspectives dans la reconstruction de la structure de la matière blanche \emph{in vivo}. L'IRM de diffusion est une technique d'imagerie non invasive qui mesure localement, en chaque voxel, la diffusion des molécules d'eau. Le déplacement de ces dernières étant contraint par la présence de tissus, le fait de pouvoir caractériser la diffusion des molécules d'eau apporte des informations sur la nature, l'orientation, la microstructure des tissus biologiques sous-jacents. La forte anisotropie observée dans la matière blanche fait de l'IRM de diffusion un outil privilégié pour l'étude de la connectivité cérébrale. Une des premières techniques d'acquisition et de reconstruction, appelée IRM du tenseur de diffusion, est maintenant utilisée de manière routinière en clinique, pour le diagnostique de certaines maladies neurologiques, ou encore en planification préopératoire. L'IRM du tenseur de diffusion repose sur un modèle de diffusion gaussien cependant, qui est limité quand il s'agit de décrire des configurations de tissus complexes à l'intérieur d'un voxel, par exemple quand plusieurs faisceaux de fibres se croisent. Dès lors, on a cherché ces dernières années à développer des techniques qui ne reposent pas sur un modèle a priori, afin de décrire de manière plus précise le déplacement des molécules d'eau, et dépasser les limitations du modèle tensoriel. La plupart de ces techniques, dites à haute résolution angulaire, sollicitent un temps d'acquisition généralement long, et mettent en jeu des problèmes de reconstruction non triviaux. Dans la première partie de cette thèse, nous décrivons la structure microscopique des tissus de la matière blanche du cerveau, et présentons la physique de formation des images en IRM de diffusion. Nous faisons un état de l'art des méthodes de reconstruction, et des techniques d'acquisition proposées à ce jour. En ce qui concerne les méthodes de reconstruction, nous faisons la distinction suivant qu'elles soient basées sur un modèle ou non. La première contribution de cette thèse est liée à la reconstruction paramétrique du signal de diffusion dans une base de fonctions continues. Cette contribution fait suite à une méthode proposée récemment, appelée transformée de Fourier sphérique, et y apporte une modification pour une reconstruction continue. Nous réduisons de façon significative la dimension de la base, tout en décrivant aussi bien le signal de diffusion. Nous donnons également l'expression de l'opérateur de régularisation de Laplace en fonction des coefficients dans cette base, afin de limiter l'impact du bruit sur la reconstruction. La seconde contribution est également liée à la reconstruction du signal de diffusion, et à la fonction de distribution d'orientation, dans un contexte d'application clinique. Nous proposons une méthode de reconstruction en temps réel basée sur le filtre de Kalman pour la probabilité marginale de diffusion angulaire. Nous développons un algorithme pour détecter les mouvements du patient, de façon précise et avec une grande sensibilité, et ce sans surcoût, comparé aux systèmes utilisant une camera et des algorithmes de vision robotique. Les deux dernières contributions présentées dans cette thèse sont liées aux techniques d'acquisition en IRM de diffusion, en particulier pour l'élaboration de schémas d'acquisition sur une ou plusieurs sphères dans l'espace de Fourier. Nous présentons d'abord une méthode géométrique pour placer des points dans l'espace de Fourier sur plusieurs sphères, en optimisant la couverture angulaire sur chacune des sphères, mais également de façon globale. Puis nous cherchons à établir un lien entre le schéma d'acquisition et la base de fonctions utilisée pour la reconstruction, et nous proposons en particulier une méthode pour élaborer un protocole d'acquisition qui permette de minimiser le nombre de conditionnement, pour la reconstruction dans la base des harmoniques sphériques, et dans la base de Fourier sphérique modifiée, proposée dans cette thèse. En conclusion de cette étude sur l'acquisition, nous pensons que l'élaboration du schéma d'échantillonnage doit être motivée à la fois pour répondre aux contraintes physiques du scanner, et par le choix de la base dans laquelle le signal sera reconstruit. Ces nouveaux schémas d'échantillonnage sont disponibles au téléchargement sur mon site internet.
182

Identification Expérimentale de Sources vibratoires par Résolution du problème Inverse modélisé par un opérateur Eléments Finis local

Renzi, Cédric 16 December 2011 (has links) (PDF)
L'objet de cette thèse est l'extension aux structures complexes de la méthode de Résolution Inverse Fenêtrée Filtrée (RIFF). L'idée principale se base sur le modèle Eléments Finis local et libre d'une partie de la structure étudiée. Tout d'abord, la méthode a été développée dans le cas des poutres. Les mesures de vibrations sont alors injectées dans le modèle Eléments Finis de la partie de poutre analysée. Les rotations sont estimées à l'aide de mesures de déplacements supplémentaires et des fonctions de forme sur le support élémentaire. La méthode étant sensible vis-à-vis des incertitudes de mesures, une régularisation a dû être développée. Celle-ci repose sur une double inversion de l'opérateur où une régularisation de type Tikhonov est appliquée dans la seconde inversion. L'optimisation de cette régularisation est réalisée par le principe de la courbe en L. A cause des effets de lissage induits par la régularisation, les moments ne peuvent être reconstruits mais ils apparaissent comme des "doublets" de forces. Ceci nous a conduit à résoudre le problème en supposant que seules des forces agissent sur la poutre. Enfin, une étude des effets de la troncature du domaine a été menée dans le but de s'affranchir des efforts de couplage apparaissant aux limites de la zone étudiée. Le cas des plaques a été considéré ensuite afin d'augmenter progressivement la complexité des modèles utilisés. L'approche Eléments Finis a permis d'intégrer à la méthode des techniques de condensation dynamique et de réduction par la méthode de Craig-Bampton. Le nombre de degrés de liberté est trop élevé pour permettre une estimation des rotations par mesures de déplacements supplémentaires, la condensation dynamique est employée afin de les supprimer dans le modèle théorique. Par ailleurs, la régularisation induisant une perte de résolution spatiale à cause de son effet de lissage, une procédure de déconvolution spatiale basée sur l'algorithme de Richardson- Lucy a été ajoutée en post traitement. Enfin, une application de la méthode à la détection de défauts a été envisagée de même que l'application de la méthode à l'identification des efforts appliqués par une pompe à huile sur un banc d'essais industriel. Le travail s'est donc appuyé sur des développements numériques et la méthode a été validée expérimentalement en laboratoire et en contexte industriel. Les résultats de la thèse fournissent un outil prédictif des efforts injectés par des sources de vibrations raccordées à une structure en s'appuyant sur un modèle Eléments Finis local et des mesures vibratoires, le tout en régime harmonique.
183

Problèmes industriels de grande dimension en mécanique numérique du contact : performance, fiabilité et robustesse

Kudawoo, Ayaovi Dzifa 22 November 2012 (has links) (PDF)
Ce travail de thèse concerne la mécanique numérique du contact entre solides déformables. Il s'agit de contribuer à l'amélioration de la performance, de la fiabilité et de la robustesse des algorithmes et des modèles numériques utilisés dans les codes éléments finis en particulier Code_Aster qui est un code libre développé par Électricité De France (EDF) pour ses besoins en ingénierie. L'objectif final est de traiter les problèmes industriels de grande dimension avec un temps de calcul optimisé. Pour parvenir à ces objectifs, les algorithmes et formulations doivent prendre en compte les difficultés liées à la mécanique non régulière à cause des lois de Signorini-Coulomb ainsi que la gestion des non linéarités dûes aux grandes déformations et aux comportements des matériaux étudiés. Le premier axe de ce travail est dédié à une meilleure compréhension de la formulation dite de " Lagrangien stabilisé " initialement implémentée dans le code. Il a été démontré l'équivalence entre cette formulation et la formulation bien connue de " Lagrangien augmenté ". Les caractéristiques mathématiques liées aux opérateurs discrets ont été précisées et une écriture énergétique globale a été trouvée. Une réflexion a été mise en oeuvre en vue de renforcer de manière faible la condition cinématique sur la normale dans la zone de contact via les techniques d'optimisation sans contraintes. La nouvelle formulation est dite de " Lagrangien augmenté non standard ". Trois nouvelles stratégies basées sur le Lagrangien augmenté ont été implémentées. Il s'agit de la méthode de Newton généralisée : c'est une méthode d'optimisation qui permet de résoudre toutes les non linéarités du problème en une seule boucle d'itérations. La méthode de Newton partielle est une méthode hybride entre la méthode historique du code appelée méthode de point fixe et la méthode de Newton généralisée. Enfin, on a mis en place une façon originale de traiter le cyclage : ce phénomène apparaît souvent au cours de la résolution du problème et il entraîne la perte de convergence des algorithmes. La stratégie nouvelle permet d'améliorer la robustesse des algorithmes.
184

Codage vidéo hybride basé contenu par analyse/synthèse de données

Moinard, Matthieu 01 July 2011 (has links) (PDF)
Les travaux de cette thèse sont destinés à la conception d'outils algorithmiques permettant d'accroître le facteur de compression des standards actuels de codage vidéo, tels que H.264/AVC. Pour cela, une étude préalable portant sur un ensemble de méthodes de restauration d'image a permis d'identifier et d'inspecter deux axes de recherche distincts. La première partie est fondée sur des méthodes d'analyse et de synthèse de texture. Ce type de procédé, aussi connu sous le nom de template matching, est couramment utilisé dans un contexte de codage vidéo pour prédire une portion de la texture de l'image suite à l'analyse de son voisinage. Nous avons cherché à améliorer le modèle de prédiction en prenant en compte les spécificités d'un codeur vidéo de type H.264/AVC. En particulier, la fonction débit/distorsion utilisée dans les schémas de codage vidéo normatifs se base sur une mesure objective de la qualité. Ce mécanisme est par nature incompatible avec le concept de synthèse de texture, dont l'efficacité est habituellement mesurée selon des critères purement perceptuels. Cette contradiction a motivé le travail de notre première contribution. La deuxième partie des travaux de cette thèse s'inspire des méthodes de régularisation d'image basée sur la minimisation de la variation totale. Des méthodes ont été élaborées originellement dans le but d'améliorer la qualité d'une image en fonction de la connaissance a priori des dégradations qu'elle a subies. Nous nous sommes basés sur ces travaux pour concevoir un modèle de prédiction des coefficients transformés obtenus à partir d'une image naturelle, qui a été intégré dans un schéma de codage vidéo conventionnel.
185

Equations aux différences partielles définies sur des graphes pour le traitement d'images et de données

Ta, Vinh Thong 02 December 2009 (has links) (PDF)
Cette thèse s'intéresse aux traitements d'images et de données non uniformes en utilisant le formalisme des équations aux différences partielles définies sur des graphes pondérés. Nous exploitons ce formalisme afin de transcrire et d'adapter des modèles définis dans le domaine continu vers des formulations discrètes. Les modèles continus considérés dans ce manuscrit proviennent du domaine du traitement des images et sont définis comme des modèles variationnels ou des approches basées sur des équations aux dérivées partielles. Nous nous sommes intéressés à des modèles de régularisation, à la morphologie mathématique et à l'équation eikonale. Afin de transcrire ces modèles définis dans le domaine continu vers des formulations discrètes, nous avons introduit une large famille de nouveaux opérateurs différentiels discrets définis sur des graphes pondérés: différences pondérées, gradients discrets, p-Laplacien. Ces opérateurs permettent de redéfinir les modèles continus considérés dans un cadre discret mais également de proposer un formalisme général permettant de considérer de nombreux problèmes liées aux traitements des images et, plus généralement, de données arbitraires. A partir des modèles discrets de régularisation, de morphologie mathématique et de l'équation eikonale, nous montrons dans ce manuscrit les potentialités de notre formalisme pour des applications telles que le filtrage, la simplification, la segmentation, le regroupement et la classification d'images et de données. Notre formalisme unifie également les traitements locaux et non locaux basés sur des patchs. Nous avons généralisé l'utilisation de ce type de configuration dans les problématiques considérées et montré la supériorité de ces schémas dans le contexte du traitement des images. Notre formalisme est basé sur des graphes pondérés. Cela nous permet d'étendre les modèles définis dans le domaine continu aux traitements de n'importe quel type de donnée pouvant être représenté par cette structure (par exemple des images, des collections d'images, des nuages de points, des variétés, des bases de données, etc.). Finalement, ces travaux de thèse permettent d'envisager de nombreuses pistes de recherche tant dans le domaine du traitement des images que dans des domaines tels que celui de l'apprentissage ou de la fouille de données.
186

Reconstruction, Détection et Régularisation de Données Discrètes

Bougleux, Sébastien 05 December 2007 (has links) (PDF)
Cette thèse traite des problématiques de structuration et de traitement de données discrètes organisées ou non. Elle se décompose en deux parties. La première partie concerne la structuration de données représentées par des ensembles de points du plan ou de l'espace Euclidien. Dans ce contexte, nous considérons les problèmes de la reconstruction polygonale de courbes planaires et de la détection de formes géométriques 3D connues. Ces deux problèmes sont traités par des techniques de géométrie algorithmique et combinatoire, basées sur le diagramme de Voronoï et la triangulation de Delaunay. Dans le cadre de la reconstruction de courbes planaires, nous proposons une famille hiérarchique de sous-graphes du graphe de Gabriel, que nous appelons les beta-CRUSTS Locaux. Nous étudions les propriétés de cette famille, qui nous permettent de concevoir un algorithme de reconstruction des courbes simples. Ensuite, nous proposons une méthode de détection de formes géométriques connues à partir d'un ensemble de points 3D (nous nous restreignons au cas des structures linéaires et planaires), plongés dans un milieu bruité ou non. Cette méthode est basée sur une extension des alpha-formes, générées à partir de boules ellipsoïdales. Dans une deuxième partie, nous traitons le problème de la régularisation de données par des méthodes variationnelles discrètes sur graphes pondérés, de topologie quelconque. Pour cela, nous proposons une large famille de fonctionnelles discrètes, basées sur les normes L2 et Lp du gradient. Ceci conduit à des processus de diffusion linéaire ou non-linéaire sur graphes. Ce formalisme étend un certain nombre de modèles variationnels, que nous appliquons à des problèmes de restauration, de lissage, et de simplification d'images et de maillages.
187

Etude d'estimations d'erreur a posteriori et d'adaptivité basée sur des critères d'arrêt et raffinement de maillages pour des problèmes d'écoulements multiphasiques et thermiques. Application aux procédés de récupération assistée d'huile

Yousef, Soleiman 10 December 2013 (has links) (PDF)
L'objectif de cette thèse est l'analyse d'erreur a posteriori et la proposition de stratégies d'adaptivité basées sur des critères d'arrêt et de raffinement local de maillage. Nous traitons une classe d'équations paraboliques dégénér ées multidimensionnelles modélisant des problèmes importants pour l'industrie. Au chapitre 1 nous considérons le problème de Stefan instationaire a deux phases qui modélise un processus de changement de phase régi par la loi de Fourier. Nous régularisons la relation entre l'enthalpie et la température et nous discrétisons le problème par la méthode d'Euler implicite en temps et un schéma numérique conforme en espace tel que les élément finis conformes, ou les volumes finis centrés aux sommets du maillage. Nous démontrons une borne supérieure de la norme duale du résidu, de l'erreur sur l'enthalpie dans L2(0; T;H-1) et de l'erreur sur la température dans L2(0; T;L2), par des estimateurs d'erreur entièrement calculables. Ces estimateurs comprennent : un estimateur associé à l'erreur de régularisation, un estimateur associé à l'erreur d'une méthode de linéarisation (par exemple, la méthode de Newton), un estimateur associé à l'erreur en temps et un estimateur associé à l'erreur du schéma en espace. Par conséquent, ces estimateurs permettent de formuler un algorithme adaptatif de résolution où les erreurs associées peuvent être équilibrées. Nous proposons également une stratégie de raffinement local de maillages. En fin, nous prouvons l'efficacité de nos estimations d'erreur a posteriori. Un test numérique illustre l'efficacité de nos estimateurs et la performance de l'algorithme adaptatif. En particulier, des indices d'efficacité proches de la valeur optimale de 1 sont obtenus. Au chapitre 2 nous développons des estimations d'erreur a posteriori pour l'écoulement de Darcy polyphasique et isothermique, décrit par un système couplé d'équations aux dérivées partielles non linéaires et d'équations algébriques non linéaires. Ce système est discrétisé en espace par une méthode de volume finis centrés par maille et la méthode d'Euler implicite en temps. Nous etablissons une borne supérieure d'une norme duale du résidu augmentée d'un terme qui tiens compte de la non-conformité des volumes finis par des estimateurs d'erreur a posteriori entièrement calculables. Dans ce chapitre, nous nous concentrons sur la formulation d'un critère d'arrêt de l'algorithme de linéarisation du problème discrète (tel que la méthode de Newton) avec un critère d'arrêt du solveur algébrique de résolution du système linéarité (par exemple la méthode GMRes), de sort que les contributions des estimateurs d'erreur correspondant n'affectent plus la somme globale des estimateurs d'erreur de manière significative. Nous appliquons notre analyse sur des exemples réalistes d'ingénierie de réservoir pour confirmer qu'en général notre ajustement des critères d'arrêt apporte une économie significative (jusqu'au un ordre de magnitude en termes du nombre total des itérations du solveur algébrique), déjà sur des maillages fixes, et ceci sans perte notable de précision. Au chapitre 3 nous complétons le modèle décrit au chapitre 2 en considérant une condition non-isothermique pour l'écoulement a fin de traiter le modèle général d'écoulement polyphasique thermique dans les milieux poreux. Pour ce problème, nous développons des estimateurs d'erreur analogues a ceux du chapitre 2 pour lesquels nous établissons une borne supérieure d'erreur entièrement calculable, pour une norme duale du résidu complétée par un terme d'évaluation de la non-conformité. Nous montrons ensuite comment estimer séparément chaque composante d'erreur, ce qui nous permet d'ajuster les critères d'arrêt et d'équilibrer les contributions des différents estimateurs d'erreur : erreur d'approximation en temps, erreur d'approximation en espace, erreur de linéarisation et erreur du solveur algébrique. Ce chapitre se termine par une application des estimateurs au modèle d'huile morte. La preuve de l'efficacité de notre estimation a postiriori est egalement fournie. Finalement, au chapitre 4 nous considérons les procédés de récupération assistée d'huile. Plus précisément, nous étudions une technique de récupération thermique d'huile de type huile morte par injection de vapeur destinée a augmenter la mobilité des hydrocarbures. Dans ce chapitre, nous appliquons l'analyse a posteriori des chapitres 2 et 3, nous proposons une formule de quadrature pour simplifier l'évaluation des estimateurs, nous proposons un algorithme adaptatif de raffinement de maillages en espace et en temps basé sur les estimateurs et nous illustrons pas des essais numériques sur des exemples réalistes la performance de cette stratégie de raffinement. Notamment, des gains significatifs sont réalisés en terme du nombre de mailles nécessaires pour la simulation sur des exemples en dimension trois.
188

Méthodes mathématiques d'analyse d'image pour les études de population transversales et longitudinales.

Fiot, Jean-Baptiste 17 September 2013 (has links) (PDF)
En médecine, les analyses de population à grande échelle ont pour but d'obtenir des informations statistiques pour mieux comprendre des maladies, identifier leurs facteurs de risque, développer des traitements préventifs et curatifs et améliorer la qualité de vie des patients. Dans cette thèse, nous présentons d'abord le contexte médical de la maladie d'Alzheimer, rappelons certains concepts d'apprentissage statistique et difficultés rencontrées lors de l'application en imagerie médicale. Dans la deuxième partie, nous nous intéressons aux analyses transversales, c-a-d ayant un seul point temporel. Nous présentons une méthode efficace basée sur les séparateurs à vaste marge (SVM) permettant de classifier des lésions dans la matière blanche. Ensuite, nous étudions les techniques d'apprentissage de variétés pour l'analyse de formes et d'images, et présentons deux extensions des Laplacian eigenmaps améliorant la représentation de patients en faible dimension grâce à la combinaison de données d'imagerie et cliniques. Dans la troisième partie, nous nous intéressons aux analyses longitudinales, c-a-d entre plusieurs points temporels. Nous quantifions les déformations des hippocampes de patients via le modèle des larges déformations par difféomorphismes pour classifier les évolutions de la maladie. Nous introduisons de nouvelles stratégies et des régularisations spatiales pour la classification et l'identification de marqueurs biologiques.
189

Essays in econometrics and energy markets

Benatia, David 05 1900 (has links)
No description available.
190

La fabrique d'un quartier informel : de la marginalisation à l'intégration urbaine. Cherarba : une véritable polarité économique, puissant facteur d'intégration / The factory of an informal district : of the marginalization in the integration urban. Cherarba : a real polarity economic, important factor of integration

Benalia, Fateh 11 December 2015 (has links)
Les grandes villes du Sud s’étalent dans leurs périphéries, en grande partie non réglementaires, notamment en conséquence de l’incapacité de l’Etat à procurer un logement à l’ensemble de la population. Cette thèse restitue l’analyse d’un de ces quartiers irréguliers aux marges de la ville : le quartier de Cherarba dans le Sud-est de l’agglomération algéroise, à la porte de la Mitidja. La réflexion porte sur les pratiques et les représentations des populations et la façon dont elles pèsent sur les dynamiques de dé-marginalisation et/ou d’intégration socio-spatiale de ces quartiers populaires à la ville. Les activités économiques générées par les populations s’avèrent un vecteur déterminant permettant à ces quartiers irréguliers périphériques de s’intégrer dans l’ensemble de la dynamique socio-spatiale de la ville. Trois axes structurent la recherche ; nous verrons d’abord comment les habitants "ordinaires" sont des acteurs à part-entière dans la production de l’espace urbain, en agissant au cœur même de ces transformations, à travers des stratégies résidentielles et économiques. Ensuite le regard se focalisera sur l'étude des interdépendances des territoires marginalisés avec la ville. L'examen des pratiques des populations devra permettre ici de mettre en évidence les modes d'effacement des frontières, d'imbrication et d'interactions à l'ensemble de la ville, particulièrement par le biais des dynamiques économiques. Le cœur de la réflexion concernera l'émergence d'une véritable polarité urbaine, formidable vecteur d'intégration. Enfin, l'analyse portera sur les pratiques et les représentations des populations, en mettant en évidence les formes de sociabilités et de solidarités, les ressources et les réseaux sociaux au sein et en dehors du quartier et les significations sociales qu'il recouvre. Le dévoilement de ces processus de recomposition urbaine bouscule les a priori entretenus sur ces périphéries stigmatisées et considérées comme des non-villes et conduit à une nouvelle approche de la réalité urbaine, modifiant les perceptions sociales négatives qui affectent cet « urbanisme d'émanation populaire ». / The big cities of the South spread out in their peripheries, largely not statutory, in particular as a result of the incapacity of the State to get an accommodation to the whole population. This thesis restores the analysis of one of these irregular districts to the margins of the city: the district of Cherarba in the Southeast of the urban area from Algiers, in the door of Mitidja. The reflection concerns the practices and the representations of the populations and the way they weigh on the dynamics of die-marginalization and/or sociospatial integration of these popular districts in the city. Economic activities generated by the populations turn out a determining vector allowing these peripheral irregular districts to become integrated in the whole of the socio-spatial dynamics of the city. Three axes structure the search; we shall see at first how the "ordinary" inhabitants are actors to whole part in the production of the urban space, by acting in the heart of these transformations, through residential and economic strategies. Then the look will focus on the study of the interdependences of territories marginalized with the city. The examination of the practices of the populations will have to make it possible here to highlight the modes of obliteration of the borders, overlap and interactions to the town suit, particularly by the means as of economic dynamics. The heart of the reflection will relate to the emergence of a true urban polarity, formidable vector of integration. Finally, the analysis will concern the practices and the representations of the populations, by highlighting the forms of sociability and solidarities, the resources and the social networks in the breast and except the district and the social meanings which it recovers. The unveiling of these processes of urban reorganization pushes aside prejudice maintained on these peripheries stigmatized and considered non-cities and leads to a new approach of the urban reality, modifying the negative social perceptions which affect this « town planning of popular emanation ».

Page generated in 0.0871 seconds