• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 27
  • 5
  • Tagged with
  • 97
  • 51
  • 25
  • 23
  • 21
  • 18
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

MULTIPLES MÉTAMODÈLES POUR L'APPROXIMATION ET L'OPTIMISATION DE FONCTIONS NUMÉRIQUES MULTIVARIABLES

Ginsbourger, David 26 March 2009 (has links) (PDF)
Cette thèse s'inscrit dans la thématique de planification d'expériences numériques. Elle porte plus précisément sur l'optimisation de simulateurs numériques coûteux à évaluer, par des stratégies d'échantillonnage basées sur des représentations simplifiées du simulateur, les metamodèles. Une fois choisi un metamodèle parmi les familles existantes (polynômes, splines, modèles additifs, Krigeage, réseaux de neurones), on estime les paramètres du metamodèle. On dispose alors d'une représentation simplifiée du simulateur, que l'on pourra faire évoluer en fonction des informations apportées par de nouvelles évaluations. Etant donné qu'il est difficile de savoir a priori quel sera le type de metamodèle capable de guider au mieux un algorithme d'optimisation, une des motivations de ce travail est d'examiner comment une construction ad hoc de la structure du metamodèle, voire la prise en compte de plusieurs metamodèles, peuvent améliorer les méthodes d'approximation et les stratégies d'optimisation globale actuellement employées. Cela soulève à la fois des questions mathématiques et statistiques de sélection de modèle (quelles familles de métamodèles considérer ? Comment estimer les termes de covariance et/ou de tendance d'un métamodèle de Krigeage, et selon quels critères les évaluer ? Comment prendre en compte certaines formes d'instationnarité dans la covariance de Krigeage que sont les symétries et la présence de bruits d'observation hétérogènes ?), de combinaison de modèles (Une fois un ensemble de metamodèles choisis, comment agrège-ton les pseudo-informations qu'ils nous apportent ?), et de définition de critères décisionnels pour guider les évaluations au sein d'algorithmes d'optimisation (Comment paralléliser EGO ou des procédures similaires d'exploration sur base de Krigeage ?).
42

Estimation de paramètres et planification d'expériences adaptée aux problèmes de cinétique - Application à la dépollution des fumées en sortie des moteurs

Canaud, Matthieu 14 September 2011 (has links) (PDF)
Les modèles physico-chimiques destinés à représenter la réalité expérimentale peuvent se révéler inadéquats. C'est le cas du piège à oxyde d'azote, utilisé comme support applicatif de notre thèse, qui est un système catalytique traitant les émissions polluantes du moteur Diesel. Les sorties sont des courbes de concentrations des polluants, qui sont des données fonctionnelles, dépendant de concentrations initiales scalaires.L'objectif initial de cette thèse est de proposer des plans d'expériences ayant un sens pour l'utilisateur. Cependant les plans d'expérience s'appuyant sur des modèles, l'essentiel du travail a conduit à proposer une représentation statistique tenant compte des connaissances des experts, et qui permette de construire ce plan.Trois axes de recherches ont été explorés. Nous avons d'abord considéré une modélisation non fonctionnelle avec le recours à la théorie du krigeage. Puis, nous avons pris en compte la dimension fonctionnelle des réponses, avec l'application et l'extension des modèles à coefficients variables. Enfin en repartant du modèle initial, nous avons fait dépendre les paramètres cinétiques des entrées (scalaires) à l'aide d'une représentation non paramétrique.Afin de comparer les méthodes, il a été nécessaire de mener une campagne expérimentale, et nous proposons une démarche de plan exploratoire, basée sur l'entropie maximale.
43

Estimation paramétrique de la fonction de covariance dans le modèle de Krigeage par processus Gaussiens. Application à la quantification des incertitudes en simulation numérique

Bachoc, François 03 October 2013 (has links) (PDF)
L'estimation paramétrique de la fonction de covariance d'un processus Gaussien est étudiée, dans le cadre du modèle de Krigeage. Les estimateurs par Maximum de Vraisemblance et Validation Croisée sont considérés. Le cas correctement spécifié, dans lequel la fonction de covariance du processus Gaussien appartient à l'ensemble paramétrique de fonctions de covariance, est d'abord traité dans un cadre asymptotique par expansion. Le plan d'expériences considéré est une grille régulière multidimensionnelle perturbée aléatoirement. Un résultat de consistance et de normalité asymptotique est montré pour les deux estimateurs. Il est ensuite mis en évidence que des amplitudes de perturbation importantes sont toujours préférables pour l'estimation par Maximum de Vraisemblance. Le cas incorrectement spécifié, dans lequel l'ensemble paramétrique utilisé pour l'estimation ne contient pas la fonction de covariance du processus Gaussien, est ensuite étudié. Il est montré que la Validation Croisée est alors plus robuste que le Maximum de Vraisemblance. Enfin, deux applications du modèle de Krigeage par processus Gaussiens sont effectuées sur des données industrielles. Pour un problème de validation du modèle de frottement pariétal du code de thermohydraulique FLICA 4, en présence de résultats expérimentaux, il est montré que la modélisation par processus Gaussiens de l'erreur de modèle du code FLICA 4 permet d'améliorer considérablement ses prédictions. Enfin, pour un problème de métamodélisation du code de thermomécanique GERMINAL, l'intérêt du modèle de Krigeage par processus Gaussiens, par rapport à des méthodes par réseaux de neurones, est montré
44

Application of Design-of-Experiment Methods and Surrogate Models in Electromagnetic Nondestructive Evaluation

Bilicz, Sandor 30 May 2011 (has links) (PDF)
Le contrôle non destructif électromagnétique (CNDE) est appliqué dans des domaines variés pour l'exploration de défauts cachés affectant des structures. De façon générale, le principe peut se poser en ces termes : un objet inconnu perturbe un milieu hôte donné et illuminé par un signal électromagnétique connu, et la réponse est mesurée sur un ou plusieurs récepteurs de positions connues. Cette réponse contient des informations sur les paramètres électromagnétiques et géométriques des objets recherchés et toute la difficulté du problème traité ici consiste à extraire ces informations du signal obtenu. Plus connu sous le nom de " problèmes inverses ", ces travaux s'appuient sur une résolution appropriée des équations de Maxwell. Au " problème inverse " est souvent associé le " problème direct " complémentaire, qui consiste à déterminer le champ électromagnétique perturbé connaissant l'ensemble des paramètres géométriques et électromagnétiques de la configuration, défaut inclus. En pratique, cela est effectué via une modélisation mathématique et des méthodes numériques permettant la résolution numérique de tels problèmes. Les simulateurs correspondants sont capables de fournir une grande précision sur les résultats mais à un coût numérique important. Sachant que la résolution d'un problème inverse exige souvent un grand nombre de résolution de problèmes directs successifs, cela rend l'inversion très exigeante en termes de temps de calcul et de ressources informatiques. Pour surmonter ces challenges, les " modèles de substitution " qui imitent le modèle exact peuvent être une solution alternative intéressante. Une manière de construire de tels modèles de substitution est d'effectuer un certain nombre de simulations exactes et puis d'approximer le modèle en se basant sur les données obtenues. Le choix des simulations (" prototypes ") est normalement contrôlé par une stratégie tirée des outils de méthodes de " plans d'expérience numérique ". Dans cette thèse, l'utilisation des techniques de modélisation de substitution et de plans d'expérience numérique dans le cadre d'applications en CNDE est examinée. Trois approches indépendantes sont présentées en détail : une méthode d'inversion basée sur l'optimisation d'une fonction objectif et deux approches plus générales pour construire des modèles de substitution en utilisant des échantillonnages adaptatifs. Les approches proposées dans le cadre de cette thèse sont appliquées sur des exemples en CNDE par courants de Foucault
45

Evaluation par krigeage de la fiabilité des structures sollicitées en fatigue

Echard, Benjamin 25 September 2012 (has links) (PDF)
Les méthodes traditionnelles de dimensionnement à la fatigue s'appuient sur l'utilisation de coefficients dits de "sécurité" dans le but d'assurer l'intégrité de la structure en couvrant les incertitudes inhérentes à la fatigue. Ces méthodes de l'ingénieur ont le mérite d'être simples d'application et de donner des solutions heureusement satisfaisantes du point de vue de la sécurité. Toutefois, elles ne permettent pas au concepteur de connaître la véritable marge de sécurité de la structure et l'influence des différents paramètres de conception sur la fiabilité. Les approches probabilistes sont envisagées dans cette thèse afin d'acquérir ces informations essentielles pour un dimensionnement optimal de la structure vis-à-vis de la fatigue. Une approche générale pour l'analyse probabiliste en fatigue est proposée dans ce manuscrit. Elle s'appuie sur la modélisation des incertitudes (chargement, propriétés du matériau, géométrie, courbe de fatigue) et vise à quantifier le niveau de fiabilité de la structure étudiée pour un scénario de défaillance en fatigue. Les méthodes classiques de fiabilité nécessitent un nombre important d'évaluations du modèle mécanique de la structure et ne sont donc pas envisageables lorsque le calcul du modèle est coûteux en temps. Une famille de méthodes appelée AK-RM (Active learning and Kriging-based Reliability Methods) est précisément proposée dans ces travaux de thèse afin de résoudre le problème de fiabilité avec un minimum d'évaluations du modèle mécanique. L'approche générale est appliquée à deux cas-tests fournis par SNECMA dans le cadre du projet ANR APPRoFi.
46

Assessment by kriging of the reliability of structures subjected to fatigue stress / Evaluation par krigeage de la fiabilité des structures sollicitées en fatigue

Echard, Benjamin 25 September 2012 (has links)
Les méthodes traditionnelles de dimensionnement à la fatigue s’appuient sur l’utilisation de coefficients dits de “sécurité” dans le but d’assurer l’intégrité de la structure en couvrant les incertitudes inhérentes à la fatigue. Ces méthodes de l’ingénieur ont le mérite d’être simples d’application et de donner des solutions heureusement satisfaisantes du point de vue de la sécurité. Toutefois, elles ne permettent pas au concepteur de connaître la véritable marge de sécurité de la structure et l’influence des différents paramètres de conception sur la fiabilité. Les approches probabilistes sont envisagées dans cette thèse afin d’acquérir ces informations essentielles pour un dimensionnement optimal de la structure vis-à-vis de la fatigue. Une approche générale pour l’analyse probabiliste en fatigue est proposée dans ce manuscrit. Elle s’appuie sur la modélisation des incertitudes (chargement, propriétés du matériau, géométrie, courbe de fatigue) et vise à quantifier le niveau de fiabilité de la structure étudiée pour un scénario de défaillance en fatigue. Les méthodes classiques de fiabilité nécessitent un nombre important d’évaluations du modèle mécanique de la structure et ne sont donc pas envisageables lorsque le calcul du modèle est coûteux en temps. Une famille de méthodes appelée AK-RM (Active learning and Kriging-based Reliability Methods) est précisément proposée dans ces travaux de thèse afin de résoudre le problème de fiabilité avec un minimum d’évaluations du modèle mécanique. L’approche générale est appliquée à deux cas-tests fournis par SNECMA dans le cadre du projet ANR APPRoFi. / Traditional procedures for designing structures against fatigue are grounded upon the use of so-called safety factors in an attempt to ensure structural integrity while masking the uncertainties inherent to fatigue. These engineering methods are simple to use and fortunately, they give satisfactory solutions with regard to safety. However, they do not provide the designer with the structure’s safety margin as well as the influence of each design parameter on reliability. Probabilistic approaches are considered in this thesis in order to acquire this information, which is essential for an optimal design against fatigue. A general approach for probabilistic analysis in fatigue is proposed in this manuscript. It relies on the modelling of the uncertainties (load, material properties, geometry, and fatigue curve), and aims at assessing the reliability level of the studied structure in the case of a fatigue failure scenario. Classical reliability methods require a large number of calls to the mechanical model of the structure and are thus not applicable when the model evaluation is time-demanding. A family of methods named AK-RM (Active learning and Kriging-based Reliability methods) is proposed in this research work in order to solve the reliability problem with a minimum number of mechanical model evaluations. The general approach is applied to two case studies submitted by SNECMA in the frame of the ANR project APPRoFi.
47

Development of an Integrated Approach for PHM - Prognostics and Health Management : Application to a Turbofan Fuel System / Développement d’une approche intégrée de PHM – Prognostics and Health Management : Application au Circuit Carburant d’un Turboréacteur

Lamoureux, Benjamin 30 June 2014 (has links)
Pour les constructeurs de moteurs d'avions comme Snecma, la disponibilité est un des enjeux clés de l'avenir. En effet, la limitation des retards et annulations de vols ainsi que la réduction de la fréquence et de la durée des opérations de maintenance pourraient entraîner des économies importantes. Pour accroître la disponibilité, l'outil le plus utilisé actuellement est le "prognostics and health management" (PHM). La première contribution de la thèse est de proposer des cadres terminologique et fonctionnel pour le développement du PHM adapté aux spécificités des moteurs d'avions. Par la suite, une approche intégrée basée sur le nouveau modèle en V3 est formalisée. La seconde contribution est un processus basé sur les modèles pour le développement de la partie embarquée chargée de l'extraction des indicateurs de santé. Elle est basée sur l'analyse de sensibilité, la régression par vecteurs supports et des nouveaux indicateurs de performances. Puisque ce processus est réalisé avant l'entrée en service, les données stochastiques sont obtenues par propagation d'incertitudes. Pour surmonter les temps de calcul liés aux évaluations du modèle, des métamodèles sont utilisés. Plus particulièrement, la troisième contribution de la thèse est une technique originale combinant régression par vecteurs supports et Krigeage. L'approche globale est finalement testée sur le système carburant d'un moteur d'avion. Les résultats sont prometteurs, tant au niveau industriel pour les précieuses informations qu'elle fournit sur la qualité du jeu d'indicateurs de santé qu'au niveau académique pour la précision apportée par la nouvelle approche du Krigeage-SVR. / For manufacturers of aircraft engines such as Snecma, the increase of systems availability is one of the key challenges of the future. Indeed, the limitation of delays and cancellations and the reduction of maintenance operations frequency and duration could lead to important costs savings. To improve availability, the most proven tool is currently prognostics and health management (PHM). The first contribution of this thesis work is to propose complete terminological and functional frameworks for the development of PHM adapted to the specific application on aircraft engines. Subsequently, an integrated development approach based on the original V3-model is formalized. The second contribution is an original model-based process for the development of the embedded extraction of health indicators, based on sensitivity analysis, support vector regression and original performance indicators for the validation. Since it is aimed at being performed before the entry into service, the stochastic data are issued from Monte-Carlo based uncertainties propagation. In order to overcome the prohibitive computation time of the model evaluations, surrogate models are used. More particularly, the third contribution of this thesis work is an original technique combining support vector regression with Kriging. The whole approach is finally tested on an aircraft engine fuel system. The results are promising, both at the industrial level with the release of valuable information about the quality of the health indicators set and at the academic level with the proven accuracy of the novel SVR-Kriging approach.
48

Modélisation probabiliste de la dépendance spatiale et temporelle appliquée à l’étude du péril sécheresse dans le cadre du régime français d’indemnisation des catastrophes naturelles / Probabilistic modeling of spatial and temporal dependence applied to the study of drought hazard within the French compensation system for natural disasters

Ardon, Jean 27 March 2014 (has links)
Les travaux présentés s’inscrivent dans le cadre des études menées par la Caisse centrale de réassurance (CCR) pour modéliser les événements catastrophes naturelles et en particulier le péril sécheresse. La sécheresse est le nom utilisé couramment pour désigner les dommages aux bâtiments causés par le phénomène de retrait-gonflement des argiles. Les recherches effectuées sont en lien avec un modèle d’estimation du coût annuel d’un événement sécheresse conçu en interne à CCR. Celui-ci croise des données assurantielles et des données d’humidité du sol pour estimer le coût d’un événement survenu. CCR souhaite faire évoluer ce modèle vers une version probabiliste qui consiste à concevoir un générateur d’événements fictifs, non nécessairement survenus mais possibles d’un point de vue physique. Ce générateur doit permettre notamment d’estimer la distribution de probabilité du coût d’une sécheresse potentielle. Afin de concevoir un générateur d’événements fictifs pour le modèle sécheresse de CCR, nous avons étudié puis mis en oeuvre différents outils mathématiques permettant de modéliser la dépendance de variables aléatoires spatio-temporelles. La méthode choisie consiste à étudier et modéliser séparément la dépendance spatiale et la dépendance temporelle. Pour modéliser la dépendance temporelle, les modèles retenus sont des modèles classiques utilisés pour les séries temporelles. Nous décomposons les séries temporelles des observations en identifiant tendance et saisonnalité puis en ajustant un modèle autorégressif aux résidus. Pour modéliser la dépendance spatiale, notre choix s’est porté sur le krigeage et sur la théorie des copules. Les copules permettent de générer du bruit spatial pour ensuite lui appliquer les modèles de séries temporelles univariées. Le krigeage nous sert à interpoler spatialement les données générées dans le cas où une sélection de sites a été effectuée pour diminuer la dimension spatiale du problème. L’exploitation du générateur, pour laquelle nous donnons quelques résultats, va servir à CCR pour ses politiques de provisionnement et de tarification, et s’intègre également dans l’estimation de la charge deux-centennale liée aux catastrophes naturelles dans le cadre de la directive européenne Solvabilité II. / This work was performed at CCR, a French reinsurance company, within the studies that are conducted to model natural disasters, and particularly the drought hazard. Drought is the word used to denote the shrink-swell clay phenomenon that damages individual houses. These researches are related to an internal model that estimates the annual cost of a drought. This model crosses insurance data and soil moisture data to evaluate the cost of a occured event. CCR wants this model to be improved towards a probabilistic version by conceiving a generator of drought events that have to be realistic, although they are fictive. This generator will allow the estimation of the probability distribution of the drought cost. In order to conceive a fictive event generator for CCR’s drought model, mathematical tools have been used to model dependence between spatio-temporal random variables. The chosen method consists of studying and modeling separately spatial dependence and temporal dependence. Temporal dependence is modelized with time series models such as classical decomposition and autoregressive processes. Spatial dependence is modelized with kriging and copula theory. Spatial random noise is generated with a copula and then time series models are applied to rebuild original process. Kriging is used when generated data need to be interpolated, for example when data are generated only on a subset of the main grid. Results of the generator exploitation are given. They will be used by CCR for provisionning and pricing. These results will also be used for the estimation of the two-hundred-year cost of natural disasters within the new European Solvency II Directive.
49

Modélisation statistique de l'exposition humaine aux ondes radiofréquences / Statistical modeling of the Human exposure to radio-frequency waves

Kersaudy, Pierric 12 November 2015 (has links)
L'objectif de cette thèse est de traiter la problématique de la caractérisation et du traitement de la variabilité de l'exposition humaine aux ondes radio à travers l'utilisation de la dosimétrie numérique. En effet, si les progrès dans le domaine du calcul hautes performances ont contribué à significativement réduire les temps de simulation pour l'évaluation de l'exposition humaine, ce calcul du débit d'absorption spécifique reste un processus coûteux en temps. Avec la grande variabilité des usages, cette contrainte fait que la prise en compte de l'influence de paramètres d'entrée aléatoires sur l'exposition ne peut se faire par des méthodes classiques telles que les simulations de Monte Carlo. Nous proposons dans ces travaux deux approches pour répondre à cette problématique. La première s'appuie sur l'utilisation et l'hybridation de méthodes de construction de modèles de substitution afin d'étudier l'influence globale des paramètres d'entrée. La deuxième vise à l'évaluation efficace et parcimonieuse des quantiles à 95% des distributions de sortie et s'appuie sur le développement d'une méthode de planification d'expériences adaptative et orientée couplée à la construction de modèles de substitution. Les méthodes proposées dans ce manuscrit sont comparées et testées sur des exemples analytiques et ensuite appliquées à des problèmes concrets issus de la dosimétrie numérique / The purpose of this thesis is to deal with the problem of the management and the characterization of the variability of the human exposure to radio frequency waves through the use of the numerical dosimetry. As a matter of fact, if the recent advances in the high performance computing domain led to reduce significantly the simulation duration for the evaluation of the human exposure, this computation of the specific absorption rate remains a time-consuming process. With the variability of the usage, this constraint does not allow the analysis of the influence of random input parameters on the exposure to be achieved with classical approaches such as Monte Carlo simulations. In this work, two approaches are proposed to address this problem. The first one is based on the use and the hybridization of construction methods of surrogate models in order to study the global influence of the input parameters. The second one aims at assessing efficiently the 95th-percentiles of the output distributions in a parcimonous way. It is based on the development of an adaptive and oriented methodology of design of experiments combined with the construction of surrogate models. In this manuscript, the proposed methods are compared and tested on analytical examples and then applicated to full-scale problems from the numerical dosimetry
50

Time-lapse (4D) seismic interpretation methodologies based on kriging analysis : application to the Senlac (onshoreCanada) and Marlim ( offshore Brazil) heavy oilfields / Méthodologies d'Interprétation par Analyse Krigeante des données sismiques 4D réservoir. Applications aux huiles lourdes de Senlac (Canada) et au champ Marlim (Brésil)

Borges De Salles Abreu, Carlos Eduardo 07 March 2008 (has links)
L’objectif de la thèse est de développer une méthodologie permettant d’obtenir une interprétation quantitative des données de sismique répétée (sismique 4D). Une étape essentielle consiste à évaluer la répétitivité des données, puis à filtrer les bruits indésirables, qui peuvent masquer ou détériorer la signature 4D. Une méthodologie basée sur des outils géostatistiques a été développée. Deux fenêtres temporelles des cubes sismiques étudiés sont choisies, l’une au-dessus du réservoir - où aucun effet 4D n’est attendu - et l’autre incluant le réservoir. Une analyse statistique et variographique conduite sur ces différentes fenêtres permet de proposer une décomposition des variogrammes en structures communes ou indépendantes, qui sont ensuite interprétées en termes de bruit, de signature géologique ou 4D. Les structures interprétées comme indépendantes de la géologie ou de la production sont ensuite filtrées à l’aide de la technique du krigeage factoriel proposée par Matheron en 1982. La méthodologie a été testée sur deux cas réels. Le premier concerne un champ d’huiles lourdes canadien, sur lequel trois campagnes sismiques ont été enregistrées, avant et pendant la production obtenue à l’aide d’injection de vapeur. Le bruit interprété comme tel sur les 3 campagnes a été filtré à l’aide la méthode décrite plus haut ; une analyse en termes de faciès sismiques non supervisée a ensuite été conduite sur les données brutes et filtrées afin d’évaluer l’intérêt du filtrage. Finalement, une interprétation des décalages en temps observés entre campagnes a été proposée. Le deuxième cas réel concerne un champ turbiditique profond dans l’offshore du Brésil, sur lequel deux campagnes sismiques 3D ont été acquises, avant et après le début de la production obtenue par injection d’eau. Le bruit présent sur les deux campagnes a été filtré à l’aide de la technique du krigeage factoriel, et la qualité de ce filtrage a pu être évaluée par comparaison avec d’autres techniques couramment utilisées / This thesis research aims at investigating seismic interpretation methodologies and techniques that will help on better characterizing time-lapse, or 4D, seismic signatures. These techniques and methodologies are used to evaluate the time-lapse repeatability and then to filter out undesirable artefacts that are non-related to the production, while enhancing the 4D signature. To achieve these goals, a methodology based on geostatistical tools, was developed. Typically, at least two time-interval windows are considered: one above and the other comprising the reservoir of interest. A statistical and variographic analysis, conducted on both windows and on all surveys, leads to an interpretation step where common or independent structures – in the variographic sense- can be pointed out. The structures interpreted as not related to the geology or to the production mechanism are filtered from the data by a multivariate factorial cokriging technique, based on the concept of Kriging Analysis developed by Matheron in 1982. Two real case time-lapse studies were used to test the methodology. The first case is a Canadian onshore heavy oil reservoir submitted to steam injection, where three different time-lapse surveys were shot to monitor the steam-chamber evolution. The noise present in the three surveys was first filtered using the technique described above; next, an unsupervised seismic facies analysis was conducted on both raw and filtered data in order to evaluate the filtering technique, and finally an interpretation, in terms of reservoir properties changes, of the time-shit observed between the campaigns was proposed. In the second case, the seismic data was acquired on a deepwater turbiditic oilfield from Brazil at two different times of reservoir life, before and after production and water injection. The two seismic surveys were filtered using the factorial kriging technique; the quality of the filtering was, in this case, evaluated by comparison with more common techniques

Page generated in 0.4236 seconds