• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 45
  • 26
  • 4
  • Tagged with
  • 72
  • 31
  • 18
  • 15
  • 13
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modeling two-phase flows in columns equipped with structured packings : a multiscale porous medium approach. / Modélisation des écoulements diphasiques en colonne à garnissage structuré : une approche multi-échelle

Pasquier, Sylvain 25 September 2017 (has links)
La technologie la plus utilisée pour séparer les principaux composants de l'air est aujourd'hui ladistillation en colonne à garnissage structuré. Ce procédé se caractérise par un écoulement gazliquide contre-courant au sein d'une structure constituée de plaques corruguées placées parallèlement et agencées en packs. La description d'un tel procédé est rendue difficile par les très grandes dimensions du système et par la complexité des phénomènes à la petite échelle. La méthode de la prise de moyenne volumique, utilisée pour les problèmes de changement d'échelleen milieu poreux, est utilisée pour décrire le système à une échelle qui permet une résolution. Le travail est organisé en trois étapes. Dans un premier temps, pour les débits modérés, une méthode est proposée pour évaluer la perte de charge au sein de la structure en prenant en compte des rugosités de structure ou créées par des instabilités du film liquide. A ce stade, l'effet de la surface rugueuse est caractérisé par une condition limite effective. Le problème aux limites effectif pour la phase gaz est ensuite moyenné en volume pour obtenir un système d'équations à grande échelle. Le bilan de quantité de mouvement à grande échelle est une loi de Darcy généralisée aux écoulements inertiels, dans laquelle les paramètres effectifs contiennent les effets des instabilités de surfaces de la petite échelle. La seconde étape est dédiée à l'interaction entre les deux phases à plus hauts débits. On montre que des modèles qui incluent explicitement des termes croisés à grande échelle permettent de décrire l'écoulement au sein du garnissage à grands nombres de Reynolds. Plus généralement, ces modèles, peu utilisés dans la littérature sur les milieux poreux, s'avèrent adaptés pour les écoulements dans les milieux très perméables, pour lesquels des variations importantes de la perte de charge et des saturations sont observées. Enfin, on s'intéresse à la description de la distribution de la phase liquide au sein de la structurede garnissage. Une approche multiphasique, où la phase liquide est séparée en plusieurs pseudophases, est adaptée pour modéliser l'anisotropie de l'écoulement. Deux méthodes impliquant une approche à deux pseudo-phases et une approche à quatre pseudo-phases pour la phase liquide sont comparées. Cette dernière méthode est notamment utile pour décrire des régimes d'écoulement très différents, et permet de capturer à grande échelle les chemins préférentielssuivis par le film liquide au sein du garnissage. / Distillation in columns equipped with structured packings is today the most used technology for separating air in its primary components. This process is characterized by a counter-current gasliquid flow in a structure made of parallel corrugated sheets arranged in packs. The description of such system is constrained by the large dimensions of the columns and by the complexity of the local-scale phenomena. This leads to consider a strategy of upscaling, based on the volume averaging method, to describe the system at a scale at which a resolution is possible. The work is organized in three steps. As a first step, considering moderate flow rates, a methodology ofupscaling is developed to predict the pressure drop in the flow of the gas phase taking into account small scale roughnesses due to the structure itself or perturbations of the liquid film. At this stage, the effect of this rough surface is characterized by an effective boundary condition. The boundary value problem for the flow of the gas phase is volume averaged in order to derive a system of equations at large scale. The resulting momentum balance is a generalized Darcy's law for inertial flows, involving effective parameters accounting for the roughness at the microscale. The second step of this work focuses on the interaction between the two phases at higher flow rates. It is shown that models involving non-standard macroscopic cross-terms are more prone to describe the flow in packings at high Reynolds numbers than the models usually used in porousmedia sciences. More generally, these models are shown to characterize accurately processes in highly permeable media, where drastic changes of pressure drop and retention are observed. We finally study the distribution of the liquid phase in the structured packing. It is shown that a specific approach involving a multiphase model with liquid decomposition is required to capture the anisotropy generated in the flow of the liquid phase. Two methods involving two pseudo-phases and four pseudo-phases for the liquid phase are compared. This last method captures a number of very different distribution regimes in the column and offers additional flexibility to describepreferential paths of the liquid.
12

Kernel-based learning on hierarchical image representations : applications to remote sensing data classification / Apprentissage à base de noyaux sur représentations d’images arborescentes : applications à la classification des images de télédétection

Cui, Yanwei 04 July 2017 (has links)
La représentation d’image sous une forme hiérarchique a été largement utilisée dans un contexte de classification. Une telle représentation est capable de modéliser le contenu d’une image à travers une structure arborescente. Dans cette thèse, nous étudions les méthodes à noyaux qui permettent de prendre en entrée des données sous une forme structurée et de tenir compte des informations topologiques présentes dans chaque structure en concevant des noyaux structurés. Nous présentons un noyau structuré dédié aux structures telles que des arbres non ordonnés et des chemins (séquences de noeuds) équipés de caractéristiques numériques. Le noyau proposé, appelé Bag of Subpaths Kernel (BoSK), est formé en sommant les noyaux calculés sur les sous-chemins (un sac de tous les chemins et des noeuds simples) entre deux sacs. Le calcul direct de BoSK amène à une complexité quadratique par rapport à la taille de la structure (nombre de noeuds) et la quantité de données (taille de l’ensemble d’apprentissage). Nous proposons également une version rapide de notre algorithme, appelé Scalable BoSK (SBoSK), qui s’appuie sur la technique des Random Fourier Features pour projeter les données structurées dans un espace euclidien, où le produit scalaire du vecteur transformé est une approximation de BoSK. Cet algorithme bénéficie d’une complexité non plus linéaire mais quadratique par rapport aux tailles de la structure et de l’ensemble d’apprentissage, rendant ainsi le noyau adapté aux situations d’apprentissage à grande échelle. Grâce à (S)BoSK, nous sommes en mesure d’effectuer un apprentissage à partir d’informations présentes à plusieurs échelles dans les représentations hiérarchiques d’image. (S)BoSK fonctionne sur des chemins, permettant ainsi de tenir compte du contexte d’un pixel (feuille de la représentation hiérarchique) par l’intermédiaire de ses régions ancêtres à plusieurs échelles. Un tel modèle est utilisé dans la classification des images au niveau pixel. (S)BoSK fonctionne également sur les arbres, ce qui le rend capable de modéliser la composition d’un objet (racine de la représentation hiérarchique) et les relations topologiques entre ses sous-parties. Cette stratégie permet la classification des tuiles ou parties d’image. En poussant plus loin l’utilisation de (S)BoSK, nous introduisons une nouvelle approche de classification multi-source qui effectue la classification directement à partir d’une représentation hiérarchique construite à partir de deux images de la même scène prises à différentes résolutions, éventuellement selon différentes modalités. Les évaluations sur plusieurs jeux de données de télédétection disponibles dans la communauté illustrent la supériorité de (S)BoSK par rapport à l’état de l’art en termes de précision de classification, et les expériences menées sur une tâche de classification urbaine montrent la pertinence de l’approche de classification multi-source proposée. / Hierarchical image representations have been widely used in the image classification context. Such representations are capable of modeling the content of an image through a tree structure. In this thesis, we investigate kernel-based strategies that make possible taking input data in a structured form and capturing the topological patterns inside each structure through designing structured kernels. We develop a structured kernel dedicated to unordered tree and path (sequence of nodes) structures equipped with numerical features, called Bag of Subpaths Kernel (BoSK). It is formed by summing up kernels computed on subpaths (a bag of all paths and single nodes) between two bags. The direct computation of BoSK yields a quadratic complexity w.r.t. both structure size (number of nodes) and amount of data (training size). We also propose a scalable version of BoSK (SBoSK for short), using Random Fourier Features technique to map the structured data in a randomized finite-dimensional Euclidean space, where inner product of the transformed feature vector approximates BoSK. It brings down the complexity from quadratic to linear w.r.t. structure size and amount of data, making the kernel compliant with the large-scale machine-learning context. Thanks to (S)BoSK, we are able to learn from cross-scale patterns in hierarchical image representations. (S)BoSK operates on paths, thus allowing modeling the context of a pixel (leaf of the hierarchical representation) through its ancestor regions at multiple scales. Such a model is used within pixel-based image classification. (S)BoSK also works on trees, making the kernel able to capture the composition of an object (top of the hierarchical representation) and the topological relationships among its subparts. This strategy allows tile/sub-image classification. Further relying on (S)BoSK, we introduce a novel multi-source classification approach that performs classification directly from a hierarchical image representation built from two images of the same scene taken at different resolutions, possibly with different modalities. Evaluations on several publicly available remote sensing datasets illustrate the superiority of (S)BoSK compared to state-of-the-art methods in terms of classification accuracy, and experiments on an urban classification task show the effectiveness of proposed multi-source classification approach.
13

Développement et caractérisation de mousses cellulaires élastomères pour l’intensification des procédés / Development and characterization of Open Cell Polyurethane Foam for process intensification

Lefebvre, Louis 20 March 2019 (has links)
Les mousses solides, en polyuréthane, sont connues pour avoir des propriétés de transports intéressantes telles que des faibles pertes de charges engendrées ou une grande surface spécifique développée permettant une bonne évacuation de la chaleur. Cependant, elles ne sont pas utilisées en tant que support catalytique à cause des méthodes de déposition actuelles qui provoquent une altération de leurs propriétés mécaniques. Nous avons tout d’abord utilisé une nouvelle méthode de déposition basée sur la polydopamine(PDA), un polymère aux propriétés intéressantes, d’adhésion et de réduction. La PDA va venir recouvrir de manière homogène notre support puis va servir d’intermédiaire pour le dépôt de différentes phases active, qu’elles soient commerciales ou synthétisées in-situ. Par la suite, nos supports ont été employés dans plusieurs réactions, qu’elles soient monophasiques (liquide) ou bi-phasiques (gaz/liquide), afin de mettre en avant l’efficacité et la stabilité du dépôt de nos phases actives. De plus, il nous a été possible de déposer une phase active intéressante pour la production d’hydrogène. L’étude cinétique de cette réaction à basse température a été réalisée et a montré des résultats prometteurs pour le domaine des énergies renouvelables. Enfin, la dernière partie est consacrée à la mise en place de notre support structuré au sein d’un réacteur innovant, permettant d’utiliser les propriétés mécaniques du dit support afin d’améliorer les propriétés de transfert de matière / Solid foams, made with polyurethane, are well known for their interesting transport properties such as low pressure drop or high specific surface area. However, there are not used as catalytic support due to actual deposition method which causes an alteration of their mechanical properties. First, we used a new deposition method using polydopamine (PDA), a polymer with interesting adhesive and reducing properties. The PDA layer will cover homogenously our support then will act as intermediary for active phase deposition, whether they are commercially available or synthetized in-situ. Afterward, our supports were tested for several catalytic reactions, whether monophasic (liquid phase) or biphasic (gas/liquid) to show the active phase efficiency and stability. Furthermore, we successfully deposited a good active phase (cobalt) for hydrogen production. Kinetic study at low temperature were done and shown promising results for sustainable energy production. Finally, the last part was devoted to the use of our soft structured catalytic support within a new reactor, allowing to use its mechanical properties to improve mass transfer
14

Méthodes stochastiques pour la modélisation d'incertitudes sur les maillages non structurés / Stochastic methods for modeling uncertainties on unstructured grids

Zaytsev, Victor 12 September 2016 (has links)
La simulation des phénomènes physiques exige souvent l’utilisation d’une discrétisation du milieu sous forme de maillage. Un exemple de ce type de situation est la simulation d’écoulement de fluides et la simulation du stress géomécanique pour les gisements pétroliers. Dans ces cas, le milieu étudié n’est pas homogène et l'hypothèse sur l’homogénéité de ce milieu peut mener à des résultats incorrects. C’est pourquoi la simulation des hétérogénéités est très importante pour ce genre de problèmes.Cette thèse est consacrée à la simulation géostatistique des hétérogénéités sur les maillages non-structurés par les méthodes géostatistiques non-linéaires. Le but de cette thèse est la création d’algorithmes de simulation des hétérogénéités directement sur les maillages non-structurés, sans utiliser les maillages fins réguliers intermédiaires et de l’upscaling. On présente deux modèles théoriques pour les simulations des variables continues sur les maillages non-structurés qui sont les deux versions différentes du modèle Gaussien discret (DGM) - DGM 1 et DGM 2. Le modèle théorique utilisé dans cette thèse permet de convertir le problème de simulation sur un maillage non-structuré en un problème de simulation d’un vecteur Gaussien multivarié et l’application de fonctions de transformation adaptées pour chaque élément du vecteur. La simulation de faciès est aussi envisagée en utilisant une généralisation des modèles pluri-Gaussiens et Gaussien tronqués pour les maillages non-structurés.L’application des méthodes développées est illustrée sur un gisement pétrolier - le cas d’étude X (gisement du gaz offshore). / Simulations of physical phenomenon often require discretizing the medium with a mesh. An example of this type of simulation is the simulation of fluid flow through a porous medium and the evaluation of the geomechanical stress in the petroleum reservoir. The studied medium is often not homogeneous and applying a homogeneity hypothesis can lead to incorrect simulation results. That makes simulation of heterogeneities important for this kind of problems.This thesis is devoted to geostatistical simulations of heterogeneities on unstructured grids using methods of non-linear geostatistics. The objective of this work is the development of algorithms for simulating heterogeneities directly on unstructured grids without using intermediate fine scale regular grids and upscaling. We present two theoretical models for geostatistical simulations of continuous parameters on unstructured grids which are different generalizations of the Discrete Gaussian model (DGM) – DGM 1 and DGM 2. The proposed theoretical models enable converting the problem of geostatistical simulation on an unstructured grid into the well-studied problem of simulating multivariate Gaussian random vectors followed by application of block-dependent transformation functions. The problem of simulating facies is also addressed in this work, for which generalizations of pluri-Gaussian and truncated Gaussian simulation models for unstructured grids are proposed.An application of the proposed methods is demonstrated on a case study X, which is an offshore gas reservoir with a tartan-meshed grid.
15

Microscopies de fluorescense et de diffraction super-résolues par éclairement multiple

Girard, Jules 02 December 2011 (has links)
Ce travail de thèse concerne l'amélioration du pouvoir de résolution de la microscopie optique en champ lointain. Nous avons développé des techniques qui tirent profit de la relation liant le champ électromagnétique émis par un objet à l’éclairement utilisé. En utilisant plusieurs images obtenues pour différents éclairements, et à l’aide d’un algorithme d'inversion approprié, il est possible d'accéder à des fréquences spatiales de l'objet habituellement filtrées par le microscope.Ce concept est d’abord appliqué à une technique de microscopie cohérente : la tomographique optique de diffraction. Elle permet d’obtenir numériquement une carte quantitative de la permittivité diélectrique de l'objet, avec une résolution supérieure à celle d'un microscope classique, à partir de plusieurs hologrammes de l'échantillon. Dans ce cadre, nous montrons que le phénomène de diffusion multiple permet d’atteindre des résolutions encore plus spectaculaires s’il est pris en compte. Nous étudions ensuite la microscopie de fluorescence par éclairement structuré, que nous proposons d’améliorer de deux manières différentes. Dans la première, nous utilisons un algorithme d’inversion capable de retrouver simultanément la densité de fluorescence et les éclairements utilisés. Grâce à celui-ci, nous pouvons remplacer l’illumination périodique et contrôlée généralement utilisée, par des speckles aléatoires formés avec un montage remarquablement simple. Nous montrons expérimentalement l'efficacité de cette approche. Dans un second temps, nous proposons de remplacer la lamelle de verre sur laquelle est repose l’échantillon par un réseau diélectrique nanométrique. Celui-ci crée à sa surface une grille de lumière de période inférieure à la limite de diffraction, ce qui permet d’améliorer d’avantage la résolution finale de l’image reconstruite. Nous détaillons la conception, la fabrication et la caractérisation expérimentale de ce substrat nanostructuré. / This PhD work focuses on the resolution improvement of far-field optical microscopy. We have studied and developed different techniques that take advantage of the relationship between the sample, the illumination and the diffracted (or emitted) field, in order to increase final band-pass of the image beyond that imposed by the diffraction phenomenon. In In these approaches, several images of the same sample are recorded under different illuminations. An inversion algorithm in then used to reconstruct a super-resolved map of the sample from the set of measurements.This concept is first applied to coherent microscopy. In tomographic diffraction microscopy, many holograms of the same unstained sample are obtained under various incidences, then used to numerically reconstruct a quantitative map of permittivity of the sample. The resolution is usually better than that of classical wide-field microscopy. We show theoretically and experimentally that, far from being a drawback, the presence of multiple scattering within the sample can, if properly accounted for, lead a to an even better resolution.We then study structured illumination fluorescence microscopy. We present two different ways for improving this method. The first one takes advantage of an inversion algorithm, which is able to retrieve the fluorescence density without knowing the illumination patterns. This algorithm permits one to replace the periodic light pattern classically used in structured illumination microscopy by unknown random speckle patterns. The implementation of the technique is thus considerably simplified while the resolution improvement remains. In the second approach, we propose to replace the coverslip on which the sample usually lays, by a sub-lambda grating. The latter is used to form, in near field, a light grid with sub-diffraction period that is able to probe the finest details of the sample. The design, fabrication and optical characterization of this key structure are detailed.
16

Resolution improvement in fluorescence and phase optical microscopy

Mudry, Emeric 25 September 2012 (has links)
La microscopie optique est une technique essentielle pour de nombreuses disciplines des sciences expérimentales qui nécessitent des résolutions sans cesse plus petites. Dans ce travail de thèse sont présentés plusieurs travaux pour l'amélioration de la résolution en microscopie de fluorescence et en microscopie tomographique par diffraction (MTD), une récente technique de microscopie de phase. Dans un premier temps, il est montré que déposer l'échantillon sur un miroir permet d'augmenter la résolution axiale en MTD et en microscopie confocale de fluorescence. En microscopie confocale, il faut pour cela mettre en forme le faisceau incident grâce à un modulateur spatial de lumière. En MTD, il suffit d'adapter le programme de reconstruction. La deuxième partie présente des algorithmes pour reconstruire des images haute résolution à partir de mesures en éclairement structuré avec de champs d'illumination inconnus, à la fois en microscopie de fluorescence (algorithme blind-SIM) et en MTD. En microscopie de fluorescence, ces algorithmes permettent de simplifier drastiquement les montages expérimentaux produisant l'éclairement structuré et en MTD, d'obtenir des images d'échantillons à fort indice. / Various fields of experimental science are constantly requiring smaller resolution for optical microscopy. In this thesis are presented several works for improving resolution in fluorescence microscopy and in Tomographic Diffraction Microscopy (TDM), an emerging phase microscopy technique. In the first part it is shown that one can improve the axial resolution in depositing the sample on a mirror. In confocal fluorescence microscopy, this is done by shaping the illumination beam with a Spatial Light Modulator. In TDM this is done by adapting the reconstruction method. Then algorithms are proposed for reconstructing high-resolution images from structured illumination measurements with unknown illumination fields, both in fluorescence imaging (blind-SIM algorithm) and in TDM. This allows a dramatical simplification of the experimental set-ups in fluorescence structured illumination and the image reconstruction of high optical index samples in TDM.
17

Méthodes de résolution dédiées à l'étude spectroscopique de processus photoinduits. Adaptation aux spécificités des spectres résolus en temps

Blanchet, L. 27 November 2008 (has links) (PDF)
L'analyse pertinente de l'information contenue dans les mesures instrumentales modernes nécessite le développement de méthodes algorithmiques performantes. La spectroscopie n'échappant pas à cette règle, nombre d'outils chimiométriques d'analyse multivariée ont été mis au point en conséquence. L'objectif de cette thèse est de participer à ces développements pour caractériser les spectres et les profils de concentration des composés intervenant lors de réactions photoinduites suivies en spectroscopique résolue en temps. Un premier travail concerne l'analyse du rang de données de différence. Une déficience de rang systématique de ces données a été mise en évidence. Une approche basée sur un algorithme de modélisation hybride est proposée en réponse à ce problème. En effet l'introduction d'un modèle cinétique compense cette déficience de rang des données. Le deuxième travail se rapporte à la caractérisation de l'influence du bruit (d'une part sur la mesure et d'autre part sur la résolution multivariée). Une analyse de la structure de corrélation du bruit permet d'expliquer les phénomènes de surajustement des méthodes de modélisation souple. Un second algorithme résout ce problème en pondérant les données en fonction d'une estimation de l'erreur de mesure. Ces points sont illustrés par deux applications ; premièrement une contribution à l'analyse du centre réactionnel de la bactérie <i>Rhodobacter sphaeroides</i> par spectroscopie IRTF et ensuite l'étude de la photorelaxation de la benzophénone par spectroscopie d'absorption transitoire.
18

Approximation des signaux: approches variationnelles et modèles aléatoires

Kowalski, Matthieu 15 October 2008 (has links) (PDF)
Deux approches pour la décomposition parcimonieuse des signaux sont étudiées.<br /> L'une utilise des méthodes variationnelles avec une attache aux données l2 pénalisée par une norme mixte permettant de structurer la parcimonie. Les fonctionnelles sont minimisées par des algorithmes itératifs dont la convergence est prouvée. Les normes mixtes donnent des estimations par des opérateurs de seuillage généralisés, qui ont été modifiés pour les localiser ou introduire de la persistance.<br />L'autre modélise les signaux comme combinaisons linéaires parcimonieuses d'atomes temps-fréquence choisis dans l'union de deux bases orthonormées, à coefficients aléatoires. La distribution de ces coefficients fait intervenir deux niveaux d'aléa : leur valeur et leur position dans leur espace temps-fréquence. L'étude des coefficients d'analyse permet une estimation des cartes temps-fréquence. La projection du signal sur ces cartes donne une décomposition en deux couches plus un résidu.
19

Optimisation des méthodes d'implantation automatisée sur les réseaux structurés

Bellon, Alain 12 December 1984 (has links) (PDF)
Étude des méthodes de placements : évaluation des critères d'optimisation, et fonction du cout de placement. Présentation des heuristiques de placement suivant une classification synthétique afin de mettre en évidence leurs avantages, leurs inconvénients et leurs domaines d'application. Principes d'adaptation des méthodes de placement au traitement des réseaux structurés. Implantation des connexions dans les structures à canaux d'interconnexion. Détail des stratégies basées sur une décomposition du traitement en deux phases successives. Étude en particulier des méthodes de tracé global sur les réseaux prédiffusés. Présentation d'un système d'implantation automatise sur les réseaux de cellules prédiffusés structurés en matrice de macro-site.
20

Génération de métriques pour adaptation anisotrope de maillages : applications à la mise en forme des matériaux

Gruau, Cyril 20 December 2004 (has links) (PDF)
Ce travail concerne la simulation d'écoulements viscoélastiques compressibles appliquée à l'injection de polymères. La compressibilité est intégrée dans Rem3D en supposant que la densité du matériau suit une loi d'évolution du type loi de Tait. La conservation de la masse est écrite comme une équation en vitesse, pression et température, à travers des coefficients de compressibilité isotherme et de dilatation isobare. Le système obtenu est désigné "Stokes compressible" et sa résolution numérique est faite par la méthode des éléments finis mixtes. Le système obtenu est non-linéaire et non-symétrique. Le couplage thermique et l'extension à des problèmes avec surface libre sont aussi consid ér és. Le modèle viscoélastique choisi est le modèle Pom-Pom, issu de la dynamique moléculaire. L'extra-contrainte est fonction des propriétés microscopiques du matériau, comme l'orientation moléculaire et son étirement. L'élasticité est vue comme une perturbation dans le problème mécanique, et une méthode de stabilisation du type DEVSS est utilisée. L'orientation et l'étirement sont déterminés par la résolution de deux équations d'évolution via une méthode espace-temps Galerkin discontinu. Finalement, la thermoviscoélasticité est abordée brièvement. Dans le contexte de l'injection de polymères, REM3D couvre aujourd'hui toutes les phases du proc éd é. Néanmoins, la solidification et la transition liquide-solide sont approximées par un comportement du type liquide de très haute viscosité. L'introduction de la compressibilité permet de compenser le retrait du matériau par un apport supplémentaire de matière. D'un autre côté, la prise en compte d'un comportement viscoélastique détecte d'éventuelles anisotropies des propriétés de la pièce injectée. Les diverses comparaisons des résultats obtenus avec la littérature et l'expérience montre une bonne concordance, validant les modèles implémentés.

Page generated in 0.0321 seconds