51 |
Décomposition automatique des programmes parallèles pour l'optimisation et la prédiction de performance. / Automatic decomposition of parallel programs for optimization and performance prediction.Popov, Mihail 07 October 2016 (has links)
Dans le domaine du calcul haute performance, de nombreux programmes étalons ou benchmarks sont utilisés pour mesurer l’efficacité des calculateurs,des compilateurs et des optimisations de performance. Les benchmarks de référence regroupent souvent des programmes de calcul issus de l’industrie et peuvent être très longs. Le processus d’´étalonnage d’une nouvelle architecture de calcul ou d’une optimisation est donc coûteux.La plupart des benchmarks sont constitués d’un ensemble de noyaux de calcul indépendants. Souvent l’´étalonneur n’est intéressé que par un sous ensemble de ces noyaux, il serait donc intéressant de pouvoir les exécuter séparément. Ainsi, il devient plus facile et rapide d’appliquer des optimisations locales sur les benchmarks. De plus, les benchmarks contiennent de nombreux noyaux de calcul redondants. Certaines opérations, bien que mesurées plusieurs fois, n’apportent pas d’informations supplémentaires sur le système à étudier. En détectant les similarités entre eux et en éliminant les noyaux redondants, on diminue le coût des benchmarks sans perte d’information.Cette thèse propose une méthode permettant de décomposer automatiquement une application en un ensemble de noyaux de performance, que nous appelons codelets. La méthode proposée permet de rejouer les codelets,de manière isolée, dans différentes conditions expérimentales pour pouvoir étalonner leur performance. Cette thèse étudie dans quelle mesure la décomposition en noyaux permet de diminuer le coût du processus de benchmarking et d’optimisation. Elle évalue aussi l’avantage d’optimisations locales par rapport à une approche globale.De nombreux travaux ont été réalisés afin d’améliorer le processus de benchmarking. Dans ce domaine, on remarquera l’utilisation de techniques d’apprentissage machine ou d’´echantillonnage. L’idée de décomposer les benchmarks en morceaux indépendants n’est pas nouvelle. Ce concept a été aappliqué avec succès sur les programmes séquentiels et nous le portons à maturité sur les programmes parallèles.Evaluer des nouvelles micro-architectures ou la scalabilité est 25× fois plus rapide avec des codelets que avec des exécutions d’applications. Les codelets prédisent le temps d’exécution avec une précision de 94% et permettent de trouver des optimisations locales jusqu’`a 1.06× fois plus efficaces que la meilleure approche globale. / In high performance computing, benchmarks evaluate architectures, compilers and optimizations. Standard benchmarks are mostly issued from the industrial world and may have a very long execution time. So, evaluating a new architecture or an optimization is costly. Most of the benchmarks are composed of independent kernels. Usually, users are only interested by a small subset of these kernels. To get faster and easier local optimizations, we should find ways to extract kernels as standalone executables. Also, benchmarks have redundant computational kernels. Some calculations do not bring new informations about the system that we want to study, despite that we measure them many times. By detecting similar operations and removing redundant kernels, we can reduce the benchmarking cost without loosing information about the system. This thesis proposes a method to automatically decompose applications into small kernels called codelets. Each codelet is a standalone executable that can be replayed in different execution contexts to evaluate them. This thesis quantifies how much the decomposition method accelerates optimization and benchmarking processes. It also quantify the benefits of local optimizations over global optimizations. There are many related works which aim to enhance the benchmarking process. In particular, we note machine learning approaches and sampling techniques. Decomposing applications into independent pieces is not a new idea. It has been successfully applied on sequential codes. In this thesis we extend it to parallel programs. Evaluating scalability or new micro-architectures is 25× faster with codelets than with full application executions. Codelets predict the execution time with an accuracy of 94% and find local optimizations that outperform the best global optimization up to 1.06×.
|
52 |
Gestion de la qualité de service des systèmes publier/souscrire déployés sur un réseau mobile ad hoc / Gestion de la qualité de service des systèmes publier/souscrire déployés sur un réseau mobile ad hocLahyani abdennadher, Imene 17 December 2015 (has links)
L’objectif de cette thèse est la gestion de la QdS des systèmes publier/souscrire sur MANET. Ceci provoque un maintien permanent de la connectivité entre les parties communicantes du système. Plus précisément, les contributions de cette thèse, sont organisées autour de deux grands axes relatifs aux modules de monitoring et d’analyse de la QdS de ces systèmes dans un contexte ad-hoc. Ceci englobe les etapes de collecte des paramètres de QdS au cours du fonctionnement du système, et de détection des dégradations pouvant l’affecter.Contrairement à ce qui existe dans la littérature, notre module d’analyse, basé sur des méthodes statistiques, se base sur des seuils adaptatifs qui tiennent en comptes de la dynamicité du réseau et des changements affectant le contexte ad-hoc. En outre, le module d’analyse proposé offre à l’utilisateur une variété de choix entre une analyse réactive, proactive et hybride. Notre module permet aussi une localisation des pannes une fois détectées ou prédites. Des expérimentations menées à l’aide du simulateur Jist/Swans ont montré l’efficacité des modules developpés. De plus, une mesure des paramètres de performance du système avant et après introduction des modules développés a montré leur efficacité. Finalement, une étude de la complexité spatiale et temporelle du module analytique proposé a été réalisée. / Mobile ad-hoc networks (MANET) is a set of nodes, communicating meaning wireless channel without any centralized control. The main characteristic of MANET is the frequent mobility of its nodes leading to some dynamic changes of topology. Nodes mobility in such networks introduces possible disconnections between adjacent nodes, and more generally quality of service (QoS) degradation issues that do not fit well with QoS requirements of QoS sensitive applications. Publish/subscribe communicating system has been proposed at the middleware layer in order to communicate mobile entities in MANET. Such system is a decoupled interaction between publishers (or producers) and receivers (or consumers).Our goal in this thesis is to provide a QoS management for publish/subscribe systems when deployed on MANET while assuming a best effort flux at the routing layer. This thesis proposes an analytical model for latency aware publish/subscribe systems on mobile ad-hoc networks. The proposed approach combines both proactive and reactive statistical analysis.On the one hand, the reactive analysis, suitable for multimedia applications, detects failures by approximating latency series with Gumbel distribution. On the other hand, the proactive analysis, suitable for crisis management applications, forecasts failures occurrence relying on Auto Regression or Auto Regressive Integrated Moving Average Formulas. Finally, a hybrid analysis was proposed by dynamically switching from reactive to predictive forms of analysis whenever quality of service violations are noticed. In order to extract failure cause, we refer to the correlation method once failure was detected or predicted. Simulations done, using Jist/Swans simulator, under different scenariosproved the efficiency and accuracy of the proposed scheme.
|
53 |
Prédiction des propriétés d'équilibre dans les milieux biologiques et alimentaires par le modèle COSMO-RS / Prediction of the equilibrium properties in food and biological systems with the COSMO-RS modelToure, Oumar 10 January 2014 (has links)
Les milieux biologiques et alimentaires sont généralement des mélanges contenant un nombre élevé de constituants (eau, solvants organiques, solides dissous, gaz dissous, espèces ioniques, macromolécules). La prédiction des propriétés d’équilibre de tels milieux requiert l’utilisation d’un modèle thermodynamique entièrement prédictif. Ce modèle doit également permettre d’assurer la cohérence entre des données expérimentales et garantir la robustesse de la représentation simultanée des équilibres physiques (liquide-vapeur, solubilité, etc.) et chimiques (dissociation, oxydo-réduction, complexation, etc.). Le potentiel chimique est une donnée indispensable pour modéliser ces équilibres. Sa connaissance dépend de la prédiction de deux variables : l’enthalpie libre de formation dans un état de référence choisi, et le coefficient d’activité qui dépend aussi de l’état de référence choisi. Le modèle COSMO-RS est un excellent modèle de prédiction des coefficients d’activité très largement utilisé dans le domaine du génie chimique où on s’intéresse essentiellement à des molécules neutres. Ce travail de thèse a permis d’étendre les performances du modèle COSMO-RS au traitement des milieux biologiques et alimentaires dans lesquels on trouve systématiquement des électrolytes en solution (en plus des molécules neutres). Un nouvel outil utilisant les récentes avancées de la mécanique quantique a été développé pour prédire les propriétés de formation à l’état gaz. En combinant des concepts de la thermodynamique, de la mécanique quantique, de l’électrostatique, et de la physique statistique, il a été démontré qu’il est possible d’utiliser le modèle COSMO-RS pour faire la transition entre l’état gaz et la phase condensée. Partant de là, ce travail démontre qu’il est maintenant possible de traiter simultanément les équilibres physiques et chimiques et donc de prédire les propriétés physico-chimiques (aW, pH, Eh) dans les milieux biologiques et alimentaires par le modèle COSMO-RS. / Food and biological systems are generally multicomponent mixtures (including water, organic solvents, dissolved solids, dissolved gases, ionic species, macromolecules). The prediction of the equilibrium properties of such environments requires the use of a fully predictive thermodynamic model. This model must be able to ensure the consistency between experimental data and to ensure the robustness of the simultaneous representation of physical equilibria (liquid-vapour, solubility, etc.) and chemical equilibria (dissociation, redox, complexation, etc.). The chemical potential is an essential property for modelling such equilibria. Its determination depends on two variables: the Gibbs free energy of formation in a chosen reference state, and the prediction of the activity coefficient which also depends on the chosen reference state. The COSMO-RS model is an excellent model for predicting activity coefficients that is widely used in chemical engineering where the studied molecules are generally neutral. This PhD study enabled to extend the performance of the COSMO-RS model toward the treatment of food and biological systems where there are systematically electrolytes in solution (in addition to neutral molecules). A new tool based on the recent advances of quantum mechanics has been developed in order to predict gas phase formation properties. By combining concepts of thermodynamics, quantum physics, electrostatics and statistical physics, it has been demonstrated that it is possible to use the COSMO-RS model to ensure the transition between the gas phase and the condensed phase. In this context, this work demonstrates that it is possible to treat simultaneously physical and chemical equilibria and thus to predict physico-chemical properties (aW, pH, Eh) in food and biological systems using the COSMO-RS model.
|
54 |
Science des données au service des réseaux d'opérateur : proposition de cas d’utilisation, d’outils et de moyens de déploiement / Data science at the service of operator networksSamba, Alassane 29 October 2018 (has links)
L'évolution des télécommunications amené aujourd'hui à un foisonnement des appareils connectés et une massification des services multimédias. Face à cette demande accrue de service, les opérateurs ont besoin d'adapter le fonctionnement de leurs réseaux, afin de continuer à garantir un certain niveau de qualité d'expérience à leurs utilisateurs. Pour ce faire, les réseaux d'opérateur tendent vers un fonctionnement plus cognitif voire autonomique. Il s'agit de doter les réseaux de moyens d'exploiter toutes les informations ou données à leur disposition, les aidant à prendre eux-mêmes les meilleures décisions sur leurs services et leur fonctionnement, voire s'autogérer. Il s'agit donc d'introduire de l'intelligence artificielle dans les réseaux. Cela nécessite la mise en place de moyens d'exploiter les données, d'effectuer surelles de l'apprentissage automatique de modèles généralisables, apportant l’information qui permet d'optimiser les décisions. L'ensemble de ces moyens constituent aujourd'hui une discipline scientifique appelée science des données. Cette thèse s'insère dans une volonté globale de montrer l'intérêt de l'introduction de la science des données dans différents processus d'exploitation des réseaux. Elle comporte deux contributions algorithmiques correspondant à des cas d'utilisation de la science des données pour les réseaux d'opérateur, et deux contributions logicielles, visant à faciliter, d'une part l'analyse, et d'autre part le déploiement des algorithmes issus de la science des données. Les résultats concluants de ces différents travaux ont démontré l'intérêt et la faisabilité de l'utilisation de la science des données pour l'exploitation des réseaux d'opérateur. Ces résultats ont aussi fait l'objet de plusieurs utilisations par des projets connexes. / The evolution of telecommunications has led today to a proliferation of connected devices and a massification of multimedia services. Faced with this increased demand for service, operators need to adapt the operation of their networks, in order to continue to guarantee a certain level of quality of experience to their users. To do this, operator networks tend towards a more cognitive or autonomic functioning. It is about giving the networks the means to exploit all the information or data at their disposal, helping them to make the best decisions about their services and operations,and even self-manage. It is therefore a questionof introducing artificial intelligence into networks. This requires setting up means to exploit the data, to carry out on them the automatic learning of generalizable models, providing information that can optimize decisions. All these means today constitute a scientific discipline called data science. This thesis fits into a global desire to show the interest of the introduction of data science in different network operating processes. It inlcudes two algorithmic contributions corresponding to use cases of data science for the operator networks, and two software contributions, aiming to facilitate,on the one hand, the analysis, and on the other hand the deployment of the algorithms produced through data science. The conclusive results of these various studies have demonstrated the interest and the feasibility of using data science for the exploitation of operator networks. These results have also been used by related projects.
|
55 |
Stochastic modelling of flood phenomena based on the combination of mechanist and systemic approachesBoutkhamouine, Brahim 14 December 2018 (has links) (PDF)
Flood forecasting describes the rainfall-runoff transformation using simplified representations. These representations are based on either empirical descriptions, or on equations of classical mechanics of the involved physical processes. The performances of the existing flood predictions are affected by several sources of uncertainties coming not only from the approximations involved but also from imperfect knowledge of input data, initial conditions of the river basin, and model parameters. Quantifying these uncertainties enables the decision maker to better interpret the predictions and constitute a valuable decision-making tool for flood risk management. Uncertainty analysis on existing rainfall-runoff models are often performed using Monte Carlo (MC)- simulations. The implementation of this type of techniques requires a large number of simulations and consequently a potentially important calculation time. Therefore, quantifying uncertainties of real-time hydrological models is challenging. In this project, we develop a methodology for flood prediction based on Bayesian networks (BNs). BNs are directed acyclic graphs where the nodes correspond to the variables characterizing the modelled system and the arcs represent the probabilistic dependencies between these variables. The presented methodology suggests to build the RBs from the main hydrological factors controlling the flood generation, using both the available observations of the system response and the deterministic equations describing the processes involved. It is, thus, designed to take into account the time variability of different involved variables. The conditional probability tables (parameters), can be specified using observed data, existing hydrological models or expert opinion. Thanks to their inference algorithms, BN are able to rapidly propagate, through the graph, different sources of uncertainty in order to estimate their effect on the model output (e.g. riverflow). Several case studies are tested. The first case study is the Salat river basin, located in the south-west of France, where a BN is used to simulate the discharge at a given station from the streamflow observations at 3 hydrometric stations located upstream. The model showed good performances estimating the discharge at the outlet. Used in a reverse way, the model showed also satisfactory results when characterising the discharges at an upstream station by propagating back discharge observations of some downstream stations. The second case study is the Sagelva basin, located in Norway, where a BN is used to simulate the accumulation of snow water equivalent (SWE) given available weather data observations. The performances of the model are affected by the learning dataset used to train the BN parameters. In the absence of relevant observation data for learning, a methodology for learning the BN-parameters from deterministic models is proposed and tested. The resulted BN can be used to perform uncertainty analysis without any MC-simulations to be performed in real-time. From these case studies, it appears that BNs are a relevant decisionsupport tool for flood risk management.
|
56 |
Pourquoi sauver Willy ? : Épistémologie synthétique de la prédiction en écologie des communautés / Why free Willy? : Synthetical epistemology of prediction in community ecologyCalba, Sarah 15 December 2014 (has links)
Je vous propose à travers la lecture de cette thèse d'entreprendre un voyage épistémologique, un déplacement hors de votre lieu de résidence (et de recherche) habituel, un passage du "comment", donc de la résolution de questions pragmatiques, au "pourquoi", à la définition des finalités de la recherche scientifique. Ce voyage doit être vécu comme une aventure, une tentative difficile et périlleuse au cours de laquelle vous serez amené à défier l'autorité d'un Grand Partage régnant sur les mers épistémologiques, légitimant la connaissance vraie et justifiée au détriment de la croyance et de l'opinion. Ce départage opposera au réalisme une posture constructiviste et relativiste affirmationniste concevant la recherche scientifique non comme un progrès dans la découverte du réel ou vers une vérité universelle mais comme la confrontation de points de vue donnant lieu à des définitions communes, des représentations partagées. S'en suivra une escale sur l'île de l'écologie des communautés, où l'étude des prédictions produites par les écologues illustrera deux types de recherche : l'une, qualifiée d'analytique, vise à fournir des explications du réel par la décomposition et la simplification ; l'autre, qualifiée de synthétique, veut la compréhension par la mise en lien. Alors que la première utilise un langage exclusif, engendrant un double mouvement d'exclusion et d'esquive de certaines questions, la seconde discute par le biais d'un langage coélitaire, créant de la complexité, de l'épaississement pour reconfigurer notre connaissance du monde afin de susciter des questions subjectivement neuves. Ce voyage aboutira à la proposition d'une nouvelle architecture pour la maison écologie alors engagée dans une recherche synthétique. / With this thesis, I propose that you undertake an epistemological travel to move outside your usual place of residence (and of research), a transition from the “how”, so from the resolution of practical issues, to the “why” and the definition of the purposes of scientific research. This travel must be experienced as an adventure, a difficult and dangerous attempt during which you will defy the authority of a Grand Partage prevailing on the epistemological seas, legitimizing a true and justified knowledge to the detriment of belief and opinion. This will oppose a realist position to a constructivist and relativist affirmationist position seeing scientific research not as one step in the discovery of the real or of a universal truth but as the confrontation of points of view leading to common definitions and shared representations. Will follow a stopover on the island of community ecology, where the study of different kinds of predictions produced by ecologists is used to illustrate two types of research: one is called “analytical” and aims to provide explanations of reality by decomposition and simplification; the other one, called “synthetical” intends to understand by setting links. While the first uses an exclusive language, generating a double movement of exclusion and avoidance of some questions, the second discusses through a coélitaire language, creating complexity and thickening to reconfigure our knowledge of the world to generate questions that are subjectively new. This travel will finally lead to the proposal of a new architecture for the home of ecology engaged in a synthetical research.
|
57 |
Quelques questions de sélection de variables autour de l'estimateur LASSOHebiri, Mohamed 30 June 2009 (has links) (PDF)
Le problème général étudié dans cette thèse est celui de la régression linéaire en grande dimension. On s'intéresse particulièrement aux méthodes d'estimation qui capturent la sparsité du paramètre cible, même dans le cas où la dimension est supérieure au nombre d'observations. Une méthode populaire pour estimer le paramètre inconnu de la régression dans ce contexte est l'estimateur des moindres carrés pénalisés par la norme ℓ1 des coefficients, connu sous le nom de LASSO. Les contributions de la thèse portent sur l'étude de variantes de l'estimateur LASSO pour prendre en compte soit des informations supplémentaires sur les variables d'entrée, soit des modes semi-supervisés d'acquisition des données. Plus précisément, les questions abordées dans ce travail sont : i) l'estimation du paramètre inconnu lorsque l'espace des variables explicatives a une structure bien déterminée (présence de corrélations, structure d'ordre sur les variables ou regroupements entre variables) ; ii) la construction d'estimateurs adaptés au cadre transductif, pour lequel les nouvelles observations non étiquetées sont prises en considération. Ces adaptations sont en partie déduites par une modification de la pénalité dans la définition de l'estimateur LASSO. Les procédures introduites sont essentiellement analysées d'un point de vue non-asymptotique ; nous prouvons notamment que les estimateurs construits vérifient des Inégalités de Sparsité Oracles. Ces inégalités ont pour particularité de dépendre du nombre de composantes non-nulles du paramètre cible. Un contrôle sur la probabilité d'erreur d'estimation du support du paramètre de régression est également établi. Les performances pratiques des méthodes étudiées sont par ailleurs illustrées à travers des résultats de simulation.
|
58 |
Géolocalisation et prédiction dans les réseaux Wi-Fi en intérieurLassabe, Frédéric 21 April 2009 (has links) (PDF)
La démocratisation des terminaux mobiles et l'accroissement des débits disponibles permettent d'envisager de nouvelles applications, en particulier relatives au contextes. Celles-ci nécessitent d'assurer la continuité des services et la détection de la position du terminal mobile. Nous proposons d'une part la géolocalisation des terminaux et, d'autre part, la prédiction de la mobilité.<br /><br />Les systèmes satellites ne fonctionnant pas à l'intérieur des bâtiments, nous basons nos travaux sur les réseaux Wi-Fi. Deux méthodologies se démarquent pour localiser un terminal Wi-Fi : l'une repose sur une cartographie des puissances, l'autre repose sur le calcul des distances entre le terminal et des points dont les coordonnées sont connues. Chaque modèle ayant ses points faibles, nous les avons combinés pour améliorer la précision finale.<br /><br />Nous proposons un premier modèle qui calcule les distances entre le terminal mobile et des points d'accès en se basant sur la puissance du signal reçu. Il en déduit la position du terminal par calcul. Le second modèle proposé restreint la recherche à une zone homogène grâce à la cartographie des puissances avant d'utiliser le premier modèle.<br /><br />Nous avons expérimenté nos modèles ainsi que les modèles fondamentaux de l'état de l'art en étendant leurs conditions d'application. Les résultats des systèmes basés sur la propagation des ondes sont de l'ordre de 9 à 15 mètres d'erreur. Les modèles basés sur une cartographie permettent quant-à-eux d'atteindre une précision de l'ordre de 3 à 7 mètres selon les conditions.<br /><br />L'historique des positions permet à un système d'apprentissage d'acquérir un modèle des déplacements des terminaux puis de prédire les déplacements futurs par l'étude et la comparaison du modèle obtenu à des déplacements ultérieurs. Nous avons proposé en particulier d'employer les chaînes de Markov et les réseaux bayésiens pour effectuer l'apprentissage et la prédiction de la mobilité. Nous avons enrichi ces modèles d'un seuil qui détermine le choix des politiques à appliquer en fonction des déplacements du terminal. La précision de nos modèles est variable en fonction des paramètres d'ordre et de seuil mais permet d'atteindre des taux de réussite de la prédiction de 75%. Cette précision permet d'envisager l'anticipation des handovers et l'application d'une politique appropriée.
|
59 |
Modélisation du mouvement des quadrupèdes à partir de la vidéoFavreau, Laurent 30 November 2006 (has links) (PDF)
Les animaux sont de plus en plus présents dans les effets spéciaux au cinéma et dans les films d'animation 3D. Les quadrupèdes en particulier, de par la richesse et de l'esthétique de leurs mouvement, sont souvent l'objet de création de personnages virtuels. L'objectif de cette thèse est d'utiliser la vidéo, et surtout des documentaires animaliers, pour créer des animaux virtuels capables de mouvements réalistes. Dans un premier temps, nous proposons de construire des squelettes d'animation de quadrupèdes à partir d'images. Nous montrons tout d'abord comment reconstruire un squelette réel à partir de plusieurs images. Ensuite, nous construisons un modèle déformable de squelette de quadrupède qui permet de de créer un squelette d'animation rapidement à partir d'une image ou d'un modèle 3D de l'animal à animer. Dans un second temps, nous proposons des méthodes permettant d'animer des quadrupèdes à partir de séquences vidéo. Nous présentons tout d'abord une technique d'animation de mouvements cycliques à partir de vidéo, qui permet notamment de choisir automatiquement les images-clés à partir d'une vidéo. Ensuite, nous proposons une nouvelle méthode d'analyse de vidéos qui permet d'identifier les différentes allures utilisées par l'animal, ainsi que les transitions entre allures.
|
60 |
Acquisition automatique de sens pour la désambiguïsation et la sélection lexicale en traductionApidianaki, Marianna 05 September 2008 (has links) (PDF)
Le travail présenté dans cette thèse explore la question de l'acquisition automatique de sens pour la désambiguïsation lexicale dans un cadre de traduction. Partant de l'hypothèse du besoin de conformité des inventaires sémantiques utilisés pour la désambiguïsation dans le cadre d'applications précises, la problématique du repérage des sens se situe dans un cadre bilingue et le traitement s'oriente vers la traduction. <br />Nous proposons une méthode d'acquisition de sens permettant d'établir des correspondances sémantiques de granularité variable entre les mots de deux langues en relation de traduction. L'induction de sens est effectuée par une combinaison d'informations distributionnelles et traductionnelles extraites d'un corpus bilingue parallèle. La méthode proposée étant à la fois non supervisée et entièrement fondée sur des données, elle est, par conséquent, indépendante de la langue et permet l'élaboration d'inventaires sémantiques relatifs aux domaines représentés dans les corpus traités. <br />Les résultats de cette méthode sont exploités par une méthode de désambiguïsation lexicale, qui attribue un sens à de nouvelles instances de mots ambigus en contexte, et par une méthode de sélection lexicale, qui propose leur traduction la plus adéquate. On propose finalement une évaluation pondérée des résultats de désambiguïsation et de sélection lexicale, en nous fondant sur l'inventaire construit par la méthode d'acquisition de sens.
|
Page generated in 0.0878 seconds