Spelling suggestions: "subject:"algorithme""
631 |
Apprentissage Supervisé Relationnel par Algorithmes d'ÉvolutionAugier, Sébastien 19 December 2000 (has links) (PDF)
Cette thèse concerne l'apprentissage de règles relationnelles à partir d'exemples et de contre-exemples, à l'aide d'algorithmes évolutionnaires. Nous étudions tout d'abord un biais de langage offrant une expressivité suffisamment riche pour permettre de couvrir à la fois le cadre de l'apprentissage relationnel par interprétations et les formalismes propositionnels classiques. Bien que le coût de l'induction soit caractérisé par la complexité NP-difficile du test de subsomption pour cette classe de langages, une solution capable de traiter en pratique les problèmes réels complexes est proposée. Le système SIAO1, qui utilise ce biais de langage pour l'apprentissage de règles relationnelles est ensuite présenté. Il est fondé sur une stratégie de recherche évolutionnaire qui se distingue principalement des approches classiques par: - des opérateurs de mutation et de croisement dirigés par la théorie du domaine et par les exemples d'apprentissage; - le respect de la relation d'ordre définie sur le langage. L'évaluation du système sur plusieurs bases faisant référence en apprentissage automatique montre que SIAO1 est polyvalent, se compare favorablement aux autres approches et sollicite peu l'utilisateur en ce qui concerne la spécification de biais de recherche ou d'évaluation. La troisième partie de ce travail propose deux architectures parallèles génériques derivées des modèles maître-esclave asynchrone et du pipeline. Elles sont étudiées dans le cadre de l'extraction de connaissances à partir de données à l'aide de SIAO1 du point de vue de l'accélération qu'elles procurent d'une part et de leur capacité à changer d'échelle d'autre part. Un modèle de prédiction simple mais précis des performances de chacune des architectures parallèles est également proposé.
|
632 |
Contribution à l'identification de systèmes non-linéaires en milieu bruité pour la modélisation de structures mécaniques soumises à des excitations vibratoiresSigrist, Zoé 04 December 2012 (has links)
Cette thèse porte sur la caractérisation de structures mécaniques, au travers de leurs paramètres structuraux, à partir d'observations perturbées par des bruits de mesure, supposés additifs blancs gaussiens et centrés. Pour cela, nous proposons d'utiliser des modèles à temps discret à parties linéaire et non-linéaire séparables. La première permet de retrouver les paramètres recherchés tandis que la seconde renseigne sur la non-linéarité présente. Dans le cadre d'une modélisation non-récursive par des séries de Volterra, nous présentons une approche à erreurs-dans-les-variables lorsque les variances des bruits ne sont pas connues ainsi qu'un algorithme adaptatif du type LMS nécessitant la connaissance de la variance du bruit d'entrée. Dans le cadre d'une modélisation par un modèle récursif polynomial, nous proposons deux méthodes à partir d'algorithmes évolutionnaires. La première inclut un protocole d'arrêt tenant compte de la variance du bruit de sortie. Dans la seconde, les fonctions fitness sont fondées sur des fonctions de corrélation dans lesquelles l'influence du bruit est supprimée ou compensée. / This PhD deals with the caracterisation of mechanical structures, by its structural parameters, when only noisy observations disturbed by additive measurement noises, assumed to be zero-mean white and Gaussian, are available. For this purpose, we suggest using discrete-time models with distinct linear and nonlinear parts. The first one allows the structural parameters to be retrieved whereas the second one gives information on the nonlinearity. When dealing with non-recursive Volterra series, we propose an errors-in-variables (EIV) method to jointly estimate the noise variances and the Volterra kernels. We also suggest a modified unbiased LMS algorithm to estimate the model parameters provided that the input-noise variance is known. When dealing with recursive polynomial model, we propose two methods using evolutionary algorithms. The first includes a stop protocol that takes into account the output-noise variance. In the second one, the fitness functions are based on correlation criteria in which the noise influence is removed or compensated.
|
633 |
Modélisation et optimisation des performances acoustiques d'un tablier d'automobile en alliage de magnésiumSy, Djibril January 2010 (has links)
Résumé : Ce projet fait partie du projet MFERD (Magnésium Front End Research and Development) qui vise à développer les technologies permettant de rendre les alliages de Magnésium (Mg) comme un principal matériau structural pour les voitures (aujourd'hui essentiellement constituées d'acier quatre fois plus lourd que le Mg) afin d'en réduire leur masse pour des raisons environnementales et sécuritaires. Dans ce travail de maîtrise nous avons regardé la partie acoustique dans le cas d'un tablier (structure métallique derrière le tableau de bord) en magnésium. En effet, le confort acoustique à l'intérieur des voitures est devenu un argument de marketing d'une grande importance. Le tablier en séparant le compartiment moteur, source de bruit, de l'habitacle, joue un rôle important dans l'isolation acoustique de l'intérieur de la voiture. Ainsi le passage d'un tablier en acier à un tablier en Mg ne doit pas entraîner une baisse de performance. Dans ce travail, nous avons d'abord effectué une revue de la littérature sur les types de traitements acoustiques utilisés dans l'industrie automobile ainsi que des différentes techniques de leur modélisation. Nous avons ensuite comparé les performances acoustiques du tablier en Mg sur lequel on a appliqué des traitements classiques (à une couche, deux couches et trois couches) à celles des tabliers en acier et en aluminium et ce, à masse surfacique, raideur et/ou fréquences de résonnances égales. Finalement nous avons optimisé différents concepts de traitements acoustiques innovants appliqués sur le tablier en Mg en vue d'avoir des performances acoustiques semblables ou supérieures à celles du tablier en acier classique. L'optimisation s'est faite à partir d'un modèle SEA (Statitical Energy Analysis) couplé à un code d'optimisation basé sur un algorithme génétique||Abstract : This work is part of the MFERD (Magnesium Front End Research and Development) project which goal is to develop enabling technologies for the use of magnesium alloys as a principal structural material for cars (mainly made in steel which is four time heavier than magnesium) in order to reduce their mass for both, environmental and security concerns. In this work we have focused on the acoustic part, in the case of a magnesium alloy dash panel. The dash board, by separating the engine compartment from the interior cabin, plays a critical role in the insulation of the car interior. Since the acoustic comfort inside the car has become a marketing argument of great importance, the passage from steel to magnesium dash panel should not deteriorate acoustic performances. In this work, we first conducted a literature review on the types of acoustic treatments used in the automotive industry as well as various techniques of their modeling. We then compared the acoustic performances of a Mg dash with attached traditional acoustic treatments (single-layer, two layers and three layers) to those of a steel and aluminum dash panels with the same mass density, stiffness and/or frequency of resonances. Finally, we optimized different concepts of innovative sound packages applied on the Mg dash panel to achieve a noise performance similar or superior to those of a conventional steel dash. The optimization was done using a SEA (Statitical Energy Analysis) model, coupled with an optimization code based on a genetic algorithm.
|
634 |
Régulation court terme du trafic aérien et optimisation combinatoire Application de la méthode de génération de colonnesRichard, Olivier 29 January 2007 (has links) (PDF)
Ce travail a pour objet la résolution d'un problème combinatoire posé dans le cadre de la régulation court terme (ou dynamique) du trafic aérien. On cherche à déterminer pour chaque vol régulable une trajectoire en 4 dimensions réalisable de manière à respecter les contraintes de capacité des secteurs tout en minimisant la somme des coûts des trajectoires choisies. Le problème est modélisé par un programme linéaire mixte. Une représentation ad hoc du système aérien sert de support à la modélisation fine des trajectoires. Un processus global de résolution basé sur la génération de colonnes couplée à la technique de branch-and-bound est détaillé. Les colonnes du problème représentant des trajectoires, la génération de colonnes par le sous problème de tarification se traduit par la recherche de chemins tridimensionnels sur un réseau continu et dynamique. Un algorithme spécifique basé sur les algorithmes de plus court chemin par marquage et sur la programmation dynamique est développé et testé. Toute la méthode est évaluée sur des instances réelles représentant l'espace aérien géré par la CFMU, l'organisme européen de gestion des flux de trafic aérien. Les résultats obtenus en un temps de calcul compatible avec le contexte opérationnel valident finalement la méthode
|
635 |
Approximations intérieures pour des problèmes de commande optimale. Conditions d'optimalité en commande optimale stochastique.Silva, Francisco 29 November 2010 (has links) (PDF)
Cette thèse est divisée en deux parties. Dans la première partie on s'intéresse aux problèmes de commande optimale déterministes et on étudie des approximations intérieures pour deux problèmes modèles avec des contraintes de non-négativité sur la commande. Le premier modèle est un problème de commande optimale dont la fonction de coût est quadratique et dont la dynamique est régie par une équation différentielle ordinaire. Pour une classe générale de fonctions de pénalité intérieure, on montre comment calculer le terme principal du développement ponctuel de l'état et de l'état adjoint. Notre argument principal se fonde sur le fait suivant: si la commande optimale pour le problème initial satisfait les conditions de complémentarité stricte pour le Hamiltonien sauf en un nombre fini d'instants, les estimations pour le problème de commande optimale pénalisé peuvent être obtenues à partir des estimations pour un problème stationnaire associé. Nos résultats fournissent plusieurs types de mesures de qualité de l'approximation pour la technique de pénalisation: estimations des erreurs de la commande , estimations des erreurs pour l'état et l'état adjoint et aussi estimations de erreurs pour la fonction valeur. Le second modèle est le problème de commande optimale d'une équation semi-linéaire elliptique avec conditions de Dirichlet homogène au bord, la commande étant distribuée sur le domaine et positive. L'approche est la même que pour le premier modèle, c'est-à-dire que l'on considère une famille de problèmes pénalisés, dont la solution définit une trajectoire centrale qui converge vers la solution du problème initial. De cette manière, on peut étendre les résultats, obtenus dans le cadre d'équations différentielles, au contrôle optimal d'équations elliptiques semi-linéaires. Dans la deuxième partie on s'intéresse aux problèmes de commande optimale stochastiques. Dans un premier temps, on considère un problème linéaire quadratique stochastique avec des contraintes de non-negativité sur la commande et on étend les estimations d'erreur pour l'approximation par pénalisation logarithmique. La preuve s'appuie sur le principe de Pontriaguine stochastique et un argument de dualité. Ensuite, on considère un problème de commande stochastique général avec des contraintes convexes sur la commande. L'approche dite variationnelle nous permet d'obtenir un développement au premier et au second ordre pour l'état et la fonction de coût, autour d'un minimum local. Avec ces développements on peut montrer des conditions générales d'optimalité de premier ordre et, sous une hypothèse géométrique sur l'ensemble des contraintes, des conditions nécessaires du second ordre sont aussi établies.
|
636 |
Évaluation et optimisation de systèmes de taxis collectifs en simulationLioris,, Eugénie 17 December 2010 (has links) (PDF)
Le développement économique d'une région urbaine est lié à son accessibilité. Le rôle des taxis est reconnu mondialement mais c'est un moyen très coûteux, pas abordable quotidiennement par tous. Pour abaisser les coûts, il faudrait faire partager le service par plusieurs utilisateurs tout en préservant ses qualités essentielles (trajet presque direct, service porte à porte) en accroissant la productivité de ses véhicules devenus "collectifs". Cette idée a été étudiée en 1971, par P.H. Fargier et G. Cohen, considérée toujours comme révolutionnaire et prématurée par un marché strictement réglementé. Avec une révision de la réglementation, cette extension du service des taxis, si on lui donnait l'opportunité de se mettre en place, pourrait permettre aux taxis de prendre leur part du transport public en s'adressant à la majorité de la population et pas seulement à une minorité de privilégiés pouvant assumer le prix d'un transfert individuel.
|
637 |
Geometrical and kinematic optimization of closed-loop multibody systems/Optimisation géométrique et cinématique de systèmes multicorps avec boucles cinématiquesCollard, Jean-François 16 November 2007 (has links)
In order to improve the design of mechanical or mechatronic systems, mathematical optimization techniques have become an efficient and attractive tool with the increasing development of computer resources. However, the application of such optimization methods to multibody systems (MBS) remains a challenge when the MBS analysis requires the solving of assembly constraints. Hence, this PhD research focuses on the optimization of such closed-loop MBS, particularly when the objective function is of geometrical or kinematic nature.
For kinematic optimization of MBS, we propose two penalty strategies to deal with assembly constraints during optimization. Both strategies are compared and illustrated via applications such as the isotropy maximization of parallel manipulators: the 3-dof Delta robot and the 6-dof Hunt platform.
Following the same strategies, geometrical optimization of MBS is then investigated. However, due to a higher complexity, we propose to relax the problem, combining two modeling approaches: rigid-body and extensible-link formulations. This leads to a two-step strategy which is then successfully applied to synthesize mechanisms for path-following or function-generation problems.
Through these applications, the existence of multiple local optima is highlighted. Therefore, instead of focusing on the unique global optimum solution, we have developed original methods to search and propose several local solutions for the design problem. This approach is called morphological optimization. This enables the designer to choose finally the best solution among several local optima using additional design criteria.
Such morphological optimization techniques open the doors for the topology optimization of MBS which remains a challenging problem for future research / Afin d'améliorer la conception de systèmes mécaniques ou mécatroniques, les techniques d'optimisation mathématique sont devenues un outil efficace et attrayant étant donné le développement croissant des ressources informatiques. Cependant, l'application de telles méthodes d'optimisation sur les systèmes multicorps demeure un défi quand l'analyse du système nécessite la résolution de contraintes d'assemblage. C'est pourquoi cette recherche doctorale se concentre sur l'optimisation de tels systèmes multicorps, particulièrement lorsque la fonction objectif est de nature géométrique ou cinématique.
Pour l'optimisation cinématique des systèmes multicorps, nous proposons deux stratégies de pénalité pour traiter les contraintes d'assemblage en cours d'optimisation. Ces deux stratégies sont comparées et illustrées par des applications telles que la maximisation d'isotropie de manipulateurs parallèles.
Suivant les mêmes stratégies, l'optimisation géométrique des systèmes multicorps est alors étudiée. Cependant, vu la plus grande complexité, nous proposons de relaxer le problème en combinant deux approches de modélisation : une formulation en termes de corps rigides et une autre en termes de liens extensibles. Ceci nous mène à une stratégie en deux étapes qui est alors appliquée avec succès pour la synthèse de mécanismes.
A travers ces applications, on a mis en évidence l'existence d'optimums locaux multiples. Dès lors, plutôt que de se focaliser sur l'unique optimum global, nous avons développé des méthodes originales afin de rechercher et proposer plusieurs solutions locales pour le problème de conception. Cette approche est baptisée "optimisation morphologique". Elle permet au concepteur de choisir finalement la meilleure solution parmi plusieurs optimums locaux en utilisant des critères supplémentaires de conception.
De telles techniques d'optimisation morphologique ouvrent les portes pour l'optimisation topologique des systèmes multicorps qui demeure un challenge motivant pour des recherches futures.
|
638 |
Optimisation polynomiale et variétés polaires : théorie, algorithmes, et implantationsGreuet, Aurélien 05 December 2013 (has links) (PDF)
Le calcul de l'infimum global $f^*$ d'un polynôme à $n$ variables sous contraintes est une question centrale qui apparaît dans de nombreux domaines des sciences de l'ingénieur. Pour certaines applications, il est important d'obtenir des résultats fiables. De nombreuses techniques ont été développées dans le cas où les contraintes sont données par des inéquations polynomiales. Dans cette thèse, on se concentre sur le problème d'optimisation d'un polynôme à $n$ variables sous des contraintes définies par des équations polynomiales à $n$ variables. Notre but est d'obtenir des outils, algorithmes et implémentations efficaces et fiables pour résoudre ces problèmes d'optimisation. Notre stratégie est de ramener le problème d'optimisation sous des contraintes qui définissent des ensembles algébriques de dimension quelconque à un problème équivalent, sous des nouvelles contraintes dont on maîtrise la dimension. La variété algébrique définie par ces nouvelles contraintes est l'union du lieu critique du polynôme objectif et d'un ensemble algébrique de dimension au plus 1. Pour cela, on utilise des objets géométriques définis comme lieux critiques de projections linéaires. Grâce au bon contrôle de la dimension, on prouve l'existence de certificats pour des bornes inférieures sur $f^*$ sur nos nouvelles variétés. Ces certificats sont donnés par des sommes de carrés et on ne suppose pas que $f^*$ est atteint. De même, on utilise les propriétés de nos objets géométriques pour concevoir un algorithme exact pour le calcul de $f^*$. S'il existe, l'algorithme renvoie aussi un minimiseur. Pour un problème avec $s$ contraintes et des polynômes de degrés au plus $D$, la complexité est essentiellement cubique en $(sD)^n$ et linéaire en la complexité d'évaluation des entrées. L'implantation, disponible sous forme de bibliothèque Maple, reflète cette complexité. Elle a permis de résoudre des problèmes inatteignables par les autres algorithmes exacts.
|
639 |
Optimisation du développement de nouveaux produits dans l'industrie pharmaceutique par algorithme génétique multicritère / Multiobjective optimization of New Product Development in the pharmaceutical industryPerez Escobedo, José Luis 03 June 2010 (has links)
Le développement de nouveaux produits constitue une priorité stratégique de l'industrie pharmaceutique, en raison de la présence d'incertitudes, de la lourdeur des investissements mis en jeu, de l'interdépendance entre projets, de la disponibilité limitée des ressources, du nombre très élevé de décisions impliquées dû à la longueur des processus (de l'ordre d'une dizaine d'années) et de la nature combinatoire du problème. Formellement, le problème se pose ainsi : sélectionner des projets de Ret D parmi des projets candidats pour satisfaire plusieurs critères (rentabilité économique, temps de mise sur le marché) tout en considérant leur nature incertaine. Plus précisément, les points clés récurrents sont relatifs à la détermination des projets à développer une fois que les molécules cibles sont identifiées, leur ordre de traitement et le niveau de ressources à affecter. Dans ce contexte, une approche basée sur le couplage entre un simulateur à événements discrets stochastique (approche Monte Carlo) pour représenter la dynamique du système et un algorithme d'optimisation multicritère (de type NSGA II) pour choisir les produits est proposée. Un modèle par objets développé précédemment pour la conception et l'ordonnancement d'ateliers discontinus, de réutilisation aisée tant par les aspects de structure que de logique de fonctionnement, a été étendu pour intégrer le cas de la gestion de nouveaux produits. Deux cas d'étude illustrent et valident l'approche. Les résultats de simulation ont mis en évidence l'intérêt de trois critères d'évaluation de performance pour l'aide à la décision : le bénéfice actualisé d'une séquence, le risque associé et le temps de mise sur le marché. Ils ont été utilisés dans la formulation multiobjectif du problème d'optimisation. Dans ce contexte, des algorithmes génétiques sont particulièrement intéressants en raison de leur capacité à conduire directement au front de Pareto et à traiter l'aspect combinatoire. La variante NSGA II a été adaptée au problème pour prendre en compte à la fois le nombre et l'ordre de lancement des produits dans une séquence. A partir d'une analyse bicritère réalisée pour un cas d'étude représentatif sur différentes paires de critères pour l'optimisation bi- et tri-critère, la stratégie d'optimisation s'avère efficace et particulièrement élitiste pour détecter les séquences à considérer par le décideur. Seules quelques séquences sont détectées. Parmi elles, les portefeuilles à nombre élevé de produits provoquent des attentes et des retards au lancement ; ils sont éliminés par la stratégie d'optimistaion bicritère. Les petits portefeuilles qui réduisent les files d'attente et le temps de lancement sont ainsi préférés. Le temps se révèle un critère important à optimiser simultanément, mettant en évidence tout l'intérêt d'une optimisation tricritère. Enfin, l'ordre de lancement des produits est une variable majeure comme pour les problèmes d'ordonnancement d'atelier. / New Product Development (NPD) constitutes a challenging problem in the pharmaceutical industry, due to the characteristics of the development pipeline, namely, the presence of uncertainty, the high level of the involved capital costs, the interdependency between projects, the limited availability of resources, the overwhelming number of decisions due to the length of the time horizon (about 10 years) and the combinatorial nature of a portfolio. Formally, the NPD problem can be stated as follows: select a set of R and D projects from a pool of candidate projects in order to satisfy several criteria (economic profitability, time to market) while copying with the uncertain nature of the projects. More precisely, the recurrent key issues are to determine the projects to develop once target molecules have been identified, their order and the level of resources to assign. In this context, the proposed approach combines discrete event stochastic simulation (Monte Carlo approach) with multiobjective genetic algorithms (NSGA II type, Non-Sorted Genetic Algorithm II) to optimize the highly combinatorial portfolio management problem. An object-oriented model previously developed for batch plant scheduling and design is then extended to embed the case of new product management, which is particularly adequate for reuse of both structure and logic. Two case studies illustrate and validate the approach. From this simulation study, three performance evaluation criteria must be considered for decision making: the Net Present Value (NPV) of a sequence, its associated risk defined as the number of positive occurrences of NPV among the samples and the time to market. Theyv have been used in the multiobjective optimization formulation of the problem. In that context, Genetic Algorithms (GAs) are particularly attractive for treating this kind of problem, due to their ability to directly lead to the so-called Pareto front and to account for the combinatorial aspect. NSGA II has been adapted to the treated case for taking into account both the number of products in a sequence and the drug release order. From an analysis performed for a representative case study on the different pairs of criteria both for the bi- and tricriteria optimization, the optimization strategy turns out to be efficient and particularly elitist to detect the sequences which can be considered by the decision makers. Only a few sequences are detected. Among theses sequences, large portfolios cause resource queues and delays time to launch and are eliminated by the bicriteria optimization strategy. Small portfolio reduces queuing and time to launch appear as good candidates. The optimization strategy is interesting to detect the sequence candidates. Time is an important criterion to consider simultaneously with NPV and risk criteria. The order in which drugs are released in the pipeline is of great importance as with scheduling problems.
|
640 |
Méthodes proximales pour la résolution de problèmes inverses : application à la tomographie par émission de positrons / Proximal methods for the resolution of inverse problems : application to positron emission tomographyPustelnik, Nelly 13 December 2010 (has links)
L'objectif de cette thèse est de proposer des méthodes fiables, efficaces et rapides pour minimiser des critères convexes apparaissant dans la résolution de problèmes inverses en imagerie. Ainsi, nous nous intéresserons à des problèmes de restauration/reconstruction lorsque les données sont dégradées par un opérateur linéaire et un bruit qui peut être non additif. La fiabilité de la méthode sera assurée par l'utilisation d'algorithmes proximaux dont la convergence est garantie lorsqu'il s'agit de minimiser des critères convexes. La quête d'efficacité impliquera le choix d'un critère adapté aux caractéristiques du bruit, à l'opérateur linéaire et au type d'image à reconstruire. En particulier, nous utiliserons des termes de régularisation basés sur la variation totale et/ou favorisant la parcimonie des coefficients du signal recherché dans une trame. L'utilisation de trames nous amènera à considérer deux approches : une formulation du critère à l'analyse et une formulation du critère à la synthèse. De plus, nous étendrons les algorithmes proximaux et leurs preuves de convergence aux cas de problèmes inverses multicomposantes. La recherche de la rapidité de traitement se traduira par l'utilisation d'algorithmes proximaux parallélisables. Les résultats théoriques obtenus seront illustrés sur différents types de problèmes inverses de grandes tailles comme la restauration d'images mais aussi la stéréoscopie, l'imagerie multispectrale, la décomposition en composantes de texture et de géométrie. Une application attirera plus particulièrement notre attention ; il s'agit de la reconstruction de l'activité dynamique en Tomographie par Emission de Positrons (TEP) qui constitue un problème inverse difficile mettant en jeu un opérateur de projection et un bruit de Poisson dégradant fortement les données observées. Pour optimiser la qualité de reconstruction, nous exploiterons les caractéristiques spatio-temporelles de l'activité dans les tissus / The objective of this work is to propose reliable, efficient and fast methods for minimizing convex criteria, that are found in inverse problems for imagery. We focus on restoration/reconstruction problems when data is degraded with both a linear operator and noise, where the latter is not assumed to be necessarily additive.The methods reliability is ensured through the use of proximal algorithms, the convergence of which is guaranteed when a convex criterion is considered. Efficiency is sought through the choice of criteria adapted to the noise characteristics, the linear operators and the image specificities. Of particular interest are regularization terms based on total variation and/or sparsity of signal frame coefficients. As a consequence of the use of frames, two approaches are investigated, depending on whether the analysis or the synthesis formulation is chosen. Fast processing requirements lead us to consider proximal algorithms with a parallel structure. Theoretical results are illustrated on several large size inverse problems arising in image restoration, stereoscopy, multi-spectral imagery and decomposition into texture and geometry components. We focus on a particular application, namely Positron Emission Tomography (PET), which is particularly difficult because of the presence of a projection operator combined with Poisson noise, leading to highly corrupted data. To optimize the quality of the reconstruction, we make use of the spatio-temporal characteristics of brain tissue activity
|
Page generated in 0.0499 seconds