• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 6
  • 4
  • 1
  • Tagged with
  • 29
  • 18
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Robustesse des applications temps-réel multicoeurs : techniques de construction d'un ordonnacement équitable tolérant aux pannes matérielles / Robustness of Multicore Real-Time Apllications : Building Techniques for Processor Failures Tolerant Scheduling

Mouafo Tchinda, Yves 12 October 2017 (has links)
Cette thèse propose des techniques de construction d'une séquence d'ordonnancement valide par un algorithme équitable pour des systèmes temps-réel multicoeurs subissant des pannes processeurs permanentes. Selon la nature des tâches les concepteurs peuvent allouer ou pas du temps supplémentaire pour récupérer l'exécution perdue. Dans un premier temps, nous traitons le cas de la défaillance d'un seul coeur. Nous montrons alors que s'il n'y a pas d'allocation de temps supplémentaire, prévoir un coeur de plus que le minimum nécessaire permet de construire une séquence valide : c'est la Technique de la Redondance Matérielle Limitée. Toutefois, si une telle allocation s'impose, nous proposons trois techniques : la Technique des Sous-tâches de Substitution qui augmente le WCET des tâches afin de prévoir du temps additionnel en remplacement du temps perdu, la Technique Contraindre puis Relâcher qui crée une marge de temps entre le délai critique et la période d'une tâche pour rattraper l'exécution perdue et la Technique du Flux Apériodique (TFA) qui réordonnance l'exécution perdue dans les unités de temps creux équitablement réparties. Ensuite, l'utilisation conjointe de ces techniques est envisagée en fonction de la nature des tâches impactées. Enfin, le cas de la défaillance de plusieurs coeurs est étudié. Pour ajuster la charge du système au nombre de coeurs fonctionnels, deux approches sont proposées : le changement de mode de criticité qui modifie les paramètres temporels de certaines tâches et l'abandon de certaines tâches en fonction de leur importance dans le système. / This thesis proposes several techniques to build a valid schedule with a Pfair algorithm for multicore real-time systems despite permanent processor failures. Depending on the nature of the tasks, additional time may be allocated or not to recover the lost execution. First, we consider a single core failure. We then show that if no additional time is allocated, the use of a single more core than the required minimum provides a valid schedule : it is the Limited Hardware Redundancy Technique. However, if full recovery is mandatory, we propose three techniques : the Substitute Subtasks Technique which increases the WCET to provide additionnal time which can be used to recover the lost time, the Constrain and Release Technique which creates a time margin between each task's deadline and the following period which can be used to recover the lost execution and the Aperiodic Flow Technique which reschedules the lost execution within the idle time units. Then, these techniques are mixed to adapt the scheduling behaviour to the nature of the impacted tasks. Finally, the case of the failure of several cores is studied.To adapt the system load to the number of remaining functionnal cores we use the criticality mode change which modifies the temporal parameters of some tasks or we discard some tasks according to their importance.
2

Toward unifying on-board intelligent transportation systems architecture in public transports / Vers l'unification des architectures embarquées de systèmes de transport intelligents appliquée aux transports publics

Sciandra, Vincent 19 December 2013 (has links)
Cette thèse s'inscrit dans une démarche Européenne de recherche sous l'égide du projet European Bus System of the Futur (EBSF). Ce projet vise à définir le bus de demain et de préparer son architecture embarquée, aux systèmes de transport intelligents (STI) critiques ou de divertissement, de plus en plus présents dans les véhicules. Les systèmes autrefois hétérogènes et autonomes, devrons à l'avenir communiquer sur une architecture orientée service (SOA) unique. L'objectif est d'optimiser le fonctionnement de l'architecture dans son ensemble grâce à des protocoles de communication ouverts et standards. C'est à partir de cette base, à laquelle nous avons activement apportée notre contribution, que notre thèse s'appuie. Le dimensionnement et la validation de ces architectures sont restés des éléments sans réponse à la suite du projet EBSF. Cette thèse présente premièrement une méthode dimensionnement des architectures STI basée sur les méthodes de décision multi-critères. Nous nous basons sur une étude poussée des besoins opérationnels collectés tout au long de la thèse. Dans un deuxième temps, nous adaptons le modèle de Criticité Mixte, définit dans le domaine du temps réel, aux flux de communication entre le véhicule et l'infrastructure. Enfin nous présentons les travaux réalisés dans le cadre de la standardisation européenne afin de promouvoir ce type d'architecture et les travaux de cette thèse / Intelligent Transportation systems (ITS) are massively used in the Public Transport sector since the Two decades. This profusion of systems on-board and off-board vehicles generates inter-operability issues. The growth of urban zones and the increase of public transport attractiveness, brought multi-modal constraints that are today limited due to a lack of architecture vision embracing all ITS. This thesis proposes to unify the architecture vision of on-board ITS. We based our technical architecture on the Service Oriented Architecture (SOA) proposed in the European Bus System of the Future (EBSF) project, in which this thesis actively contributed. We study first the global requirements of different transportation modes operated in Europe. Those requirements are a basis to the definition of technical constraints of a global architecture. Those constraints are ranked in terms of importance using a proposed method based on Multi-Criteria Decision Making (MCDM) techniques. The method that we propose permits to size the technical architecture. We then study the flow management of data, considering the context of operation of vehicles and the criticality of ITS applications. We propose to adapt the Real-time Mixed-Criticality model to communication systems on-board the vehicles. We apply this method on a communication gateway of a bus, through its journey. Finally we present the work done at the standardization level (CEN) in order promote the global architecture vision presented in the thesis
3

Accélération de la convergence dans le code de transport de particules Monte-Carlo TRIPOLI-4® en criticité / Convergence acceleration in the Monte-Carlo particle transport code TRIPOLI-4® in criticality

Dehaye, Benjamin 05 December 2014 (has links)
Un certain nombre de domaines tels que les études de criticité requièrent le calcul de certaines grandeurs neutroniques d'intérêt. Il existe deux types de code : les codes déterministes et les codes stochastiques. Ces derniers sont réputés simuler la physique de la configuration traitée de manière exacte. Toutefois, le temps de calcul nécessaire peut s'avérer très élevé.Le travail réalisé dans cette thèse a pour but de bâtir une stratégie d'accélération de la convergence de la criticité dans le code de calcul TRIPOLI-4®. Nous souhaitons mettre en œuvre le jeu à variance nulle. Pour ce faire, il est nécessaire de calculer le flux adjoint. L'originalité de cette thèse est de calculer directement le flux adjoint par une simulation directe Monte-Carlo sans passer par un code externe, grâce à la méthode de la matrice de fission. Ce flux adjoint est ensuite utilisé comme carte d'importance afin d'accélérer la convergence de la simulation. / Fields such as criticality studies need to compute some values of interest in neutron physics. Two kind of codes may be used : deterministic ones and stochastic ones. The stochastic codes do not require approximation and are thus more exact. However, they may require a lot of time to converge with a sufficient precision.The work carried out during this thesis aims to build an efficient acceleration strategy in the TRIPOLI-4®. We wish to implement the zero variance game. To do so, the method requires to compute the adjoint flux. The originality of this work is to directly compute the adjoint flux directly from a Monte-Carlo simulation without using external codes thanks to the fission matrix method. This adjoint flux is then used as an importance map to bias the simulation.
4

L'expérience MUSE-4 : Mesure des paramètres cinétiques d'un système sous-critique

Vollaire, Joachim 08 October 2004 (has links) (PDF)
Les réacteurs hybrides, basés sur le couplage entre une source externe de neutrons et un coeur sous-critique, offrent des possibilités d'incinération des déchets radioactifs. Afin de mieux comprendre la spécificité neutronique d'un tel système, durant le programme expérimental MUSE IV, le réacteur expérimental MASURCA (CEA Cadarache) a été couplé à la source de neutrons GENEPI réalisée au LPSC Grenoble. Ce dispositif a permis de mettre au point une technique de mesure en ligne du facteur de multiplication effectif du réacteur. Cette mesure tire profit des caractéristiques de la réponse du réacteur en fonction du facteur de multiplication aux échelles de temps des phénomènes de fission prompts et retardés. L'analyse des expériences montre que la méthode proposée permet d'obtenir des résultats en accord avec ceux déduits grâce aux techniques classiques de mesure de réactivité qui ne peuvent cependant pas être utilisées dans un réacteur hybride de puissance.
5

Analyse statique de l'effet des erreurs de configuration dans des FGPA configurés par SRAM et amélioration de robustesse

Ferron, Jean-baptiste 26 March 2012 (has links) (PDF)
Cette thèse s'intéresse en premier lieu à l'analyse des effetsfonctionnels des erreurs dans laconfiguration de FPGAs à base de SRAM. Ces erreurs peuvent provenir deperturbations naturelles(rayonnements, particules) ou d'attaques volontaires, par exemple avecun laser. La famille Virtex IIde Xilinx est utilisée comme premier cas pratique d'expérimentation,puis une comparaison est réaliséeavec la famille AT40K de chez ATMEL. Ceci a permis de mieux comprendrel'impact réel dedifférentes sources de perturbations, et les motifs d'erreur devantréellement être pris en compte pouraméliorer la robustesse d'un circuit implanté sur ce type detechnologie. Cette étude a nécessité ledéveloppement d'outils de conception spécifiques, permettantd'automatiser les analyses. Uneméthodologie innovante est proposée pour l'évaluation de lasensibilité de la mémoire de configurationaux SEUs : une classification des bits de configuration est établie enfonction des effets produits parleur inversion sur le fonctionnement normal de l'application. Cecipermet de déterminer les zones lesplus critiques, autorisant le développement de stratégies deprotection sélectives et à faible coût.
6

Suppression du régime transitoire initial des simulations Monte-Carlo de criticité

Richet, Yann 13 December 2006 (has links) (PDF)
Les calculs Monte-Carlo de criticité permettent d'estimer le facteur de multiplication effectif ("k-effectif") d'un système fissile au cours d'itérations simulant la propagation d'une population de neutrons, formant une chaîne de Markov. L'initialisation arbitraire de la population des neutrons simulés peut biaiser fortement l'estimation du k-effectif du système, défini comme la moyenne de la séquence des k-effectifs estimés à chaque itération. Un modèle simplifié de cette séquence de k-effectifs d'étapes est établi à partir du contexte technique d'exploitation industrielle des calculs Monte-Carlo de criticité. Des tests statistiques, inspirés des propriétés du pont brownien, sont construits pour discriminer la stationnarité de la séquence des k-effectifs d'étapes. Le régime transitoire initial éventuellement détecté est alors supprimé pour améliorer l'estimation du k-effectif du système. Les différentes déclinaisons de cette méthodologie sont détaillées puis comparées, d'une part sur un plan d'expériences représentatif des calculs Monte-Carlo de criticité, et d'autre part sur des calculs réels de configurations de criticité. Finalement, les performances observées sur ces applications permettent d'envisager une exploitation pertinente dans les calculs Monte-Carlo de criticité industriels.
7

Supercritical fluids synthesis, characterization and test of HDS catalysts : Assessment of criticality of metals contained in HDS catalysts / Synthèse en milieux supercritiques, caractérisation et tests de catalyseurs d´hydrodésulfuration (HDS) : Evaluation de la criticité des éléments contenus dans les catalyseurs HDS

Quilfen, Cyril 15 December 2016 (has links)
Dans un contexte environnemental où les législations concernant la teneur ensoufre présent dans les coupes pétrolières sont de plus en plus drastiques, le développementde nouveaux catalyseurs toujours plus actifs est donc nécessaire. Cette augmentation del´activité catalytique est possible à plusieurs niveaux dont, par exemple, par l´utilisation denouveaux procédés de synthèse tel que l´emploi de la voie fluides supercritiques. Dans unpremier temps, l´objectif est d´étudier les éléments utilisés pour préparer ces catalyseurs afind´avoir une vision plus large des réserves, des utilisations, des possibilités de substitutions…La criticité de ces éléments a donc été évaluée par le biais de plusieurs indicateurs. Dans unsecond temps, la compréhension de la synthèse de catalyseurs d´hydrodésulfuration (HDS) aété étudiée. Pour cela des expériences utilisant différents solvants et précurseurs métalliquesont été suivies via des analyses in situ Raman. Après avoir défini les résultats les plusprobants, le procédé de préparation de catalyseurs HDS assisté par le CO2 supercritique(scCO2) a été optimisé à travers une étude paramétrique. Pour cela, la température, lapression, le solvant d´imprégnation, le ratio entre CO2 et solvant d´imprégnation, le temps deréaction et le chargement en métaux ont été variés. Les matériaux obtenus ont ensuite étéfinement caractérisés (microscopie, DRX, Raman, ICP, microsonde) avant d´être activés parsulfuration et testés dans différentes réactions catalytiques (hydrogénation du toluène,hydrodésulfuration du dibenzothiophène et du 4,6-diméthyldibenzothiophène). / In an environmental context where legislations concerning the sulfur content in oilare increasingly drastic, the research for new and ever more active catalysts is necessary. Thisincrease of the catalytic activity is possible at several levels, for example, with the use of novelsynthetic processes such as the use of the supercritical fluids route. In a first stage, theobjective is to study the elements used to prepare these catalysts in order to have a broaderview of the reserves, the uses, the possibility of substitutions ... The criticality of these elementshas therefore been evaluated by means of several indicators. In a second stage, theunderstanding of the synthesis of hydrodesulfurization catalysts (HDS) was studied. For thispurpose, experiments using different solvents and metallic precursors were followed by in situRaman analyses. After defining the most convincing results, the process for preparing HDScatalysts assisted by supercritical CO2 medium (scCO2) was optimized through a parametricstudy. For this, temperature, pressure, impregnation solvent, ratio of CO2 to impregnationsolvent, reaction time and metal loading were varied. The materials obtained were thencharacterized (microscopy, DRX, Raman, ICP, microprobe) before being activated bysulfidation and tested in various catalytic reactions (hydrogenation of toluene,hydrodesulfurization of dibenzothiophene and 4,6-dimethyldibenzothiophene).
8

Conscience du risque et attitudes face aux risques chez les motocyclistes / Risk awareness and attitudes toward risk among motocyclists

Banet, Aurelie 22 December 2010 (has links)
Cette recherche porte sur la conscience du risque chez différentes populations de motocyclistes. Il s’agit plus spécifiquement d’appréhender cette notion de « Conscience du Risque » selon deux points de vue complémentaires : celui de la Psychologie Sociale, qui traite des attitudes face aux risques et à la prise de risque, et celui de la Psychologie Cognitive, qui traite des compétences et des capacités du sujet à apprécier le risque « en situation ». La méthodologie mise en place propose un continuum entre ces deux dimensions.Un premier protocole (ARTIQ) porte sur les attitudes et vise à identifier des profils de motocyclistes sous l’angle particulier du risque et de la prise de risque. Le second protocole (CRITIC) repose sur les compétences cognitives des participants dans leurs évaluations du risque de 25 situations de conduite. Ce dispositif expérimental a été utilisé auprès de cinq populations de motocyclistes différentes (Bikers, Utilitaristes, Sportifs, Novices et Débutants), en fonction de leur expérience de conduite et de leurs pratiques respectives de la moto. Les résultats montrent certaines spécificités propres à chaque population, tant que pour ce qui est de leurs attitudes face aux risques que pour leur compétence dans l’évaluation du risque en situation. Ils permettent ainsi de valider l’efficacité et l’intérêt de notre protocole dans une perspective de classification des motocyclistes, selon leurs profils vis-à-vis du risque et de la prise de risque au guidon. / This is a research on risk awareness in different populations of motorcyclists.More specifically, this notion of “Risk Awareness” is to be observed under two complementary perspectives: social psychology dealing with attitudes toward risk and risk taking, and Cognitive Psychology dealing with the subject’s skills and abilities to evaluate risk “in situation”. The methodology that has been developed offers a continuum between these two dimensions.The first protocol (ARTIQ) deals with the attitudes and aims at identifying profiles of motorcyclists under the specific angle of risk and risk taking.The second protocol (CRITIC) is based on the participants’ cognitive skills to evaluate risk in 25 driving situations. This experimental protocol has been used among five different populations of motorcyclists (Bikers, Commuters, Sport Motorcyclists, Novices, Inexperienced Motorcyclists) according to their own driving experience and respective riding practices.The results reveal some characteristics peculiar to each population regarding their attitude toward risks as well as their skill to evaluate risk in situation. These characteristics confirm the effectiveness and the interest of our protocol to classify motorcyclists according to their profiles toward risk and risk taking while riding.
9

Une approche efficace et polyvalente pour l'ordonnancement de systèmes à criticité mixte sur processeur multi-coeurs / Versatile and efficient mixed–criticality scheduling for multi-core processors

Gratia, Romain 06 January 2017 (has links)
Ce document présente nos contributions aux algorithmes d'ordonnancement à criticité mixte pour multi-processeurs. La correction de l'exécution des applications temps réel critiques est assurée par l'utilisation d'un ordonnancement vérifié à la conception. Dans ce contexte, le dimensionnement des plate-formes d'exécution vise à minimiser le nombre de processeurs nécessaires pour assurer un ordonnancement correct. Ce dimensionnement est affecté par les exigences de sûreté de fonctionnement. Ces exigences poussent à surestimer le temps nécessaire garantissant l'exécution correcte des applications. Il en découle un dimensionnement assez coûteux. Les méthodes d'ordonnancement des systèmes à criticité mixte proposent des compromis sur les garanties d'exécution des applications améliorant le dimensionnement. Différents compromis ont été proposés mais tous reposent sur la notion de mode d'exécution. Les modes sont ordonnés, et les tâches voient leur temps d'exécution requis croître avec les modes. Cependant, afin de diminuer le dimensionnement du système, seul l'ordonnancement des tâches les plus critiques est garanti. Ce modèle est appelé "discarding". La majorité des algorithmes proposés se limitent à deux modes d'exécutions par simplicité. De plus, les algorithmes les plus efficaces pour multi-processeurs exhibent un nombre élevé de préemptions, ce qui constitue un frein à leur adoption. Finalement, ces algorithmes sont rarement généralisables. Pourtant, la prise en compte de plus de deux modes, ou de tâches aux périodes élastiques permettrait une adoption plus large par le milieu industriel. L'approche proposée repose sur la séparation des préoccupations entre la prise en compte des modes de fonctionnement, et l'ordonnancement des tâches sur multi-processeurs. Cette méthode permet de concevoir une politique d'ordonnancement efficace et adaptable à différents modèles de systèmes à criticité mixte. Notre approche consiste à transformer un lot de tâches à criticité mixte en un lot de tâches qui n'est plus à criticité mixte. Ceci nous permet d'utiliser un algorithme d'ordonnancement temps réel optimal engendrant peu de préemptions et de migrations, à savoir RUN. Cette approche, appliquée en premier pour le modèle discarding avec deux modes d'exécution, rempli son objectif d'efficacité. Nous illustrons sa généricité en utilisant le même principe pour ordonnancer des systèmes discarding avec plus de deux modes d'exécution. Enfin, une démarche reposant sur la décomposition de tâche permet de généraliser l'approche au cas des tâches élastiques. / This thesis focuses on the scheduling of mixed-criticality scheduling algorithms for multi-processors. The correctness of the execution of the real-time applications is ensured by a scheduler and is checked during the design phase. The execution platform sizing aims at minimising the number of processors required to ensure this correct scheduling. This sizing is impacted by the safety requirements. Indeed, these requirements tend to overestimate the execution times of the applications to ensure their correct executions. Consequently, the resulting sizing is costly. The mixed-criticality scheduling theory aims at proposing compromises on the guarantees of the execution of the applications to reduce this over-sizing. Several models of mixed-criticality systems offering different compromises have been proposed but all are based on the use of execution modes. Modes are ordered and tasks have non decreasing execution times in each mode. Yet, to reduce the sizing of the execution platform, only the execution of the most critical tasks is ensured. This model is called the discarding model. For simplicity reasons, most of the mixed-criticality scheduling algorithms are limited to this model. Besides, the most efficient scheduling policies for multi-processors entail too many preemptions and migrations to be actually used. Finally, they are rarely generalised to handle different models of mixed-criticality systems. However, the handling of more than two execution modes or of tasks with elastic periods would make such solutions more attractive for the industry. The approach proposed in this thesis is based on the separation of concerns between handling the execution modes and the scheduling of the tasks on the multi-processors. With this approach, we achieve to design an efficient scheduling policy that schedules different models of mixed-criticality systems. It consists in performing the transformation of a mixed-criticality task set into a non mixed-criticality one. We then schedule this task set by using an optimal hard real-time scheduling algorithm that entails few preemptions and migrations: RUN. We first apply our approach on the discarding model with two execution modes. The results show the efficiency of our approach for such model. Then, we demonstrate the versatility of our approach by scheduling systems of the discarding model with more than two execution modes. Finally, by using a method based on the decomposition of task execution, our approach can schedule systems based on elastic tasks.
10

Le Crédit Burnup des combustibles REP-MOx français : méthodologie et conservatismes associés à l'évaluation JEFF-3.1.1.

Chambon, Amalia 17 October 2013 (has links) (PDF)
En règle générale, les études de sûreté-criticité concernant les combustibles usés stockés, transportés ou retraités sont très conservatives et considèrent ce combustible comme neuf donc le plus réactif possible. Le " Crédit Burn-up " (CBU) est la prise en compte de l'antiréactivité du combustible irradié par rapport au combustible neuf. Une méthodologie CBU rigoureuse, développée par le CEA en collaboration avec AREVA-NC a récemment été validée et réévaluée pour les combustibles REP-UOx. Cependant, 22 réacteurs sur les 58 que compte la France utilisent également du combustible MOx. De plus en plus d'assemblages MOx irradiés doivent donc être entreposés et transportés, ce qui conduit les industriels à s'intéresser à la prise en compte du CBU pour ces applications, dans le but de pouvoir gagner des marges en terme de dimensionnement des installations. Des publications récentes et les travaux du Groupe de Travail Français sur le CBU ont souligné l'importance de la prise en compte des 15 produits de fission stables et non volatiles les plus absorbants qui sont à l'origine de la moitié de l'antiréactivité totale apportée dans les combustibles REP-MOx. C'est pourquoi, dans le but de garantir la sous-criticité de la configuration étudiée suivant les dispositions règlementaires relatives à la sûreté des installations, les biais de calcul affectant leur bilan-matière et leur effet individuel en réactivité doivent également être pris en considération dans les études de sûreté-criticité s'appuyant sur des calculs de criticité. Dans ce contexte, une revue bibliographique exhaustive a permis d'identifier les particularités des combustibles REP-MOx et une démarche rigoureuse a été suivie afin de proposer une méthodologie CBU adaptée à ces combustibles validée et physiquement représentative, permettant de prendre en compte les produits de fission et permettant d'évaluer les biais liés au bilan-matière et à l'antiréactivité des isotopes considérés. Cette démarche s'est articulée autour des études suivantes : * détermination de facteurs correctifs isotopiques permettant de garantir le conservatisme du calcul de criticité sur la base de la qualification du formulaire d'évolution DARWIN-2.3 pour les applications REP-MOx et d'une analyse des données nucléaires des produits de fission métalliques afin de déterminer l'impact des incertitudes associées sur le calcul de leur bilan matière ; * évaluation de l'antiréactivité individuelle des produits de fission sur la base des résultats d'interprétation des expériences d'oscillation des programmes CBU et MAESTRO, réalisés dans le réacteur expérimental MINERVE à Cadarache, avec le formulaire dédié PIMS développé au SPRC/LEPh avec mise à jour des schémas de calcul pour la criticité ; * élaboration de matrices de covariances réalistes associées à la capture de deux des principaux produits de fission du CBU REP-MOx : 149Sm et le 103Rh associées à l'évaluation JEFF-3.1.1 ; * détermination des biais et incertitudes " a posteriori " dus aux données nucléaires des actinides et produits de fission considérés pour deux applications industrielles (piscine d'entreposage et château de transport) par une étude de transposition réalisée avec l'outil RIB, développé au SPRC/LECy, qui a bénéficié à cette occasion de développements spécifiques et de mises à jour des données utilisées (importation des données de covariance issues de la bibliothèque COMAC V0 associée à JEFF-3.1.1 pour les isotopes 235,238U, 238,239,240,241,242Pu, 241Am et 155Gd et prise en compte des corrélations inter-réactions pour un même isotope). * évaluation de la méthodologie proposée pour deux applications industrielles (piscine d'entreposage et château de transport), démonstration de son intérêt et de sa robustesse.

Page generated in 0.0661 seconds