• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 7
  • 1
  • Tagged with
  • 23
  • 23
  • 11
  • 10
  • 9
  • 9
  • 8
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Développement d'un système in situ à base de tâches pour un code de dynamique moléculaire classique adapté aux machines exaflopiques / Integration of High-Performance Task-Based In Situ for Molecular Dynamics on Exascale Computers

Dirand, Estelle 06 November 2018 (has links)
L’ère de l’exascale creusera encore plus l’écart entre la vitesse de génération des données de simulations et la vitesse d’écriture et de lecture pour analyser ces données en post-traitement. Le temps jusqu’à la découverte scientifique sera donc grandement impacté et de nouvelles techniques de traitement des données doivent être mises en place. Les méthodes in situ réduisent le besoin d’écrire des données en les analysant directement là où elles sont produites. Il existe plusieurs techniques, en exécutant les analyses sur les mêmes nœuds de calcul que la simulation (in situ), en utilisant des nœuds dédiés (in transit) ou en combinant les deux approches (hybride). La plupart des méthodes in situ traditionnelles ciblent les simulations qui ne sont pas capables de tirer profit du nombre croissant de cœurs par processeur mais elles n’ont pas été conçues pour les architectures many-cœurs qui émergent actuellement. La programmation à base de tâches est quant à elle en train de devenir un standard pour ces architectures mais peu de techniques in situ à base de tâches ont été développées.Cette thèse propose d’étudier l’intégration d’un système in situ à base de tâches pour un code de dynamique moléculaire conçu pour les supercalculateurs exaflopiques. Nous tirons profit des propriétés de composabilité de la programmation à base de tâches pour implanter l’architecture hybride TINS. Les workflows d’analyses sont représentés par des graphes de tâches qui peuvent à leur tour générer des tâches pour une exécution in situ ou in transit. L’exécution in situ est rendue possible grâce à une méthode innovante de helper core dynamique qui s’appuie sur le concept de vol de tâches pour entrelacer efficacement tâches de simulation et d’analyse avec un faible impact sur le temps de la simulation.TINS utilise l’ordonnanceur de vol de tâches d’Intel® TBB et est intégré dans ExaStamp, un code de dynamique moléculaire. De nombreuses expériences ont montrées que TINS est jusqu’à 40% plus rapide que des méthodes existantes de l’état de l’art. Des simulations de dynamique moléculaire sur des système de 2 milliards de particles sur 14,336 cœurs ont montré que TINS est capable d’exécuter des analyses complexes à haute fréquence avec un surcoût inférieur à 10%. / The exascale era will widen the gap between data generation rate and the time to manage their output and analysis in a post-processing way, dramatically increasing the end-to-end time to scientific discovery and calling for a shift toward new data processing methods. The in situ paradigm proposes to analyze data while still resident in the supercomputer memory to reduce the need for data storage. Several techniques already exist, by executing simulation and analytics on the same nodes (in situ), by using dedicated nodes (in transit) or by combining the two approaches (hybrid). Most of the in situ techniques target simulations that are not able to fully benefit from the ever growing number of cores per processor but they are not designed for the emerging manycore processors.Task-based programming models on the other side are expected to become a standard for these architectures but few task-based in situ techniques have been developed so far. This thesis proposes to study the design and integration of a novel task-based in situ framework inside a task-based molecular dynamics code designed for exascale supercomputers. We take benefit from the composability properties of the task-based programming model to implement the TINS hybrid framework. Analytics workflows are expressed as graphs of tasks that can in turn generate children tasks to be executed in transit or interleaved with simulation tasks in situ. The in situ execution is performed thanks to an innovative dynamic helper core strategy that uses the work stealing concept to finely interleave simulation and analytics tasks inside a compute node with a low overhead on the simulation execution time.TINS uses the Intel® TBB work stealing scheduler and is integrated into ExaStamp, a task-based molecular dynamics code. Various experiments have shown that TINS is up to 40% faster than state-of-the-art in situ libraries. Molecular dynamics simulations of up to 2 billions particles on up to 14,336 cores have shown that TINS is able to execute complex analytics workflows at a high frequency with an overhead smaller than 10%.
12

Visualisation distante temps-réel de grands volumes de données

Barbier, Sébastien 26 October 2009 (has links) (PDF)
La simulation numérique génère des maillages de plus en plus gros pouvant atteindre plusieurs dizaines de millions de tétraèdres. Ces ensembles doivent être visuellement analysés afin d'acquérir des connaissances relatives aux données physiques simulées pour l'élaboration de conclusions. Les capacités de calcul utilisées pour la visualisation scientifique de telles données sont souvent inférieures à celles mises en oeuvre pour les simulations numériques. L'exploration visuelle de ces ensembles massifs est ainsi difficilement interactive sur les stations de travail usuelles. Au sein de ce mémoire, nous proposons une nouvelle approche interactive pour l'exploration visuelle de maillages tétraédriques massifs pouvant atteindre plus de quarante millions de cellules. Elle s'inscrit pleinement dans le procédé de génération des simulations numériques, reposant sur deux maillages à résolution différente -- un fin et un grossier -- d'une même simulation. Une partition des sommets fins est extraite guidée par le maillage grossier permettant la reconstruction à la volée d'un maillage dit birésolution, mélange des deux résolutions initiales, à l'instar des méthodes multirésolution usuelles. L'implantation de cette extraction est détaillée au sein d'un processeur central, des nouvelles générations de cartes graphiques et en mémoire externe. Elles permettent d'obtenir des taux d'extraction inégalés par les précédentes approches. Afin de visualiser ce maillage, un nouvel algorithme de rendu volumique direct implanté entièrement sur carte graphique est proposé. Un certain nombre d'approximations sont réalisées et évaluées afin de garantir un affichage interactif des maillages birésolution.
13

Simulation de la diffusion de la lumière et des gaz par techniques de Monte Carlo

Blasi, Philippe 19 December 1996 (has links) (PDF)
La synthèse d'images réalistes nécessite la modélisation précise des interactions de la lumière avec la matière (réflexion, réfraction, diffusion) et des échanges d'énergie lumineuse entre les objets de la scène. Cette modélisation, très complexe si l'on ne fait pas d'hypothèses restrictives, peut être efficacement réalisée par simulation de Monte Carlo. Dans le présent travail, nous définissons tout d'abord une méthode complète d'illumination de scène, fondée sur une simulation de Monte Carlo d'un modèle "particulaire" de la lumière. Dans un premier temps, nous développons cette simulation pour les milieux participants. Nous diminuons la variance de la simulation par un calcul exact de l'absorption. Nous étendons ensuite ce travail aux objets surfaciques et proposons une technique de regroupement de photons pour obtenir une efficacité constante à chaque pas de calcul. Dans la deuxième partie de ce travail, nous étudions l'application de cette méthode à la visualisation des champs scalaires tri-dimensionnels, puis l'application de certaines techniques issues de la synthèse d'images (facettisation, de données volumiques, partitionnement spatial, images de distance, ...) à la simulation de la diffusion des gaz, présentant de nombreuses similitudes avec la simulation de la diffusion de la lumière.
14

A la recherche de la haute performance pour les codes de calcul et la visualisation scientifique / Searching for the highest performance for simulation codes and scientific visualization

Colin de Verdière, Guillaume 16 October 2019 (has links)
Cette thèse vise à démontrer que l'algorithmique et la programmation, dans un contexte de calcul haute performance (HPC), ne peuvent être envisagées sans tenir compte de l'architecture matérielle des supercalculateurs car cette dernière est régulièrement remise en cause.Après avoir rappelé quelques définitions relatives aux codes et au parallélisme, nous montrons que l'analyse des différentes générations de supercalculateurs, présents au CEA lors de ces 30 dernières années, permet de dégager des points de vigilances et des recommandations de bonnes pratiques en direction des développeurs de code.En se reposant sur plusieurs expériences, nous montrons comment viser une performance adaptée aux supercalculateurs et comment essayer d'atteindre la performance portable voire la performance extrême dans le monde du massivement parallèle, incluant ou non l'usage de GPU.Nous expliquons que les logiciels et matériels dédiés au dépouillement graphique des résultats de calcul suivent les mêmes principes de parallélisme que pour les grands codes scientifiques, impliquant de devoir maîtriser une vue globale de la chaîne de simulation. Enfin, nous montrons quelles sont les tendances et contraintes qui vont s'imposer à la conception des futurs supercalculateurs de classe exaflopique, impactant de fait le développement des prochaines générations de codes de calcul. / This thesis aims to demonstrate that algorithms and coding, in a high performance computing (HPC) context, cannot be envisioned without taking into account the hardware at the core of supercomputers since those machines evolve dramatically over time. After setting a few definitions relating to scientific codes and parallelism, we show that the analysis of the different generations of supercomputer used at CEA over the past 30 years allows to exhibit a number of attention points and best practices toward code developers.Based on some experiments, we show how to aim at code performance suited to the usage of supercomputers, how to try to get portable performance and possibly extreme performance in the world of massive parallelism, potentially using GPUs.We explain that graphical post-processing software and hardware follow the same parallelism principles as large scientific codes, requiring to master a global view of the simulation chain.Last, we describe tendencies and constraints that will be forced on the new generations of exaflopic class supercomputers. These evolutions will, yet again, impact the development of the next generations of scientific codes.
15

Imagerie Tridimensionnelle Morphologique et Fonctionnelle en Multimodalité

Dillenseger, Jean-Louis 11 December 1992 (has links) (PDF)
Ce mémoire est centré sur la visualisation et l'analyse tridimensionnelle de données morphologiques, la fusion d'informations provenant de modalités identiques mais dont l'acquisition est effectuée à des instant différents et de la mise en correspondance de signaux fonctionnels avec des données morphologiques.<br />Le premier chapitre est consacré à une étude bibliographique traitant de l'acquisition et de la modélisation de primitives tridimensionnelles en imagerie médicale. Le propos du second chapitre concerne une revue des techniques de représentation de primitives et de fonctions multi-variables.<br />Le troisième chapitre traite de la représentation et de l'analyse d'images morphologiques tridimensionnelles. Un nouveau concept, le lancer de rayons multi-fonctions, a été introduit afin d'intégrer sur le rayon une partie des traitements tels que l'interpolation, la détection, le filtrage tout en préservant les fonctionnalités de base (dissection, manipulation par exemple) de l'imagerie médicale tridimensionnelle. Une technique d'accélération du processus de synthèse d'images basée sur la cohérence inter-images est également proposée.<br />Le suivi d'une pathologie ou l'évaluation d'une thérapie nécessitent la confrontation d'images acquises par une même source mais à des instants distincts. Le quatrième chapitre porte sur l'étude et la mise au point d'une technique de recalage 3D en rotation de volumes basée sur une formalisation utilisant les quaternions.<br />Le dernier chapitre est consacré à la reconstitution et à la description (la visualisation) dans l'espace anatomique cérébral des champs de potentiels électriques ou magnétiques (EEG et MEG).
16

Méthodologies de visualisation 3D en imagerie médicale

Tang, Hui 13 December 2008 (has links) (PDF)
Ce mémoire de Thèse se focalise sur certains des problèmes non résolus en visualisation scientifique. Plus particulièrement nous avons pris une problématique médicale bien spécifique, la chirurgie conservatrice des tumeurs rénales, comme cadre applicatif pour l'élaboration de nouvelles solutions incluant des techniques de recalage de données, de segmentation et de visualisation 3D.<br />L'uroscan fournit 3 à 4 volumes présentant une information complémentaire sur l'anatomie rénale. La première étape consiste à mettre en correspondance ces différents volumes par une technique de recalage rigide du volume rénal basée sur la maximisation locale de l'information mutuelle.<br />L'idée principale de ce mémoire de Thèse est de proposer une visualisation de l'anatomie rénale directement à partir de ces données fusionnées. Pour cela, une technique de classification statistique des données basée sur une modélisation de la distribution des valeurs par un mélange de Gaussiennes incluant une information spatiale a été développée. Différentes techniques de visualisation 3D ont ensuite été adaptées à la représentation de cette information et comparées entre-elles.<br />Les techniques de représentation de surfaces peuvent être accélérées par des procédures de simplifications de maillages. Dans ce cadre, nous avons proposé deux métriques de description de la surface basées sur les moments géométriques et pouvant être incluses dans une telle procédure.<br />Ces différentes solutions, même si elles ont été développées dans le cadre de la représentation des structures anatomiques rénale, sont suffisamment génériques pour être utilisées ou adaptées à d'autres organes ou à d'autres applications médicales.
17

Visualisation interactive de grands volumes de données incertaines : pour une approche perceptive

Coninx, Alexandre 22 May 2012 (has links) (PDF)
Les études scientifiques et d'ingénierie actuelles font de plus en plus souvent appel à des techniques de simulation numérique pour étudier des phénomènes physiques complexes. La visualisation du résultat de ces simulations sur leur support spatial, souvent nécessaire à leur bonne compréhension, demande la mise en place d'outils adaptés, permettant une restitution fidèle et complète de l'information présente dans un jeu de données. Une telle visualisation doit donc prendre en compte les informations disponibles sur la qualité du jeu de données et l'incertitude présente. Cette thèse a pour but d'améliorer les méthodes de visualisation des champs de données scalaires de façon à intégrer une telle information d'incertitude. Les travaux présentés adoptent une approche perceptive, et utilisent les méthodes expérimentales et les connaissances préalables obtenues par la recherche sur la perception visuelle pour proposer, étudier et finalement mettre en oeuvre des nouvelles techniques de visualisation. Une revue de l'état de l'art sur la visualisation de données incertaines nous fait envisager l'utilisation d'un bruit procédural animé comme primitive pour la représentation de l'incertitude. Une expérience de psychophysique nous permet d'évaluer des seuils de sensibilité au contraste pour des stimuli de luminance générés par l'algorithme de bruit de Perlin, et de déterminer ainsi dans quelles conditions ces stimuli seront perçus. Ces résultats sont validés et étendus par l'utilisation d'un modèle computationnel de sensibilité au contraste, que nous avons réimplémenté et exécuté sur nos stimuli. Les informations obtenues nous permettent de proposer une technique de visualisation des données scalaires incertaines utilisant un bruit procédural animé et des échelles de couleur, intuitive et efficace même sur des géométries tridimensionnelles complexes. Cette technique est appliquée à deux jeux de données industriels, et présentée à des utilisateurs experts. Les commentaires de ces utilisateurs confirment l'efficacité et l'intérêt de notre technique et nous permettent de lui apporter quelques améliorations, ainsi que d'envisager des axes de recherche pour des travaux futurs.
18

Representation of thermal building simulation in virtual reality for sustainable building / Représentation de simulation thermique en réalité virtuelle pour la construction durable

Nugraha Bahar, Yudi 15 April 2014 (has links)
La sobriété énergétique du bâti devient aujourd’hui un élément clé en phase de conception. L’intégration en amont d’outils numériques, notamment la réalité virtuelle (RV). Nous a conduit, dans cette recherche, à nous concentrer sur les résultats de simulations thermiques visualisées dans un environnement virtuel. La contribution est portée sur la représentation et la perception dans un EV de ces données issues de simulation. Nous nous limitons à la caractérisation de l’efficacité énergétique en processus de conception. Cette étude vise la prédiction des performances thermiques dans des systèmes de réalité virtuelle. Les problématiques de formats de données et de flux de travail entre la modélisation classique CAO (Conception Assistée par Ordinateur), les simulations thermiques, et la visualisation immersive sont également traitées. Il existe plusieurs outils logiciels dédiés à la représentation de simulations thermiques en EV et le premier enjeu de ces travaux fut de sélectionner l’outil approprié. De nombreux modeleurs CAO, logiciels de simulation thermique et outils de RV sont disponibles ; ils diffèrent notamment par leurs approches (fonctionnalités et environnement logiciel). La problématique d’interopérabilité (formats d’échange entre les outils logiciels) requiert de bâtir un flux de travail structuré. Les difficultés d’intégration entre outils CAO et outils de simulation, et les barrières au transfert vers des systèmes de réalité virtuelle sont également décrits. Il est apparu pertinent d'utiliser le Building Information Model (BIM) de plus en plus utilisé parmi les acteurs de l’architecture, ingénierie et construction (AIC). Puis nous avons poursuivi par l’évaluation des tendances actuelles en matière de représentation de données thermiques issues de simulation dans un EV, par la création de méthode de transfert de données de sorte à les intégrer au flux de travail. Après un état de l’art sur la simulation thermique et une évaluation des travaux connexes, nous décrivons l'application, la méthode et les outils pour parvenir à nos objectifs. Une proposition de procédé de transfert de données et de présentation de données en EV est formulée et évaluée. Le flux d’échanges de données s’effectue en trois phases, de sorte à optimiser les passages entre la CAO, le calcul thermique et la réalité virtuelle. La représentation des données dans l’EV est réalisée grâce à une visualisation immersive et interactive. Une expérimentation a été conduite de sorte à évaluer des sujets : Le scénario consistait en une visualisation interactive de données thermiques selon 4 modalités en environnement virtuel. L’interface développée pour l’interaction a été voulue intuitive et conviviale. L’application contient un modèle 3D réaliste du projet (salle Gunzo) dans deux configurations : état actuel et état rénové. Les données thermiques sont restituées selon plusieurs métaphores de représentation. L’expérimentation développe une approche qui associe au scénario de rénovation virtuelle une configuration matérielle/logicielle. Les résultats obtenus se concentrent sur la visualisation, l'interaction et le retour subjectif des utilisateurs. Quatre métaphores de visualisation sont testées et leur évaluation porte notamment sur deux critères : leurs capacités à restituer les résultats de simulation thermique ; le degré d’interaction et la perception de l’utilisateur des impacts de ses actions. L’évaluation subjective révèle les préférences des utilisateurs et montre que les métaphores de représentation ont une influence sur la précision et l’efficience de l’interprétation des données. Ces travaux montrent que les techniques de représentation et de visualisation de données de simulation ont un effet sur la pertinence de leur interprétation. La méthode décrite spécifie les modalités de transfert de la donnée depuis la phase conception jusqu’aux outils et systèmes de RV. Sa souplesse lui permet d’être transposée à tout type de projet (…) / The importance of energy efficiency as well as integration of advances in sustainable buildingdesign and VR technology have lead this research to focus on thermal simulation results visualized in avirtual environment (VE). The emphasis is on the representation of thermal building simulation (TBS)results and on the perception of thermal data simulated in a VE. The current application of the designprocess through energy efficiency in VR systems is limited mostly to building performance predictionsand design review, as the issue of the data formats and the workflow used for 3D modeling, thermalcalculation and VR visualization.Different applications and tools involved to represent TBS in VE are become the challenge ofthis work. Many 3D modeller, thermal simulation tools and VR tools are available and they are differ intheir function and platform. Issues of data format exchange, appropriate tools and equipments from thissituation require an interoperability solution that needs to be structured in a workflow method.Significances and barriers to integration design with CAD and TBS tools are also outlined in order totransfer the model to VR system. Therefore, the idea then is to use Building Information Model (BIM)extensively used in Architecture, Engineering and Construction (AEC) community. It then continued toevaluate the current trends for TBS representation in VE, to create data transfer method, and tointegrate them in the workflow. After a review in thermal simulation and an evaluation of related works,we specify the application, method and tools for our objectives.An application of a method of data transfer and presentation of data in VE are formulated andtested. This effort conduct using a specific data workflow which performed the data transfer through 3phases. This relies on the smooth exchange of data workflow between CAD tools, thermal calculationtools and VR tools. Presentation of data in VE is conducted through immersive visualization andintuitive interaction. An experiment scenario of a thermal simulation in VR system was created tointeractively visualize the results in the immersion room and tested by some respondents. The systeminclude with friendly interface for interaction. It presents a realistic 3D model of the project (Gunzoroom) in existing condition and renovated version, and their TBS results visualized in somevisualization metaphor. In the experiment, the method which bundled in an application brings togetherwithin a couple of virtual scenario and a software/hardware solution. The obtained results concentrateon visualization, interaction and its feedback. Some visualization metaphor are tested and evaluated topresent more informative TBS results where the user can interact and perceive the impact of theiraction.Evaluation of the application prototype showed various levels of user satisfaction, andimprovements in the accuracy and efficiency of data interpretation. The research has demonstrated it ispossible to improve the representation and interpretation of building performance data, particularly TBSresults using visualization techniques. Using specific method, the data flow that starts from the designprocess is completely and accurately channelled to the VR system. The method can be used with anykind of construction project and, being a flexible application, accepts new data when necessary,allowing for a comparison between the planned and the constructed.
19

Embedded and high-order meshes : two alternatives to linear body-fitted meshes / Maillages immergés et d'ordre élevé : deux alternatives à la représentation linéaire des maillages en géométrie inscrite

Feuillet, Rémi 10 December 2019 (has links)
La simulation numérique de phénomènes physiques complexes requiert généralement l’utilisation d’un maillage. En mécanique des fluides numérique, cela consisteà représenter un objet dans un gros volume de contrôle. Cet objet étant celui dont l’on souhaite simuler le comportement. Usuellement, l’objet et la boîte englobante sont représentés par des maillage de surface linéaires et la zone intermédiaire est remplie par un maillage volumique. L’objectif de cette thèse est de s’intéresser à deux manières différentes de représenter cet objet. La première approche dite immergée consiste à mailler intégralement le volume de contrôle et ensuite à simuler le comportement autour de l’objet sans avoir à mailler explicitement dans le volume ladite géometrie. L’objet étant implicitement pris en compte par le schéma numérique. Le couplage de cette méthode avec de l’adaptation de maillage linéaire est notamment étudié. La deuxième approche dite d’ordre élevé consiste quant à elle consiste à augmenter le degré polynomial du maillage de surface de l’objet. La première étape consiste donc à générer le maillage de surface de degré élevé et ensuite àpropager l’information de degré élevé dans les éléments volumiques environnants si nécessaire. Dans ce cadre-là, il s’agit de s’assurer de la validité de telles modifications et à considérer l’extension des méthodes classiques de modification de maillages linéaires. / The numerical simulation of complex physical phenomenons usually requires a mesh. In Computational Fluid Dynamics, it consists in representing an object inside a huge control volume. This object is then the subject of some physical study. In general, this object and its bounding box are represented by linear surface meshes and the intermediary zone is filled by a volume mesh. The aim of this thesis is to have a look on two different approaches for representing the object. The first approach called embedded method consist in integrally meshing the bounding box volume without explicitly meshing the object in it. In this case, the presence of the object is implicitly simulated by the CFD solver. The coupling of this method with linear mesh adaptation is in particular discussed.The second approach called high-order method consist on the contrary by increasing the polynomial order of the surface mesh of the object. The first step is therefore to generate a suitable high-order mesh and then to propagate the high-order information in the neighboring volume if necessary. In this context, it is mandatory to make sure that such modifications are valid and then the extension of classic mesh modification techniques has to be considered.
20

Visualisation Scientifique en médecine.<br />Application à la visualisation de l'anatomie et à la visualisation en épileptologie clinique

Dillenseger, Jean-Louis 17 June 2003 (has links) (PDF)
En médecine, le rôle de l'image est primordial. Depuis la renaissance, l'image a été un des vecteurs principaux de la transmission du savoir. Plus récemment, l'essor des techniques d'imageries tridimensionnelles n'a fait qu'étendre l'importance de l'image à la plupart des disciplines et des procédures médicales. Tout naturellement donc, la médecine a représenté un des domaines d'application privilégiés de la visualisation scientifique. Mes travaux de recherche s'inscrivent directement dans cette discipline de la visualisation scientifique et se présentent sous la forme de solutions de représentations originales apportées et associées à certaines problématiques médicales.<br />Pour cela, une réflexion sur l'outil de visualisation a été menée afin de proposer un cadre bien défini qui puisse guider l'élaboration d'un outil de représentation répondant à une discipline et à une problématique particulière. Le point le plus original de cette réflexion concerne un essai de formalisation de l'évaluation de la performance des outils de visualisation.<br />Deux grands domaines d'application ont justement permis de démontrer la pertinence de ce cadre général de la visualisation :<br />- La visualisation générale de l'anatomie avec, dans un premier temps, la conception d'un outil générique de visualisation de données médicale, le lancer de rayons multifonctions. Cet outil a été ensuite étendu selon deux axes de recherche, d'une part l'intégration de modèles de connaissances dans la procédure de synthèse d'images et d'autre part, l'imagerie interventionnelle et plus particulièrement des applications en urologie.<br />- Les apports de la visualisation pour l'interprétation des données recueillies sur le patient épileptique et plus particulièrement l'élaboration d'outils complémentaires permettant une analyse progressive des mécanismes et structures impliqués dans la crise.

Page generated in 0.2159 seconds