• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 95
  • 23
  • 16
  • Tagged with
  • 158
  • 122
  • 49
  • 43
  • 38
  • 34
  • 31
  • 24
  • 23
  • 23
  • 19
  • 19
  • 19
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Simulation du mouvement brownien et des diffusions

Faure, Olivier 21 February 1992 (has links) (PDF)
L'objet de cette thèse est l'étude de la simulation numérique de certains processus stochastiques, les diffusions, dont le mouvement brownien est un exemple typique. Nous commençons par quelques rappels sur le mouvement brownien au chapitre 1. Il s'agit d'une présentation élémentaire, qui s'appuie sur la simulation numérique, et permet de rappeler quelques propriétés classiques. Puis nous présentons au chapitre 2 une simulation alternative du mouvement brownien, en un sens plus naturelle, qui s'attache davantage à son comportement spatial que les méthodes traditionnelles. Le mouvement brownien est simulé à des instants aléatoires qui gouvernent son comportement; ce sont les temps de sortie de certaines "boîtes noires". En choisissant la taille et la position de ces boîtes noires dans l'espace, et sous réserve qu'elles se chevauchent, on peut ainsi simuler très précisément une trajectoire brownienne. La suite de la thèse est consacrée à l'analyse numérique des équations différentielles stochastiques (E.D.S) et à la simulation informatique de leur solution. Nous commençons au chapitre 3 par une introduction qui rappelle ce que sont les E.D.S, cite quelques unes de leurs propriétés et applications classiques dans les sciences de l'ingénieur. Au chapitre 4 nous présentons un résultat de convergence trajectorielle du schéma d'Euler en en précisant l'ordre de convergence. Un résultat similaire est présenté pour le schéma de Milshtein au chapitre 5. Comme on peut s'y attendre, ce schéma est plus performant que le schéma d'Euler, quand la condition classique de commutativité est vérifiée. Ceci améliore partiellement un résultat de Denis Talay. On étudie ensuite au chapitre 6 une classe de schémas de discrétisation à pas variables permettant une approximation spatiale des diffusions dans l'esprit du chapitre 2. Nous commençons par un résultat assez général de convergence d'un schéma d'Euler défini le long d'une subdivision aléatoire. Dans le cas où cette subdivision est gouvernée par les temps de passage successifs du mouvement brownien, nous retrouvons et étendons partiellement des travaux de Nigel Newton. Dans le cas où cette subdivision de façon à ce que les accroissements du schéma de discrétisation soient constants, nous étudions un schéma de discrétisation originalement présenté par Bichteler. Nous précisons sa vitesse de convergence et donnons une méthode de simulation numérique. Le chapitre 7 est un panorama des travaux existants sur la discrétisation des équations différentielles stochastiques. Sans prétendre être exhaustif, nous présentons au contraire une relecture des travaux existants dans l'optique de la simulation numérique. Enfin le chapitre 8 s'attache à quelques questions ou problèmes non résolus qui représentent un intérêt évident pour les applications. Nous suggérons pour chacune de ces questions quelques commencements de réponse.
72

Analytical and numerical vortex methods to model separated flows / .

Gallizio, Federico 24 April 2009 (has links)
Le problème de la mécanique des fluides, concernant les écoulements décollés derrière des obstacles immobiles ou en mouvement, est traité par l’étude de deux sujets: a) recherches sur l’existence de solutions stationnaires des equations d’Euler et Navier-Stokes pour grands nombres de Reynolds, au-delà des corps caractérisés par pointes ou singularités géométriques; b) analyse du sillage non stationnaire derrière une turbine à axe vertical (VAT). L’étude de ces deux différents régimes d’écoulements, concernant le phénomène du détachement derrière corps émoussés ou profils alaires à haut angle d’incidence, a permis la mise au point de plusieurs techniques analytiques et numériques basées sur le champ de vorticité. / The problem of the separated flows dynamics past obstacles at rest or moving bodies is addressed by means of the study of two topics a) investigation on the existence of some steady solutions of the Euler equations and of the Navier-Stokes equations at large Reynolds number, past bodies characterized by a cusp; b) analysis of the unsteady wake behind a Vertical Axis Turbine (VAT). The survey of such different flow regimes related to the separation phenomenon past bluff bodies or bodies at incidence allowed to devise several numerical and analytical techniques based on the evaluation of the vorticity field.
73

Modélisation multi-échelle de systèmes nanophotoniques et plasmoniques / Multi-scale modelling of nanophotonic and plasmonic systems

Fall, Mandiaye 06 December 2013 (has links)
Les structures nanophotoniques sont généralement simulées par des méthodes de volumes, comme la méthode des différences finies dans le domaine temporel (FDTD), ou la méthode des éléments finis (FEM). Toutefois, pour les grandes structures, ou des structures plasmoniques métalliques qui nécessitent, la mémoire et le temps de calcul requis peuvent augmenter de façon spectaculaire.Les méthodes de surface, comme la méthode des éléments de frontière (BEM) ont été développées afin de réduire le nombre d'éléments de maillage. Ces méthodes consistent à exprimer le champ formé dans tout l'espace en fonction des courants électrique et magnétique à la surface de l’objet. Combinées avec la méthode multipôle rapide (FMM) qui permet une accélération du calcul de l'interaction entre les éléments lointain du maillage, de grands systèmes peuvent ainsi être manipulés.Nous avons développé, pour la première fois à notre connaissance, une FMM sur un nouveau formalisme BEM, basé sur les potentiels scalaire et vectoriel au lieu de courants électriques et magnétiques. Cette méthode a été montrée pour permettre une simulation précise des systèmes plasmoniques métalliques, tout en offrant une réduction significative des besoins de calcul. Des systèmes nanophotoniques complexes ont été simulés, comme une lentille plasmonique composé d'un ensemble de nanotubes d'or. / Nanophotonic structures are generally simulated by volume methods, as Finite-difference time-domain (FDTD) method, or Finite element method (FEM). However, for large structures, or metallic plasmonic structures, the memory and time computation required can increase dramatically, and make proper simulation infeasible.Surface methods, like the boundary element method (BEM) have been developed to reduce the number of mesh elements. These methods consist in expressing the electromagnetic filed in whole space as a function of electric and magnetic currents at the surface of scatterers. Combined with the fast multipole method (FMM) that enables a huge acceleration of the calculation of interaction between far mesh elements, very large systems can thus be handled.What we performed is the development of an FMM on a new BEM formalism, based on scalar and vector potentials instead of electric and magnetic currents, for the first time to our knowledge. This method was shown to enable accurate simulation of metallic plasmonic systems, while providing a significant reduction of computation requirements, compared to BEM-alone. Several thousands of unknowns could be handled on a standard computer. More complex nanophotonic systems have been simulated, such as a plasmonic lens consisting of a collection of gold nanorods.
74

Modélisation eulérienne de l'interaction d'un brouillard avec un choc en régime supersonique / Euler-Euler modelling of the interaction between a supersonic dilute flow and a detached shock

Marois, Gentien 20 December 2018 (has links)
Les travaux présentés dans cette thèse portent sur l’interaction d'un brouillard avec un choc en régime supersonique. L’approche eulérienne a été utilisée car elle est particulièrement adaptée aux machines fortement parallèles. Un module nommé SDFS (Supersonic Dilute Flow Solver), permettant de modéliser le comportement du brouillard, a été créé et validé au sein d’un code d’aérodynamique du CEA. Les travaux ont porté sur trois aspects de la modélisation numérique. Premièrement, l’étude et la création de nouveaux modèles. Deuxièmement, l’implémentation numérique et la validation sur des cas académiques de référence. Enfin, la confrontation entre les résultats numériques et des données expérimentales issues de la littérature. / In this thesis we focus on the interaction between a supersonic dilute flow and a detached shock. The Eulerian approach has been chosen because it is particularly adapted to parallel computing. A program named SDFS (Supersonic Dilute Flow Solver), was created and validated in a CEA aerodynamic code. Three aspects of the computational simulation have been studied. First the study and creation of new models. Then the numerical implementation and the validation through academic reference cases. Finally, the comparison between numerical results and experimental data.
75

Contributions à l'amélioration de l'extensibilité de simulations parallèles de plasmas turbulents / Towards highly scalable parallel simulations for turbulent plasma physics

Rozar, Fabien 05 November 2015 (has links)
Les besoins en énergie dans le monde sont croissants alors que les ressources nécessaires pour la production d'énergie fossile s'épuisent d'année en année. Un des moyens alternatifs pour produire de l'énergie est la fusion nucléaire par confinement magnétique. La maîtrise de cette réaction est un défi et constitue un domaine actif de recherche. Pour améliorer notre connaissance des phénomènes qui interviennent lors de la réaction de fusion, deux approches sont mises en oeuvre : l'expérience et la simulation. Les expérience réalisées grâce aux Tokamaks permettent de prendre des mesures. Ceci nécessite l'utilisation des technologiques les plus avancées. Actuellement, ces mesures ne permettent pas d'accéder à toutes échelles de temps et d'espace des phénomènes physiques. La simulation numérique permet d'explorer ces échelles encore inaccessibles par l'expérience. Les ressources matérielles qui permettent d'effectuer des simulations réalistes sont conséquentes. L'usage du calcul haute performance (High Performance Computing HPC) est nécessaire pour avoir accès à ces simulations. Ceci se traduit par l'exploitation de grandes machines de calcul aussi appelées supercalculateurs. Les travaux réalisés dans cette thèse portent sur l'optimisation de l'application Gysela qui est un code de simulation de turbulence de plasma. L'optimisation d'un code de calcul scientifique vise classiquement l'un des trois points suivants : (i ) la simulation de plus grand domaine de calcul, (ii ) la réduction du temps de calcul et (iii ) l'amélioration de la précision des calculs. La première partie de ce manuscrit présente les contributions concernant la simulation de plus grand domaine. Comme beaucoup de codes de simulation, l'amélioration de la précision de la simulation est souvent synonyme de raffinement du maillage. Plus un maillage est fin, plus la consommation mémoire est grande. De plus, durant ces dernières années, les supercalculateurs ont eu tendance à disposer de moins en moins de mémoire par coeur de calcul. Pour ces raisons, nous avons développé une bibliothèque, la libMTM (Modeling and Tracing Memory), dédiée à l'étude précise de la consommation mémoire d'applications parallèles. Les outils de la libMTM ont permis de réduire la consommation mémoire de Gysela et d'étudier sa scalabilité. À l'heure actuelle, nous ne connaissons pas d'autre outil qui propose de fonctionnalités équivalentes permettant une étude précise de la scalabilité mémoire. La deuxième partie de ce manuscrit présente les travaux concernant l'optimisation du temps d'exécution et l'amélioration de la précision de l'opérateur de gyromoyenne. Cet opérateur est fondamental dans le modèle gyromagnétique qui est utilisé par l'application Gysela. L'amélioration de la précision vient d'un changement de la méthode de calcul : un schéma basé sur une interpolation de type Hermite vient remplacer l'approximation de Padé. Il s'avère que cette nouvelle version de l'opérateur est plus précise mais aussi plus coûteuse en terme de temps de calcul que l'opérateur existant. Afin que les temps de simulation restent raisonnables, différentes optimisations ont été réalisées sur la nouvelle méthode de calcul pour la rendre très compétitive. Nous avons aussi développé une version parallélisée en MPI du nouvel opérateur de gyromoyenne. La bonne scalabilité de cet opérateur de gyromoyenne permettra, à terme, de réduire des coûts en communication qui sont pénalisants dans une application parallèle comme Gysela. / Energy needs around the world still increase despite the resources needed to produce fossil energy drain off year after year. An alternative way to produce energy is by nuclear fusion through magnetic confinement. Mastering this reaction is a challenge and represents an active field of the current research. In order to improve our understanding of the phenomena which occur during a fusion reaction, experiment and simulation are both put to use. The performed experiments, thanks to Tokamaks, allow some experimental reading. The process of experimental measurements is of great complexity and requires the use of the most advanced available technologies. Currently, these measurements do not give access to all scales of time and space of physical phenomenon. Numerical simulation permits the exploration of these scales which are still unreachable through experiment. An extreme computing power is mandatory to perform realistic simulations. The use of High Performance Computing (HPC) is necessary to access simulation of realistic cases. This requirement means the use of large computers, also known as supercomputers. The works realized through this thesis focuses on the optimization of the Gysela code which simulates a plasma turbulence. Optimization of a scientific application concerns mainly one of the three following points : (i ) the simulation of larger meshes, (ii ) the reduction of computing time and (iii ) the enhancement of the computation accuracy. The first part of this manuscript presents the contributions relative to simulation of larger mesh. Alike many simulation codes, getting more realistic simulations is often analogous to refine the meshes. The finer the mesh the larger the memory consumption. Moreover, during these last few years, the supercomputers had trend to provide less and less memory per computer core. For these reasons, we have developed a library, the libMTM (Modeling and Tracing Memory), dedicated to study precisely the memory consumption of parallel softwares. The libMTM tools allowed us to reduce the memory consumption of Gysela and to study its scalability. As far as we know, there is no other tool which provides equivalent features which allow the memoryscalability study. The second part of the manuscript presents the works relative to the optimization of the computation time and the improvement of accuracy of the gyroaverage operator. This operator represents a corner stone of the gyrokinetic model which is used by the Gysela application. The improvement of accuracy emanates from a change in the computing method : a scheme based on a 2D Hermite interpolation substitutes the Padé approximation. Although the new version of the gyroaverage operator is more accurate, it is also more expensive in computation time than the former one. In order to keep the simulation in reasonable time, diferent optimizations have been performed on the new computing method to get it competitive. Finally, we have developed a MPI parallelized version of the new gyroaverage operator. The good scalability of this new gyroaverage computer will allow, eventually, a reduction of MPI communication costs which are penalizing in Gysela.
76

Approche cognitive pour l'intégration des outils de la géomatique en sciences de l'environnement modélisation et évaluation

Balzarini, Raffaella 27 November 2013 (has links) (PDF)
Cette thèse s'est intéressée à l'intégration des Systèmes d'Information Géographique, dans les domaines de la formation en géosciences appliquées et sciences de l'environnement. L'étude de cette intégration et des difficultés qui l'accompagnent, s'est articulée autour de trois dimensions : 1. une dimension cognitive, pour explorer les approches et les méthodes qui permettent d'étudier la façon de raisonner d'utilisateurs expérimentés ou novices, face à la résolution de problèmes spatiaux avec les SIG ; 2. une dimension didactique pour, à partir des différences entre les raisonnements des experts et des novices, identifier et intégrer les démarches expertes utilisables dans les stratégies de résolution des apprenants ; 3. une dimension pédagogique, pour concevoir, en s'appuyant sur les acquis cognitifs et didactiques, des dispositifs de formation innovateurs, en adéquation avec les demandes du monde professionnel. Afin de limiter notre champ d'étude, il a été nécessaire d'effectuer une analyse des pratiques de cartographie et SIG dans les domaines des Géosciences et de l'Ingénierie de l'Environnement et effecteur des choix pertinentes dans une perspective pédagogique, professionnelle et sociétale. Nous nous sommes intéressés à une activité de cartographie particulière : la cartographie d'aptitude réalisée avec des méthodes d'analyses spatiales multicritères pour la localisation de site(s) apte(s) à répondre à une problématique environnementale. En effet, cette méthode implique, d'un point de vue pédagogique, une approche progressive et complète à l'usage des SIG. Elle a un caractère professionnalisant, car elle est d'usage dans les projets environnementaux et, enfin, elle appuie le débat sur les choix territoriaux qui impliquent des prises de décisions. C'est lors de la réalisation de cette activité de cartographie d'aptitude que différents types d'utilisateurs ont été observés : des experts et des étudiants issus de notre entourage académique et professionnel. Nous avons élaboré un protocole expérimental exploratoire qui a permis de recueillir des données écrites et orales. Les analyses des données issues de la phase expérimentale ont été guidées par les cadres qui relèvent des sciences cognitives : sur le plan théorique, pour la définition des mécanismes visuo-cognitifs impliqués dans les raisonnements, et sur le plan méthodologique pour l'approche qualitative et quantitative d'analyse de données verbales. En termes de résultats, des composants des processus de raisonnement qui interviennent dans la réalisation et perception de la carte d'aptitude, ont été identifiés. De plus, les différences d'occurrences d'actions, d'opérations et de concepts mobilisés par les experts et les novices dans le même contexte, ont pu être mesurées. La comparaison des différentes stratégies adoptées par les expertes et par les étudiants a permis ensuite de ré-penser les dispositifs de formation, avec des aides didactiques qui ciblent les lacunes des étudiants. Le vrai défi de cette thèse a été l'apport pluridisciplinaire à la cartographie et aux SIG dans les Sciences de l'Information Géographique. En apportant des connaissances de la psychologie cognitive, de la didactique des sciences et des sciences de l'éducation, cette thèse a contribué à une meilleure compréhension de certains processus de représentations et d'appropriation des SIG, lors de la production cartographique et de son interprétation. Cette compréhension peut contribuer à améliorer les représentations ou à en proposer de nouvelles, favorisant ainsi la construction de la connaissance spatiale.
77

Modélisation du comportement extrême de processus spatio-temporels. Applications en océanographie et météorologie.

Raillard, Nicolas 13 December 2011 (has links) (PDF)
Ce travail de thèse porte sur l'étude des extrêmes d'une variable océanique importante dans le cadre des applications: la hauteur significative des vagues. Cette quantité est observée fidèlement par des satellites, mais cette source de donnée produit des données complexes du fait d'une répartition des observations irrégulière, en temps et en espace. Ce problème est primordial dans le cadre de l'étude des extrêmes, car peu de modèles statistiques sont adaptés à de telles données. Deux modèles sont présentés dans ce document. Nous commençons par décrire un modèle d'interpolation basé sur l'estimation des vitesses de déplacement des structures d'états de mer à l'aide de méthodes de filtrage particulaire. Ensuite nous avons mis en place une procédure d'estimation de la structure d'ordre deux du champ déplacé, dans le but d'appliquer une interpolation. Cette procédure a montré une amélioration par rapport aux techniques usuelles, mais une insuffisance pour modéliser les extrêmes. Dans un second temps, nous mettons en oeuvre une procédure pour modéliser les dépassements de seuils d'un processus observé à temps irrégulier ou avec des valeurs manquantes. Nous proposons un modèle basé sur les méthodes de dépassement de seuils multi-variés et les extrêmes de processus, ainsi qu'une méthode d'estimation des paramètres par des techniques de vraisemblance composite. Enfin, nous montrons la convergence de l'estimateur et, à l'aide de simulations ainsi que par une application à des données de hauteurs significatives, nous concluons que la prise en compte de tous les dépassements permet d'améliorer l'estimation des niveaux de retour de même que de la description de la durée des extrêmes.
78

Navigation d'une aiguille médicale déformable

Robert, Adeline 31 October 2013 (has links) (PDF)
Les environnements actuels de navigation de gestes interventionnels avec aiguille font l'hypothèse de l'indéformabilité de celle-ci. Hypothèse non vérifiée cliniquement avec comme conséquence immédiate une perte de précision du geste réalisé et à plus long terme de potentielles conséquences morbides. En pratique, cette aiguille peut être amenée à se déformer du fait des interactions avec les tissus. Il est donc nécessaire d'incorporer dans les systèmes de navigation des données sur la déformée de l'aiguille à l'aide, par exemple, de jauges de déformation. Ces dernières permettent d'accéder en temps réel à des informations locales de déformation, a partir desquelles il sera possible de reconstruire la déformée de l'aiguille. L'objectif de ce travail consiste donc à l'élaboration d'une nouvelle génération de système de navigation permettant de localiser en 3D et en temps réel, la déformée d'une aiguille instrumentée.
79

Modélisation et analyse de modèles de polymères aléatoirement réticulé et application à l’organisation et à la dynamique de la chromatine / Modeling and analysis of randomly cross-linked polymers and application to chromatin organization and dynamics

Shukron, Ofir 16 November 2017 (has links)
Dans cette thèse nous étudions la relation entre la conformation et la dynamique de la chromatine en nous basant sur une classe de modèles de polymères aléatoirement réticulé (AR). Les modèles AR permettent de prendre en compte la variabilité de la conformation de la chromatine sur l’ensemble d’une population de cellules. Nous utilisons les outils tels que les statistiques, les processus stochastiques, les simulations numériques ainsi que la physique des polymères afin de déduire certaines propriétés des polymères AR a l’équilibre ainsi que pour des cas transitoires. Nous utilisons par la suite ces propriétés afin d’élucider l’organisation dynamique de la chromatine pour diverses échelles et conditions biologiques. Dans la première partie de ce travail, nous développons une méthode générale pour construire les polymères AR directement à partir des données expérimentales, c’est-à-dire des données de capture chromosomiques (CC). Nous montrons que des connections longue portées persistantes entre des domaines topologiquement associés (DTA) affectent le temps de rencontre transitoire entre les DTA dans le processus d’inactivation du chromosome X. Nous montrons de plus que la variabilité des exposants anormaux – mesurée en trajectoires de particules individuelles (TPI) – est une conséquence directe de l’hétérogénéité dans la position des réticulations. Dans la deuxième partie, nous utilisons les polymères AR afin d’étudier la réorganisation locale du génome au point de cassure des deux branches d’ADN (CDB). Le nombre de connecteurs dans le modèle de polymère AR est calibré à partir de TPI, mesurées avant et après la CDB. Nous avons trouvé que la perte modérée de connecteur autour des sites de la CDB affecte de façon significative le premier temps de rencontre des deux extrémités cassées lors du processus de réparation d’une CBD. Nous montrons comment un micro-environnement génomique réticulé peut confiner les extrémités d’une cassure, empêchant ainsi les deux brins de dériver l’un de l’autre. Dans la troisième partie nous déduisons une expression analytique des propriétés transitoires et a l’équilibre du modèle de polymère AR, représentant une unique région DTA. Les expressions ainsi obtenue sont ensuite utilisées afin d’extraire le nombre moyen de connexions dans les DTA provenant des données de CC, et ce à l’aide d’une simple procédure d’ajustement de courbe. Nous dérivons par la suite la formule pour le temps moyen de première rencontre (TMPR) entre deux monomères d’un polymère AR. Le TMPR est un temps clé pour des processus tels que la régulation de gènes et la réparation de dommages sur l’ADN. Dans la dernière partie, nous généralisons le modèle AR analytique afin de prendre en compte plusieurs DTA de tailles différentes ainsi que les connectivités intra-DTA et extra-DTA. Nous étudions la dynamique de réorganisation de DTA lors des stages successifs de différentiations cellulaires à partir de données de CC. Nous trouvons un effet non-négligeable de la connectivité de l’inter-DTA sur les dynamiques de la chromatique. Par la suite nous trouvons une compactification et une décompactification synchrone des DTA à travers les différents stages. / In this dissertation we study the relationship between chromatin conformation and dynamics using a class of randomly cross-linked (RCL) polymer models. The RCL models account for the variability in chromatin conformation over cell population. We use tools from statistics, stochastic process, numerical simulations and polymer physics, to derive the steady-state and transient properties of the RCL polymer, and use them to elucidate the dynamic reorganization of the chromatin for various scales and biological conditions. In the first part of this dissertation work, we develop a general method to construct the RCL polymer directly from chromosomal capture (CC) data. We show that persistent long-range connection between topologically associating domain (TAD) affect transient encounter times within TADs, in the process of X chromosome inactivation. We further show that the variability in anomalous exponents, measured in single particle trajectories (SPT), is a direct consequence of the heterogeneity of cross-link positions. In the second part, we use the RCL polymer to study local genome reorganization around double strand DNA breaks (DSBs). We calibrate the number of connectors in the RCL model using SPT data, acquired before and after DSB. We find that the conservative loss of connectors around DSB sites significantly affects first encounter times of the broken ends in the process of DSB repair. We show how a cross-linked genomic micro-environment can confine the two broken ends of a DSB from drifting apart. In the third part, we derive analytical expressions for the steady-state and transient properties of the RCL model, representing a single TAD region. The derived expressions are then used to extract the mean number of cross-links in TADs of the CC data, by as simple curve fitting procedure. We further derive formula for the mean first encounter time (MFET) between any two monomers of the RCL polymer. The MFET is a key time in processes such as gene regulation. In the last part, we generalize the analytical RCL model, to account for multiple TADs with variable sizes, intra, and inter-TAD connectivity. We study the dynamic reorganization of TADs, throughout successive stages of cell differentiation, from the CC data. We find non-negligible effect of inter-TAD connectivity on the dynamics of the chromatin. We further find a synchronous compaction and decompaction of TADs during differentiation.
80

Valence de graphes et polyominos arbres

Samson, Maxime January 2020 (has links) (PDF)
No description available.

Page generated in 0.0292 seconds