Spelling suggestions: "subject:"statistique"" "subject:"qtatistique""
211 |
Modélisation de réclamations en assurance générale avec gradient boosting et dépendancePower, Justine 02 February 2024 (has links)
En assurance générale, la prévision des réclamations est d'une importance capitale. Une modélisation précise des pertes futures permet aux assureurs d'offrir des prix compétitifs, de cibler les assurés les plus profitables et de conserver leur solidité financière. Le domaine de l'assurance étant en constante évolution, les actuaires doivent trouver des moyens de raffiner leurs modèles prédictifs. Dans ce mémoire, on propose un modèle hiérarchique qui améliore les modèles classiques sur deux aspects. D'abord, on considère la dépendance entre les occurrences de paiements sous différentes couvertures avec une distribution multinomiale, et entre les montants payés à l'aide de copules. Ensuite, on choisit XGBoost, une implémentation populaire du gradient boosting, pour effectuer des prévisions avec des variables explicatives, alors que la plupart des modèles actuariels utilisent les modèles linéaires généralisés. La méthode est illustrée sur un jeu de données de réclamations en assurance auto fourni par une grande compagnie d'assurance canadienne. Le nombre important d'observations et de variables explicatives justifient l'utilisation de XGBoost, qui est particulièrement efficace avec de gros jeux de données. La structure des données motive divers aspects du modèle lui procurant une flexibilité, notamment en permettant à la combinaison de couvertures payées pour une même réclamation d'influencer les relations de dépendance. Pour l'inférence sur les copules, on utilise les méthodes basées sur les rangs. Puisque la validité des estimateurs basés sur les rangs de résidus de XGBoost n'a pas été montrée dans la littérature, on étudie leur performance par simulation. On applique notre modèle sur des données test et en comparant les résultats avec ceux d'un modèle supposant l'indépendance, on remarque que notre modèle permet d'obtenir une meilleure segmentation des assurés, en plus de répliquer de manière plus adéquate la stochasticité globale des données. / In general insurance, predicting future claims is of prime importance. A precise claim modeling allows insurers to offer the best prices possible, to target the most profitable policies and to remain financially sound. As insurance evolves constantly, one of the main challenges for actuaries is to find ways to refine their models. The goal of this thesis is to propose a hierarchical claim model that improves classical methods on two levels. First, we consider dependence between occurrences of payment for different coverages with a multinomial distribution, and between paid amounts using copulas. Second, to perform prediction with covariates, we choose XGBoost, a popular implementation of gradient boosting, while most of the actuarial models in the literature use generalized linear models. We fit our model on an auto insurance dataset from a Canadian insurer. The use of XGBoost, that is particularly well suited for large datasets, is justified by the large number of observations and covariates available. The structure of our data motivates several components of our model that add flexibility, by allowing the combination of coverages paid on a claim to have an effect on the dependence relationships. We use rank-based methods for copula inference since they offer many benefits. The validity of the methods based on ranks of gradient boosting residuals has not been demonstrated, so we assess this with simulations. We show some applications of our model and compare it with an independence model. Results suggest that with the added dependence components of our model, we achieve a better segmentation of the insureds portfolio and replicate the global stochasticity of the data more accurately.
|
212 |
La copule khi-carré et son utilisation en statistique spatiale et pour la modélisation de données multidimensionnellesToupin, Marie-Hélène 03 January 2025 (has links)
Cette thèse étudie les propriétés des copules appartenant à la famille khi-carré. Il s’agit d’une généralisation des copules normales multidimensionnelles obtenue en élevant au carré les composantes d’un vecteur de variables aléatoires normales. Ces copules sont indicées par une matrice de corrélation et par un paramètre de forme. Cette thèse montre comment cette famille de copules peut être utilisée pour faire de l’interpolation spatiale et pour modéliser des données multidimensionnelles. Dans un premier temps, l’utilité de cette classe de structures de dépendance est démontrée par le biais d’une application en statistique spatiale. Un problème important dans ce contexte est de prévoir la valeur d’un champ aléatoire stationnaire en une position où il n’a pas été observé. Cette thèse montre comment construire de telles prévisions à l’aide de modèles spatiaux basés sur les copules. L’accent est mis sur l’utilisation de la famille des copules khi-carré dans ce contexte. Il faut d’abord supposer que la matrice de corrélation a une forme paramétrique standard, telle celle de Matérn, indicée par un paramètre inconnu associé à la force de l’association spatiale. Ce paramètre est d’abord estimé à l’aide d’une pseudo-vraisemblance composite construite à partir des lois bidimensionnelles des données observées. Ensuite, une méthode d’interpolation spatiale utilisant les rangs des observations est suggérée afin d’approximer la meilleure prévision du champ aléatoire à une position non observée. Dans un deuxième temps, les propriétés fondamentales des copules khi-carré sont étudiées en détail. Cette famille de copules permet une grande flexibilité quant à la modélisation de données multidimensionnelles. Dans le cas bivarié, ces copules s’adaptent à de la dépendance autant symétrique qu’asymétrique. En dimension plus grande, le paramètre de forme contrôle le degré d’asymétrie radiale des distributions marginales bidimensionnelles. Des procédures d’estimation de la matrice de corrélation et du paramètre de forme sont comparées dans le cas de répétitions indépendantes et identiquement distribuées. Enfin, des formules de l’espérance conditionnelle pour la meilleure prévision dans un contexte spatiale sont établies. Finalement, des tests d’adéquation basés sur des moments pour la famille des copules khi-carré sont développés. Ces nouveaux tests peuvent être appliqués à un ensemble de données de n’importe quelle dimension. Ces procédures reposent sur deux mesures d’association basées sur les rangs des observations ce qui évite d’avoir à spécifier les lois marginales. Il est démontré que le comportement conjoint de ces deux mesures est asymptotiquement normal. L’efficacité des nouvelles procédures d’adéquation est démontrée via une étude de simulations et est comparée à un test d’adéquation classique basé sur la copule empirique. / This thesis studies the properties of the family of chi-square copulas. This is a generalization of the multidimensional normal copulas obtained by squaring the components of normal random vector. These copulas are indexed by a correlation matrix and by a shape parameter. This thesis shows how this family can be used to perform spatial interpolation and to model multidimensional data. First, the usefulness of this class of dependence structures is demonstrated with an application in spatial statistics. An important problem in that context is to predict the value of a stationary random field at a position where it has not been observed. This thesis shows how to construct such predictions using spatial models based on copulas. One focusses on the use of the family of chi-square copulas in that context. One must first assumes that the correlation matrix has a standard parametric form, such as that of Matérn, indexed by an unknown parameter associated with the force of the spatial association. This parameter is first estimated using a composite pseudo-likelihood constructed from the bivariate distributions of the observed data. Then, a spatial interpolation method using the ranks of the observations is suggested to approximate the best prediction of the random field at an unobserved position under a chi-square copula. In a second work, the fundamental properties of the chi-square copulas are studied in detail. This family allows a lot of flexibility to model multidimensional data. In the bivariate case, this family is adapted to symmetric and asymmetric dependence structures. In larger dimensions, the shape parameter controls the degree of radial asymmetry of the two-dimensional marginal distributions. Parameter estimation procedures of the correlation matrix and of the shape parameter are compared under independent and identically distributed repetitions. Finally, the formulas of the conditional expectation for the best prediction in a spatial context are established. Goodness-of-fit tests for the family of chi-square copulas are then developed. These new tests can be applied to data in any dimension. These procedures are based on two association measures based on the ranks of the observations, which avoids having to specify the marginal distributions. It is shown that the joint behavior of these two measures is asymptotically normal. The efficiency of the new goodness-of-fit procedures is demonstrated through a simulation study and is compared to a classical goodness-of-fit test based on the empirical copula.
|
213 |
Échantillonnage de Gibbs avec augmentation de données et imputation multipleVidal, Vincent 11 April 2018 (has links)
L'objectif de ce mémoire est de comparer la méthode d'échantillonnage de Gibbs avec augmentation de données, telle que présentée par Paquet (2002) et Bernier-Martel (2005), avec celle de l'imputation multiple telle que présentée par Grégoire (2004). Le critère de comparaison sera le signe des coefficients estimés. Nous travaillerons dans le contexte de bases de données indépendantes et d'un modèle linéaire à choix discret. Le modèle sera exprimé en tenant compte du choix des modes de transport des ménages de la communauté urbaine de Toronto. Pour réaliser ce projet, nous utiliserons la base de données du TTS (Transportation Tomorrow Survey) de 1986 et de 1996. Les résultats n'ont pas tous été estimés par un signe cohérent à nos attentes. Toutefois, nous pouvons conclure que l'échantillonnage de Gibbs avec augmentation de données est une approche plus intéressante que l'imputation multiple, puisqu'elle a estimé un nombre plus élevé de bons signes.
|
214 |
Formation à la statistique par la pratique d'enquêtes par questionnaires et la simulation : étude didactique d'une expérience d'enseignement dans un département d'IUTOriol, Jean-Claude 17 November 2007 (has links) (PDF)
Notre travail est une étude sur l'enseignement de la statistique en IUT, le statut et la mise en place d'une part d'enquêtes par questionnaires réalisées par les étudiants et d'autre part de simulations d'expériences aléatoires construites par les étudiants.<br />Il expose que l'enseignement de la statistique porte en lui une césure à la fois primitive et épistémologique, entre d'une part la collecte et le traitement des données, et d'autre part une approche fondée sur le calcul des probabilités plus ou moins éloignée des pratiques sociales, et que la réalisation d'enquêtes est un moyen d'atténuer la trace de cet écart primitif, permettant au sujet de construire le sens de ses apprentissages. D'une façon complémentaire nous étudierons comment la construction de simulations par les apprenants leur permet de dégager des invariants de la variabilité présente dans toute situation statistique.<br />Notre travail s'appuie sur les travaux de Gérard Vergnaud concernant la conceptualisation, sur la théorie des situations didactiques de Guy Brousseau, et sur la transposition didactique exposée par Yves Chevallard, ainsi que sur les travaux de Jean-Claude Régnier concernant la didactique de la statistique et le tâtonnement expérimental de l'apprenant, tout en essayant de déterminer la fonction de l'alternance ainsi que la dialectique entre projet et processus.<br />En termes d'ingénierie pédagogique notre exposé présentera un certain nombre de situations didactiques et désignera les divers obstacles rencontrés ; nous présenterons également deux enquêtes utilisant l'analyse statistique implicative (Régis Gras).
|
215 |
Tests exacts de stabilité structurelle et estimation ensembliste des élasticités dans les systèmes de demande avec applications en économie de l'énergie et du transportYélou, Clément 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Dans cette thèse, nous étudions deux problèmes économétriques qui portent sur l'inférence statistique dans des contextes économétriques où les méthodes habituelles ne sont pas fiables. Le premier problème porte sur des tests de rupture applicables dans les modèles multivariées et valides dans les échantillons finis. La plupart des tests de changement structurel disponibles sont des procédures asymptotiquement valides pour les modèles multivariés. D'abord, nous montrons que la majorité des tests de rupture les plus populaires souffrent de sérieux problèmes de taille. Ensuite, nous proposons trois types de tests de stabilité valides en échantillon fini: des versions exactes du test de rupture proposée par Bai, Lumsdaine et Stock (1998), des tests prédictifs multivariés, et des extensions du test de détection de valeurs aberrantes dû à Wilks (1963). Les statistiques de test proposées sont pivotales, de sorte que nous appliquons la méthode de test Monte Carlo pour obtenir des valeurs p (p-values) exactes. Ces procédures de test sont valides pourvu que la distribution multivariée des termes d'erreurs soit spécifiée à une matrice inversible près (l'hypothèse de normalité n'est pas nécessaire). Nous avons fait une étude de simulation pour évaluer les propriétés de niveau et de puissance des tests. Nous avons appliqué ces tests à un système de demande d'énergie estimé à partir des données annuelles canadiennes. Nos résultats illustrent, entre autres, les effets des chocs pétroliers et de la déréglementation des prix sur la demande d'énergie. Le deuxième sujet de recherche de cette thèse concerne les méthodes robustes à la non-identification et aux problèmes de frontière pour estimer des transformations non-linéaires des paramètres (i.e. le ratio de paramètres). Ce problème se rencontre dans plusieurs contextes économétriques, notamment dans l'estimation de la valeur du temps de voyage dans les modèles de demande de transport, ou dans l'inférence sur les élasticités de la demande ou de l'offre. Nous avons consacré deux textes à ce problème; le premier texte porte sur les développements théoriques généraux et quelques applications aux modèles de choix discret estimés par le maximum de vraisemblance analytique ou simulé; le second texte se concentre sur l'estimation des élasticités de la demande par rapport au prix et au revenu dans une équation dynamique de demande d'énergie. Pour le problème de l'estimation des ratios de paramètres, la méthode delta demeure la méthode la plus utilisée pour déterminer les intervalles de confiance correspondants. D'abord, nous mettons en évidence à l'aide d'études de simulation (basées sur des modèles de choix discret dans le premier texte et sur un modèle de régression dynamique dans le second) que la performance de l'intervalle de confiance obtenue à l'aide d'une méthode alternative du type de Fieller n'est pas affectée par les difficultés d'identification alors que le taux de couverture empirique de l'intervalle de confiance de la méthode delta s'éloigne énormément du niveau nominal lorsque le dénominateur devient proche de zéro, et ce pour toutes les tailles d'échantillon (petites et grandes). Ensuite, nous obtenons les expressions analytiques, simples à calculer, des bornes des ensembles de confiance simultanés, obtenus par projection, pour toute transformation linéaire scalaire d'un nombre fini de ratios de paramètres ayant un même dénominateur. En conséquence, l'utilisation de la méthode delta devrait être évitée dans ces contextes, alors que la méthode de Fieller est très prometteuse. Nos résultats utilisent de manière appropriée la géométrie des quadriques, récemment introduite en économétrie par Dufour et Taamouti (2005b) dans un context différent du nôtre mais relié. Nous illustrons la pertinence des méthodes que nous proposons à l'aide de deux études empiriques. La première analyse l'estimation de la valeur du temps de voyage dans divers modèles de demande de transport, et la seconde considère un modèle dynamique univarié de demande d'énergie spécifié pour le Québec (Canada). Étant donné qu'une procédure exacte existe [Dufour et Kiviet (1996,1998)] pour cette dernière situation, nous comparons la méthode de Fieller à la méthode exacte. Nos résultats montrent que la méthode de Fieller apparaît très prometteuse pour le problème de l'inférence statistique pour des ratios de paramètres. / In this thesis, we address two econometric problems related to statistical inference in econometric contexts where standard methods are unreliable. The first problem concerns finite-sample-motivated multivariate structural break tests. Most existing structural change tests are asymptotically justified in multivariate models. First we document serious size distortions associated with the most popular multivariate break tests. Next we propose three alternative finite sample structural change tests: exact versions of Bai, Lumsdaine and Stock (1998)'s break test, alternative multivariate predictive test procedures, and extensions of Wilks (1963)'s multivariate outliers test. Our proposed test statistics are pivotal, so we apply the Monte Carlo test method to obtain exact p-values. These procedures are valid provided the multivariate distribution of the error terms is specified up to an unknown non-singular matrix (normality is not strictly required). A large scale simulation study is conducted to assess the size and power properties of the proposed tests. Our tests are applied to an energy demand System estimated with annual Canadian data; our results illustrate the effects of oil shocks and price deregulation. The second research topic of this thesis concerns identification-robust estimation of non-linear parameter transformations (e.g. parameter ratio) allowing for boundary problems. This issue arises in a variety of econometric contexts, including estimation of value-of-time in transportation research, or inference on elasticities in demand or cost analysis. We devote two papers to this problem; the first paper provides general theoretical developments and an application to discrete choice models estimated by exact or simulation-based maximum likelihood while the second one focuses on the estimation of long run price and income elasticities in a dynamic demand equation. For the problem of estimating ratios, the delta method remains the commonly used method to derive associated confidence intervals. First we provide simulation-based evidence (for discrete choice models in the first paper and a dynamic regression model in the second paper) that an alternative Fieller-type method is immune to identification difficulties whereas the coverage rate of the confidence set based on the delta method deteriorates rapidly as the denominator becomes close to zéro, for ail sample sizes (small and large). Second, we derive easy-to-compute explicit solutions for projection-based simultaneous confidence limits for scalar linear transformations of a finite number of parameter ratios with a common denominator. Our derivations conveniently make use of quadrics mathematical tools, recently introduced to econometrics by Dufour and Taamouti (2005b), in a different although related context. We illustrate the usefulness of our proposed procedures via two empirical studies. The first focuses on the estimation of value-of-time in various transportation demand models, and the second analyses a univariate first-order dynamic energy demand model for Québec (Canada). Since an exact procedure [Dufour and Kiviet (1996, 1998)] is available - yet is computationally more demanding - for the latter context, we compare the Fieller method with the exact one. Our results show that the Fieller method seems very promising for inference on parameter ratios.
|
216 |
Étude du vieillissement et des systèmes biologiques: une approche multidimensionnelleMorissette-Thomas, Vincent January 2015 (has links)
On propose ici des méthodes statistiques qui tiennent compte de la structure complexe des bases de données et des interactions entre les variables. Parmi ces méthodes, certaines permettront de vérifier la stabilité et la robustesse des résultats obtenus. Nous utilisons l'analyse en composantes principales afin de détecter la présence de systèmes complexes. Nous utilisons la distance de Mahalanobis afin de décrire la dérèglement de ces systèmes et nous utilisons une méthode de bootstrap afin de vérifier la stabilité des résultats. Deux articles sont mis de l'avant afin de présenter l'application de ces outils dans le cadre du vieillissement et des systèmes biologiques sous-jacents.
|
217 |
Des chiffres et des êtres. étude introductive à l'identification de la représentation sociale de la statistique chez des étudiants de premier cycle en Sciences humaines et sociales en FranceBihan-Poudec, Alain January 2013 (has links)
Qu'on le déplore ou que l'on s'en félicite, la statistique est présente dans notre vie de tous les jours. Paradoxalement, les compétences pour l'appréhender semblent faire défaut, à tel point que plus d'un militent pour que la statistique fasse partie des compétences minimales de tout citoyen (statistical literacy). Mais au niveau de l'enseignement, de nombreux obstacles apparaissent quant à l'acquisition de ces compétences : ainsi, de multiples recherches ont-elles identifié maints obstacles, que ceux-ci soient d'ordre affectif ou cognitif. Toutefois ces recherches adoptent le point de vue de l'enseignant ou du chercheur et il n'en existe que peu qui se sont interrogées sur la représentation que les étudiants ont de la statistique. Tel est l'objectif général de la présente recherche. Après avoir caractérisé ce qu'est une représentation sociale et abouti à poser "qu'est statistique ce que l'on se donne comme étant statistique", une enquête a été menée en France auprès de 614 étudiants de différentes sections en Sciences humaines et sociales. Il s'en dégage qu'une vingtaine de mots rend compte de la statistique, tels mathématiques, pourcentages, chiffrs et calculs. Cependant, au-delà de ce discours commun, des différences apparaissent entre les sections quant aux mots utilisés pour caractériser la statistique : pour certains, les mots utilisés, peu nombreux, assimilent la statistique aux statistiques ; pour d'autres, elle est conçue comme des mathématiques utilisées dans le cadre d'études, de recherches. D'autres discours se distinguent soit par la proximité de la statistique avec la méthodologie du questionnaire, soit par son utilisation professionnelle : la référence aux mathématiques y est alors nettement atténuée. De ces résultats se dégagent des prolongements en termes de recherche (étude longitudinale de la représentation sociale de la statistique), en termes de pédagogie (conditions propices à la problématisation) et en termes de rapport au savoir (thêmata). Cette recherche invite les formateurs et les chercheurs en didactique à faire un pas de côté par rapport à leur propre représentation et à envisager celle potentiellement différente des apprenants ; à côté des chiffrs, il y a aussi des êtres.
|
218 |
Les stratégies de raisonnement à travers des problèmes statistiques et de proportionnalité chez des élèves du 3e cycle du primaireMai Huy, Khoi January 2013 (has links)
Dans le cadre de notre mémoire, nous avons comme objectif de décrire et de comprendre comment le contexte statistique, avec son caractère quasi-proportionnel, influence le raisonnement chez les élèves au 3e cycle du primaire. D'abord, nous développons quatre problèmes. En résolvant ces problèmes, les élèves d'une classe du 3e cycle du primaire fourniront un aperçu de leur raisonnement proportionnel et statistique et des stratégies qu'ils utilisent pour la résolution de ces tâches qui favorisent un traitement statistique ou proportionnel. Le chapitre 1 de notre mémoire sert à présenter la problématique de la recherche. Ensuite, le chapitre 2 concerne le cadre conceptuel et les questions spécifiques de la recherche. Le chapitre 3 expose les considérations de la méthodologie, notamment de la description des tâches, de l'analyse et du traitement des données. Par la suite, dans le chapitre 4, nous présentons et analyserons nos données. Finalement, dans les chapitres 5 et 6, la discussion des résultats sert à mettre en relation des principaux résultats de la présente recherche. Aussi, quelques pistes à poursuivre dans d'autres recherches sont suggérées.
|
219 |
Un modèle mathématique de processus d'interrogation : les pseudoquestionnairesTerrenoire, Michel 20 October 1970 (has links) (PDF)
.
|
220 |
La simulation mésoscopique par dynamique dissipativePalato, Samuel January 2013 (has links)
La simulation des matériaux demande une compréhension de leur comportement à de nombreuses échelles de temps et d’espace. Ces différentes échelles requièrent des méthodes de simulations différentes, qui se basent sur des approximations différentes et donnent accès à différentes propriétés. La simulation multiéchelle est une approche qui regroupe l’utilisation de ces différentes méthodes, ainsi que des relations qui les unissent.
Des développements plus récents ont permis la mise au point de méthodes mésoscopiques, comblant le trou entre les simulations atomistiques (< 10 nm) et les milieux continus (>mm). La dynamique de particules dissipatives (DPD) est une telle méthode, qui présente de nombreux avantages théoriques et pratiques en comparaison avec d’autres méthodes mésoscopiques. La DPD est une méthode modélisant la matière par des particules molles, s’inspirant de l’équation de Langevin. La dynamique des particules est gérée par trois forces : une force conservative, une force dissipative et une force aléatoire. La force conservative naît des interactions effectives moyennes à l’échelle méso, alors que la force dissipative et la force aléatoire sont d’origine statistique. Différentes formulations et contributions à la force conservative sont présentées, permettant notamment la simulation de polymères enchevêtrés et de systèmes chargés. Les contraintes auxquelles les forces statistiques sont soumises, ainsi que leurs impacts sur les dynamiques, sont ensuite discutés. La présentation de la DPD se termine par des considérations sur les effets numériques particuliers à la DPD.
La puissance de la DPD est démontrée par la simulation de polymères arborescents. Les polymères arborescents sont des macromolécules hyperbranchées obtenues par une séquence de réactions de greffage de chaînes polymères. La structure qu’adoptent ces molécules n’est pas connue avec certitude. Des expériences ont permis aux chercheurs de proposer un modèle en loi de puissance pour le profil de densité radiale. Or, cette propriété n’est accessible qu’indirectement aux méthodes expérimentales, alors qu’elle peut être obtenue directement des travaux de simulation. La masse énorme de ces composés, ainsi que leur topologie complexe, impossible à réduire à un modèle plus simple, empêche toute simulation par des méthodes microscopiques traditionnelles. L’utilisation de méthodes mésoscopiques s’impose donc. Les polymères arborescents de génération 2 (d’une masse de l’ordre de 3,2×103 kDa) en solution (5 %) peuvent être simulés explicitement grâce à la DPD, et ce, en un temps acceptable. Les propriétés du solvant peuvent être ajustées, notamment leur qualité et leur masse moléculaire. Le profil de densité radiale moyen simulé correspond plutôt bien au modèle en loi de puissance proposé. L’analyse des données expérimentale suppose une symétrie sphérique des molécules individuelles qui s’avère être erronée. L’anisotropie des macromolécules est étudiée et s’avère être hautement variable. Des fonctions de distribution radiale ainsi que les patrons de diffusion de neutrons associés ont été obtenus. Ces derniers pourront être comparés directement aux résultats expérimentaux lorsque ces derniers seront disponibles.
L’utilisation de la DPD est riche en possibilités. Elle est facilement étendue à diverses classes de matériaux. Par sa nature dynamique et ses propriétés, la DPD donne accès à certaines classes de phénomènes inaccessibles aux autres méthodes de simulation mésoscopique. Notamment, la DPD permet naturellement la simulation dans l’état stationnaire, tel que démontré par la simulation de la structure du Nafion c sous cisaillement. De plus, le comportement hydrodynamique devrait permettre la simulation à l’échelle mésoscopique de la transition vitreuse ou à tout le moins, d’une transition lui ressemblant. De plus, la DPD peut être étendue afin d’effectuer la simulation dans d’autres ensembles thermodynamiques, qui donnent accès à d’autres propriétés d’intérêt pour les matériaux (conductivité thermique, propriétés mécaniques). Les versions actuelles de la DPD, bien que versatiles, ne permettent pas encore de reproduire quantitativement les propriétés des matériaux. Différents succès, obstacles et pistes de réflexion sont présentés. Le perfectionnement de la DPD fournit à la fois un prétexte et un banc d’essai de choix pour tenter de comprendre les questions fondamentales suscitées par le coarse-graining et l’échelle méso en elle-même.
|
Page generated in 0.1383 seconds