• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 22
  • 6
  • 1
  • Tagged with
  • 63
  • 63
  • 63
  • 23
  • 22
  • 18
  • 16
  • 14
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Algorithmes de restauration bayésienne mono- et multi-objets dans des modèles markoviens

Petetin, Yohan 27 November 2013 (has links) (PDF)
Cette thèse est consacrée au problème d'estimation bayésienne pour le filtrage statistique, dont l'objectif est d'estimer récursivement des états inconnus à partir d'un historique d'observations, dans un modèle stochastique donné. Les modèles stochastiques considérés incluent principalement deux grandes classes de modèles : les modèles de Markov cachés et les modèles de Markov à sauts conditionnellement markoviens. Ici, le problème est abordé sous sa forme générale dans la mesure où nous considérons le problème du filtrage mono- et multi objet(s), ce dernier étant abordé sous l'angle de la théorie des ensembles statistiques finis et du filtre " Probability Hypothesis Density ". Tout d'abord, nous nous intéressons à l'importante classe d'approximations que constituent les algorithmes de Monte Carlo séquentiel, qui incluent les algorithmes d'échantillonnage d'importance séquentiel et de filtrage particulaire auxiliaire. Les boucles de propagation mises en jeux dans ces algorithmes sont étudiées et des algorithmes alternatifs sont proposés. Les algorithmes de filtrage particulaire dits " localement optimaux ", c'est à dire les algorithmes d'échantillonnage d'importance avec densité d'importance conditionnelle optimale et de filtrage particulaire auxiliaire pleinement adapté sont comparés statistiquement, en fonction des paramètres du modèle donné. Ensuite, les méthodes de réduction de variance basées sur le théorème de Rao-Blackwell sont exploitées dans le contexte du filtrage mono- et multi-objet(s) Ces méthodes, utilisées principalement en filtrage mono-objet lorsque la dimension du vecteur d'état à estimer est grande, sont dans un premier temps étendues pour les approximations Monte Carlo du filtre Probability Hypothesis Density. D'autre part, des méthodes de réduction de variance alternatives sont proposées : bien que toujours basées sur le théorème de Rao-Blackwell, elles ne se focalisent plus sur le caractère spatial du problème mais plutôt sur son caractère temporel. Enfin, nous abordons l'extension des modèles probabilistes classiquement utilisés. Nous rappelons tout d'abord les modèles de Markov couple et triplet dont l'intérêt est illustré à travers plusieurs exemples pratiques. Ensuite, nous traitons le problème de filtrage multi-objets, dans le contexte des ensembles statistiques finis, pour ces modèles. De plus, les propriétés statistiques plus générales des modèles triplet sont exploitées afin d'obtenir de nouvelles approximations de l'estimateur bayésien optimal (au sens de l'erreur quadratique moyenne) dans les modèles à sauts classiquement utilisés; ces approximations peuvent produire des estimateurs de performances comparables à celles des approximations particulaires, mais ont l'avantage d'être moins coûteuses sur le plan calculatoire
42

Contributions à l'apprentissage statistique dans les modèles parcimonieux

Alquier, Pierre 06 December 2013 (has links) (PDF)
Ce mémoire d'habilitation a pour objet diverses contributions à l'estimation et à l'apprentissage statistique dans les modeles en grande dimension, sous différentes hypothèses de parcimonie. Dans une première partie, on introduit la problématique de la statistique en grande dimension dans un modèle générique de régression linéaire. Après avoir passé en revue les différentes méthodes d'estimation populaires dans ce modèle, on présente de nouveaux résultats tirés de (Alquier & Lounici 2011) pour des estimateurs agrégés. La seconde partie a essentiellement pour objet d'étendre les résultats de la première partie à l'estimation de divers modèles de séries temporelles (Alquier & Doukhan 2011, Alquier & Wintenberger 2013, Alquier & Li 2012, Alquier, Wintenberger & Li 2012). Enfin, la troisième partie présente plusieurs extensions à des modèles non param\étriques ou à des applications plus spécifiques comme la statistique quantique (Alquier & Biau 2013, Guedj & Alquier 2013, Alquier, Meziani & Peyré 2013, Alquier, Butucea, Hebiri, Meziani & Morimae 2013, Alquier 2013, Alquier 2008). Dans chaque section, des estimateurs sont proposés, et, aussi souvent que possible, des inégalités oracles optimales sont établies.
43

Calcul de la tension interfaciale de mélanges gaz / eau, gaz / huile et huile / eau par simulation moléculaire

Neyt, Jean-Claude 15 November 2013 (has links) (PDF)
La prédiction de valeurs de tension interfaciale des fluides est capitale dans de nombreuses applications industrielles. Les techniques de simulation moléculaire et l'évolution rapide des moyens de calcul intensif permettent depuis quelques années de prédire des valeurs de tension interfaciale pour des systèmes complexes. Des travaux concernant des équilibres liquide / vapeur des corps purs SO2, O2, N2 et Ar montrent que les modèles choisi pour chaque molécule peuvent influencer la qualité des prédictions de tension interfaciale. Des simulations d'équilibres gaz acide / alcane de type CO2 / n-butane, CO2 / n-décane et H2S / n-pentane ont ensuite été réalisées. Elles ont mis en évidence l'efficacité des méthodes de simulation de type Monte Carlo pour la prédiction des tensions interfaciales pour de tels systèmes. L'étude de systèmes ternaires H2O / N2+CH4 et H2O / CO2+H2S a par ailleurs montré que le recourt à la dynamique moléculaire pouvait faciliter l'équilibration des systèmes simulés, rendant plus efficace la prédiction des tensions interfaciales. L'étude d'équilibres liquide / vapeur de saumures de chlorure de sodium a permis de mettre en évidence l'efficacité de certains potentiels non-polarisables pour la prédiction de l'évolution de la tension interfaciale avec la molarité de sel. Les modèles polarisables de type core-shell choisis ne permettent de prédire ni les masses volumiques, ni les tensions interfaciales. Enfin, l'étude d'équilibres eau / alcane en présence de sel ou de méthanol a montré que les méthodes de dynamique moléculaire permettaient de prédire quantitativement des valeurs de tension interfaciale pour ce type d'interface. L'effet de l'alcool abaissant la tension interfaciale a bien été observé, tout comme son placement préférentiel à l'interface.
44

Étude probabiliste de systèmes de particules en interaction : applications à la simulation moléculaire

Roux, Raphaël 06 December 2010 (has links) (PDF)
Ce travail présente quelques résultats sur les systèmes de particules en interaction pour l'interprétation probabiliste des équations aux dérivées partielles, avec des applications à des questions de dynamique moléculaire et de chimie quantique. On présente notamment une méthode particulaire permettant d'analyser le processus de la force biaisante adaptative, utilisé en dynamique moléculaire pour le calcul de différences d'énergies libres. On étudie également la sensibilité de dynamiques stochastiques par rapport à un paramètre, en vue du calcul des forces dans l'approximation de Born-Oppenheimer pour rechercher l'état quantique fondamental de molécules. Enfin, on présente un schéma numérique basé sur un système de particules pour résoudre des lois de conservation scalaires, avec un terme de diffusion anormale se traduisant par une dynamique de sauts sur les particules
45

Détection et classification de cibles multispectrales dans l'infrarouge

MAIRE, Florian 14 February 2014 (has links) (PDF)
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l'avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d'aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d'aéronefs satisfaisant ces contraintes. Tout d'abord, nous spécifions une méthode de détection d'anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l'image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d'identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d'un modèle statistique d'observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L'estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d'apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l'estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu'en classification, justifient l'intérêt du développement de dispositifs permettant l'acquisition d'images multispectrales. Ces méthodes nous ont également permis d'identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d'aéronefs faiblement résolus en infrarouge
46

Particle methods in finance / Les méthodes de particule en finance

Miryusupov, Shohruh 20 December 2017 (has links)
Cette thèse contient deux sujets différents la simulation d'événements rares et un transport d'homotopie pour l'estimation du modèle de volatilité stochastique, dont chacun est couvert dans une partie distincte de cette thèse. Les méthodes de particules, qui généralisent les modèles de Markov cachés, sont largement utilisées dans différents domaines tels que le traitement du signal, la biologie, l'estimation d'événements rares, la finance, etc. Il existe un certain nombre d'approches basées sur les méthodes de Monte Carlo, tels que Markov Chain Monte Carlo (MCMC), Monte Carlo séquentiel (SMC). Nous appliquons des algorithmes SMC pour estimer les probabilités de défaut dans un processus d'intensité basé sur un processus stable afin de calculer un ajustement de valeur de crédit (CV A) avec le wrong way risk (WWR). Nous proposons une nouvelle approche pour estimer les événements rares, basée sur la génération de chaînes de Markov en simulant le système hamiltonien. Nous démontrons les propriétés, ce qui nous permet d'avoir une chaîne de Markov ergodique et nous montrons la performance de notre approche sur l'exemple que nous rencontrons dans la valorisation des options. Dans la deuxième partie, nous visons à estimer numériquement un modèle de volatilité stochastique, et à le considérer dans le contexte d'un problème de transport, lorsque nous aimerions trouver «un plan de transport optimal» qui représente la mesure d'image. Dans un contexte de filtrage, nous le comprenons comme le transport de particules d'une distribution antérieure à une distribution postérieure dans le pseudo-temps. Nous avons également proposé de repondérer les particules transportées, de manière à ce que nous puissions nous diriger vers la zone où se concentrent les particules de poids élevé. Nous avons montré sur l'exemple du modèle de la volatilité stochastique de Stein-Stein l'application de notre méthode et illustré le biais et la variance. / The thesis introduces simulation techniques that are based on particle methods and it consists of two parts, namely rare event simulation and a homotopy transport for stochastic volatility model estimation. Particle methods, that generalize hidden Markov models, are widely used in different fields such as signal processing, biology, rare events estimation, finance, etc. There are a number of approaches that are based on Monte Carlo methods that allow to approximate a target density such as Markov Chain Monte Carlo (MCMC), sequential Monte Carlo (SMC). We apply SMC algorithms to estimate default probabilities in a stable process based intensity process to compute a credit value adjustment (CV A) with a wrong way risk (WWR). We propose a novel approach to estimate rare events, which is based on the generation of Markov Chains by simulating the Hamiltonian system. We demonstrate the properties, that allows us to have ergodic Markov Chain and show the performance of our approach on the example that we encounter in option pricing.In the second part, we aim at numerically estimating a stochastic volatility model, and consider it in the context of a transportation problem, when we would like to find "an optimal transport map" that pushes forward the measure. In a filtering context, we understand it as the transportation of particles from a prior to a posterior distribution in pseudotime. We also proposed to reweight transported particles, so as we can direct to the area, where particles with high weights are concentrated. We showed the application of our method on the example of option pricing with Stein­Stein stochastic volatility model and illustrated the bias and variance.
47

Modeling spatial and temporal variabilities in hyperspectral image unmixing / Modélisation de la variabilité spectrale pour le démélange d’images hyperspectral

Thouvenin, Pierre-Antoine 17 October 2017 (has links)
Acquises dans plusieurs centaines de bandes spectrales contiguës, les images hyperspectrales permettent d'analyser finement la composition d'une scène observée. En raison de la résolution spatiale limitée des capteurs utilisés, le spectre d'un pixel d'une image hyperspectrale résulte de la composition de plusieurs signatures associées à des matériaux distincts. À ce titre, le démélange d'images hyperspectrales vise à estimer les signatures des différents matériaux observés ainsi que leur proportion dans chacun des pixels de l'image. Pour cette analyse, il est d'usage de considérer qu'une signature spectrale unique permet de décrire un matériau donné, ce qui est généralement intrinsèque au modèle de mélange choisi. Toutefois, la signature d'un matériau présente en pratique une variabilité spectrale qui peut être significative d'une image à une autre, voire au sein d'une même image. De nombreux paramètres peuvent en être cause, tels que les conditions d'acquisitions (e.g., conditions d'illumination locales), la déclivité de la scène observée ou des interactions complexes entre la lumière incidente et les éléments observés. À défaut d'être prises en compte, ces sources de variabilité perturbent fortement les signatures extraites, tant en termes d'amplitude que de forme. De ce fait, des erreurs d'estimation peuvent apparaître, qui sont d'autant plus importantes dans le cas de procédures de démélange non-supervisées. Le but de cette thèse consiste ainsi à proposer de nouvelles méthodes de démélange pour prendre en compte efficacement ce phénomène. Nous introduisons dans un premier temps un modèle de démélange original visant à prendre explicitement en compte la variabilité spatiale des spectres purs. Les paramètres de ce modèle sont estimés à l'aide d'un algorithme d'optimisation sous contraintes. Toutefois, ce modèle s'avère sensible à la présence de variations spectrales abruptes, telles que causées par la présence de données aberrantes ou l'apparition d'un nouveau matériau lors de l'analyse d'images hyperspectrales multi-temporelles. Pour pallier ce problème, nous introduisons une procédure de démélange robuste adaptée à l'analyse d'images multi-temporelles de taille modérée. Compte tenu de la dimension importante des données étudiées, notamment dans le cas d'images multi-temporelles, nous avons par ailleurs étudié une stratégie d'estimation en ligne des différents paramètres du modèle de mélange proposé. Enfin, ce travail se conclut par l'étude d'une procédure d'estimation distribuée asynchrone, adaptée au démélange d'un grand nombre d'images hyperspectrales acquises sur une même scène à différents instants. / Acquired in hundreds of contiguous spectral bands, hyperspectral (HS) images have received an increasing interest due to the significant spectral information they convey about the materials present in a given scene. However, the limited spatial resolution of hyperspectral sensors implies that the observations are mixtures of multiple signatures corresponding to distinct materials. Hyperspectral unmixing is aimed at identifying the reference spectral signatures composing the data -- referred to as endmembers -- and their relative proportion in each pixel according to a predefined mixture model. In this context, a given material is commonly assumed to be represented by a single spectral signature. This assumption shows a first limitation, since endmembers may vary locally within a single image, or from an image to another due to varying acquisition conditions, such as declivity and possibly complex interactions between the incident light and the observed materials. Unless properly accounted for, spectral variability can have a significant impact on the shape and the amplitude of the acquired signatures, thus inducing possibly significant estimation errors during the unmixing process. A second limitation results from the significant size of HS data, which may preclude the use of batch estimation procedures commonly used in the literature, i.e., techniques exploiting all the available data at once. Such computational considerations notably become prominent to characterize endmember variability in multi-temporal HS (MTHS) images, i.e., sequences of HS images acquired over the same area at different time instants. The main objective of this thesis consists in introducing new models and unmixing procedures to account for spatial and temporal endmember variability. Endmember variability is addressed by considering an explicit variability model reminiscent of the total least squares problem, and later extended to account for time-varying signatures. The variability is first estimated using an unsupervised deterministic optimization procedure based on the Alternating Direction Method of Multipliers (ADMM). Given the sensitivity of this approach to abrupt spectral variations, a robust model formulated within a Bayesian framework is introduced. This formulation enables smooth spectral variations to be described in terms of spectral variability, and abrupt changes in terms of outliers. Finally, the computational restrictions induced by the size of the data is tackled by an online estimation algorithm. This work further investigates an asynchronous distributed estimation procedure to estimate the parameters of the proposed models.
48

Méthodes conjointes de détection et suivi basé-modèle de cibles distribuées par filtrage non-linéaire dans les données lidar à balayage / Joint detection and model-based tracking methods of extended targets in scanning laser rangefinder data using non-linear filtering techniques

Fortin, Benoît 22 November 2013 (has links)
Dans les systèmes de perception multicapteurs, un point central concerne le suivi d'objets multiples. Dans mes travaux de thèse, le capteur principal est un télémètre laser à balayage qui perçoit des cibles étendues. Le problème desuivi multi-objets se décompose généralement en plusieurs étapes (détection, association et suivi) réalisées de manière séquentielle ou conjointe. Mes travaux ont permis de proposer des alternatives à ces méthodes en adoptant une approche "track-before-detect" sur cibles distribuées qui permet d'éviter la succession des traitements en proposant un cadre global de résolution de ce problème d'estimation. Dans une première partie, nous proposons une méthode de détection travaillant directement en coordonnées naturelles (polaires) qui exploite les propriétés d'invariance géométrique des objets suivis. Cette solution est ensuite intégrée dans le cadre des approches JPDA et PHD de suivi multicibles résolues grâce aux méthodes de Monte-Carlo séquentielles. La seconde partie du manuscrit vise à s'affranchir du détecteur pour proposer une méthode dans laquelle le modèle d'objet est directement intégré au processus de suivi. C'est sur ce point clé que les avancées ont été les plus significatives permettant d'aboutir à une méthode conjointe de détection et de suivi. Un processus d'agrégation a été développé afin de permettre une formalisation des données qui évite tout prétraitement sous-optimal. Nous avons finalement proposé un formalisme général pour les systèmes multicapteurs (multilidar, centrale inertielle, GPS). D'un point de vue applicatif, ces travaux ont été validés dans le domaine du suivi de véhicules pour les systèmes d'aide à la conduite. / In multi-sensor perception systems, an active topic concerns the multiple object tracking methodes. In this work, the main sensor is a scanning laser rangefinder perceiving extended targets. Tracking methods are generally composed of a three-step scheme (detection, association and tracking) which is jointly or sequentially implemented. This work proposes alternative solutions by considering a track-before-detect approach on extended targets. It avoids the classic procedures by proposing a global framework to solve this estimation problem. Firstly, we propose a detection method dealing with measurements in natural coordinates (polar) which is founded on geometrical invariance properties of the tracked objects. This solution is then integrated in the JPDA and PHD multi-target tracking frameworks solved with the sequential Monte-Carlo methods. The second part of this thesis aims at avoiding the detection step to propose an approach where the object model is directly embedded in the tracking process. This lets to build a novel joint detection and tracking approach. An aggregation process was developed to construct a measurement modeling avoiding any suboptimal preprocessing. We finally proposed a general framework for multi-sensor systems ( multiple lidar, inertial sensor, GPS). Theses methods were applied in the area of multiple vehicle tracking for the Advanced Driver Assistance Systems.
49

Estimation Bayésienne non Paramétrique de Systèmes Dynamiques en Présence de Bruits Alpha-Stables / Nonparametric Bayesian Estimition of Dynamical Systems in the Presence of Alpha-Stable Noise

Jaoua, Nouha 06 June 2013 (has links)
Dans un nombre croissant d'applications, les perturbations rencontrées s'éloignent fortement des modèles classiques qui les modélisent par une gaussienne ou un mélange de gaussiennes. C'est en particulier le cas des bruits impulsifs que nous rencontrons dans plusieurs domaines, notamment celui des télécommunications. Dans ce cas, une modélisation mieux adaptée peut reposer sur les distributions alpha-stables. C'est dans ce cadre que s'inscrit le travail de cette thèse dont l'objectif est de concevoir de nouvelles méthodes robustes pour l'estimation conjointe état-bruit dans des environnements impulsifs. L'inférence est réalisée dans un cadre bayésien en utilisant les méthodes de Monte Carlo séquentielles. Dans un premier temps, cette problématique a été abordée dans le contexte des systèmes de transmission OFDM en supposant que les distorsions du canal sont modélisées par des distributions alpha-stables symétriques. Un algorithme de Monte Carlo séquentiel a été proposé pour l'estimation conjointe des symboles OFDM émis et des paramètres du bruit $\alpha$-stable. Ensuite, cette problématique a été abordée dans un cadre applicatif plus large, celui des systèmes non linéaires. Une approche bayésienne non paramétrique fondée sur la modélisation du bruit alpha-stable par des mélanges de processus de Dirichlet a été proposée. Des filtres particulaires basés sur des densités d'importance efficaces sont développés pour l'estimation conjointe du signal et des densités de probabilité des bruits / In signal processing literature, noise's sources are often assumed to be Gaussian. However, in many fields the conventional Gaussian noise assumption is inadequate and can lead to the loss of resolution and/or accuracy. This is particularly the case of noise that exhibits impulsive nature. The latter is found in several areas, especially telecommunications. $\alpha$-stable distributions are suitable for modeling this type of noise. In this context, the main focus of this thesis is to propose novel methods for the joint estimation of the state and the noise in impulsive environments. Inference is performed within a Bayesian framework using sequential Monte Carlo methods. First, this issue has been addressed within an OFDM transmission link assuming a symmetric alpha-stable model for channel distortions. For this purpose, a particle filter is proposed to include the joint estimation of the transmitted OFDM symbols and the noise parameters. Then, this problem has been tackled in the more general context of nonlinear dynamic systems. A flexible Bayesian nonparametric model based on Dirichlet Process Mixtures is introduced to model the alpha-stable noise. Moreover, sequential Monte Carlo filters based on efficient importance densities are implemented to perform the joint estimation of the state and the unknown measurement noise density
50

Étude et simulation des processus de diffusion biaisés / Study and simulation of skew diffusion processes

Lenôtre, Lionel 27 November 2015 (has links)
Nous considérons les processus de diffusion biaisés et leur simulation. Notre étude se divise en quatre parties et se concentre majoritairement sur les processus à coefficients constants par morceaux dont les discontinuités se trouvent le long d'un hyperplan simple. Nous commençons par une étude théorique dans le cas de la dimension un pour une classe de coefficients plus large. Nous donnons en particulier un résultat sur la structure des densités des résolvantes associées à ces processus et obtenons ainsi une méthode de calcul. Lorsque cela est possible, nous effectuons une inversion de Laplace de ces densités et donnons quelques fonctions de transition. Nous nous concentrons ensuite sur la simulation des processus de diffusions baisées. Nous construisons un schéma numérique utilisant la densité de la résolvante pour tout processus de Feller. Avec ce schéma et les densités calculées dans la première partie, nous obtenons une méthode de simulation des processus de diffusions biaisées en dimension un. Après cela, nous regardons le cas de la dimension supérieure. Nous effectuons une étude théorique et calculons des fonctionnelles des processus de diffusions biaisées. Ceci nous permet d'obtenir entre autre la fonction de transition du processus marginal orthogonal à l'hyperplan de discontinuité. Enfin, nous abordons la parallélisation des méthodes particulaires et donnons une stratégie permettant de simuler de grand lots de trajectoires de processus de diffusions biaisées sur des architectures massivement parallèle. Une propriété de cette stratégie est de permettre de simuler à nouveau quelques trajectoires des précédentes simulations. / We consider the skew diffusion processes and their simulation. This study are divided into four parts and concentrate on the processes whose coefficients are piecewise constant with discontinuities along a simple hyperplane. We start by a theoretical study of the one-dimensional case when the coefficients belong to a broader class. We particularly give a result on the structure of the resolvent densities of these processes and obtain a computational method. When it is possible, we perform a Laplace inversion of these densities and provide some transition functions. Then we concentrate on the simulation of skew diffusions process. We build a numerical scheme using the resolvent density for any Feller processes. With this scheme and the resolvent densities computed in the previous part, we obtain a simulation method for the skew diffusion processes in dimension one. After that, we consider the multidimensional case. We provide a theoretical study and compute some functionals of the skew diffusions processes. This allows to obtain among others the transition function of the marginal process orthogonal to the hyperplane of discontinuity. Finally, we consider the parallelization of Monte Carlo methods. We provide a strategy which allows to simulate a large batch of skew diffusions processes sample paths on massively parallel architecture. An interesting feature is the possibility to replay some the sample paths of previous simulations.

Page generated in 0.0888 seconds