• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • 2
  • Tagged with
  • 10
  • 10
  • 10
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Échantillonnage de produits de fonctions

Rousselle, Fabrice January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Modélisation mathématique et étude numérique d'un aérosol dans un gaz raréfié. Application à la simulation du transport de particules de poussière en cas d'accident de perte de vide dans ITER.

Charles, Frédérique 25 November 2009 (has links) (PDF)
Dans ce travail, nous nous intéressons à des modèles cinétiques décrivant un aérosol constitué de particules solides dans un gaz raréfié. Ces modèles sont constitués d'un couplage de deux Équations aux Dérivées Partielles décrivant l'évolution spatio-temporelle des distributions en molécules de gaz et en particules de poussière. Le modèle présenté dans la première partie de ce travail est constitué d'un couplage de deux équations de type Boltzmann, dans lequel l'interaction entre les molécules de gaz et les particules de poussière est décrite par deux opérateurs de collision. Nous proposons deux modélisations de ces opérateurs. Dans la première, les collisions entre particules et molécules sont supposées élastiques. Dans la seconde, nous modélisons ces collisions par un mécanisme inélastique de réflexion diffuse sur la surface des particules. Nous établissons alors des opérateurs de collision d'expressions non classiques. D'un point de vue mathématique, nous montrons que le couplage homogène en espace muni des opérateurs de collision élastiques possède des solutions faibles préservant la masse et l'énergie, et vérifiant une inégalité d'entropie. Nous proposons ensuite une mise en oeuvre numérique du modèle dit de réflexion diffuse, basé sur un code de type Direct Simulation Monte Carlo. Celle-ci met en évidence un coût de simulation de l'opérateur particules-molécules trop élevé lorsque les particules ont un rayon trop grand. Nous introduisons alors dans la deuxième partie de ce travail un modèle constitué d'un couplage (par l'intermédiaire d'une force de traînée) entre une équation de Vlasov et une équation de Boltzmann. Pour cela, nous effectuons un adimensionnement du premier système, suivi d'un développement asymptotique de l'opérateur de collision particules-molécules adimensionné en fonction du rapport de masse entre une molécule et une particule de poussière. Nous justifions ensuite rigoureusement ce développement asymptotique dans le cas homogène en espace et pour le modèle de collisions élastiques en prouvant que les solutions du couplage Boltzmann/Boltzmann convergent faiblement vers des solutions du couplage asymptotique Vlasov/Boltzmann. Nous établissons pour cela une nouvelle variante de l'inégalité de Povzner, adaptée au cas de particules de masses très différentes. Par ailleurs, nous comparons numériquement les systèmes Boltzmann/Boltzmann et Vlasov/Boltzmann pour le modèle dit de réflexion diffuse. La mise en oeuvre numérique du système Vlasov/Boltzmann est réalisée par couplage entre une méthode de type Particle-In-Cell et une méthode Monte-Carlo. Enfin, nous présentons l'application de ces modèles à la simulation numérique de la mobilisation et du transport de particules de poussière au début d'un accident de perte de vide, dans le cadre d'étude de sûreté pour le réacteur ITER
3

Schémas numériques pour la modélisation hybride des écoulements turbulents gaz-particules

Dorogan, Kateryna 24 May 2012 (has links) (PDF)
Les méthodes hybrides Moments/PDF sont bien adaptées pour la description des écoulements diphasiques turbulents, polydispersés, hors équilibre thermodynamique. Ces méthodes permettent d'avoir une description assez fine de la polydispersion, de la convection et des termes sources non-linéaires. Cependant, les approximations issues de telles simulations sont bruitées ce qui, dans certaines situations, occasionne un biais. L'approche alternative étudiée dans ce travail consiste à coupler une description Eulerienne des moments avec une description stochastique Lagrangienne à l'intérieur de la phase dispersée, permettant de réduire l'erreur statistique et d'éliminer le biais. La mise en oeuvre de cette méthode nécessite le développement de schémas numériques robustes. Les approches proposées sont basées sur l'utilisation simultanée des techniques de relaxation et de décentrement, et permettent d'obtenir des approximations stables des solutions instationnaires du système d'équations aux dérivées partielles, avec des données peu régulières provenant du couplage avec le modèle stochastique. Une comparaison des résultats de la méthode hybride Moments-Moments/PDF avec ceux issus de la méthode hybride ''classique'' est présentée en termes d'analyse des erreurs numériques sur un cas de jet co-courant gaz-particules.
4

Chromodynamique quantique sur réseau et propriétés du nucléon

Baron, Rémi 18 September 2009 (has links) (PDF)
L'objet de cette thèse est le calcul ab-initio des propriétés du nucléon en partant de la théorie microscopique de l'interaction forte, la chromodynamique quantique (QCD). Cette théorie, dont les degrés de liberté sont les quarks et les gluons, a été bien testée dans les expériences à haute énergie car la liberté asymptotique, le fait que l'interaction s'annule à courte distance, permet d'utiliser l'approximation perturbative. Pour prédire des propriétés qui font intervenir de grandes distances, comme les masses ou les distributions de courant, il faut un traitement exact de la théorie. Celle-ci est discrétisée sur un réseau quadridimensionnel et les observables quantiques sont calculées par la méthode de l'intégrale de chemin, comme expliqué dans les chapitres II et III. Dans le chapitre IV nous discutons les problèmes posés par la discrétisation des fermions et nous expliquons le choix retenu pour nos calculs c'est-à-dire la discrétisation ``à la Wilson'' avec masse twistée. Elle présente l'avantage de supprimer les effets de discrétisation de l'ordre de la maille du réseau au prix de l'ajustement d'un paramètre. Le calcul numérique de l'intégrale de chemin est fait par la méthode de Monte Carlo avec échantillonnage préférentiel. L'algorithme ``Hybrid Monte Carlo'', basé sur la dynamique moléculaire, est présenté dans le chapitre V ainsi que la méthode de résolution de grands systèmes linéaires creux qui apparaîssent dans le calcul des observables. Ce chapitre présente aussi les aspects informatiques du problème, c'est-à-dire le parallélisme massif ainsi que les caractéristiques des machines utilisées. Dans le chapitre VI nous expliquons la méthodologie suivie pour la production des ensembles représentatifs de configuration de jauge. La mise en oeuvre et le contrôle de cette production est une part importante du travail effectué pendant cette thèse. Les deux derniers chapitres sont consacrés au calcul proprement dit des observables et à la présentation des résultats. La principale difficulté technique, l'évaluation des propagateurs de quark, a été résolue en exploitant au mieux les fermes de processeurs disponibles. Une part importante du travail de thèse a été consacrée à ce problème. Dans la conclusion nous faisons le point sur l'état des calculs de QCD sur réseau et nous discutons de l'évolution du domaine dans la perspective des nouveaux moyens de calculs et des développements théoriques récents.
5

Nouvelles méthodes en filtrage particulaire-Application au recalage de navigation inertielle par mesures altimétriques

DAHIA, Karim 04 January 2005 (has links) (PDF)
L'objectif de ce mémoire est de développer et d'étudier un nouveau type de filtre particulaire appelé le filtre de Kalman-particulaire à noyaux (KPKF). Le KPKF modélise la densité conditionnelle de l'état comme un mélange de gaussiennes centrées sur les particules et ayant des matrices de covariance de norme petite. L'algorithme du KPKF utilise une correction de l'état de type Kalman et une correction de type particulaire modifiant les poids des particules. Un nouveau type de ré-échantillonnage permet de préserver la structure de cette mixture. Le KPKF combine les avantages du filtre particulaire régularisé en terme de robustesse et du filtre de Kalman étendu en terme de précision. Cette nouvelle méthode de filtrage a été appliquée au recalage de navigation inertielle d'un aéronef disposant d'un radio altimètre. Les résultats obtenus montrent que le KPKF fonctionne pour de grandes zones d'incertitude initiale de position.
6

Les techniques Monte Carlo par chaînes de Markov appliquées à la détermination des distributions de partons / Markov chain Monte Carlo techniques applied to parton distribution functions determination : proof of concept

Gbedo, Yémalin Gabin 22 September 2017 (has links)
Nous avons développé une nouvelle approche basée sur les méthodes Monte Carlo par chaînes de Markov pour déterminer les distributions de Partons et quantifier leurs incertitudes expérimentales. L’intérêt principal d’une telle étude repose sur la possibilité de remplacer la minimisation standard avec MINUIT de la fonction χ 2 par des procédures fondées sur les méthodes Statistiques et sur l’inférence Bayésienne en particulier,offrant ainsi une meilleure compréhension de la détermination des distributions de partons. Après avoir examiné ces techniques Monte Carlo par chaînes de Markov, nous introduisons l’algorithme que nous avons choisi de mettre en œuvre, à savoir le Monte Carlo hybride (ou Hamiltonien). Cet algorithme, développé initialement pour la chromodynamique quantique sur réseau, s’avère très intéressant lorsqu’il est appliqué à la détermination des distributions de partons par des analyses globales. Nous avons montré qu’il permet de contourner les difficultés techniques dues à la grande dimensionnalité du problème, en particulier celle relative au taux d’acceptation. L’étude de faisabilité réalisée et présentée dans cette thèse indique que la méthode Monte Carlo par chaînes de Markov peut être appliquée avec succès à l’extraction des distributions de partons et à leurs in-certitudes expérimentales. / We have developed a new approach to determine parton distribution functions and quantify their experimental uncertainties, based on Markov Chain Monte Carlo methods.The main interest devoted to such a study is that we can replace the standard χ 2 MINUIT minimization by procedures grounded on Statistical Methods, and on Bayesian inference in particular, thus offering additional insight into the rich field of PDFs determination.After reviewing these Markov chain Monte Carlo techniques, we introduce the algorithm we have chosen to implement – namely Hybrid (or Hamiltonian) Monte Carlo. This algorithm, initially developed for lattice quantum chromodynamique, turns out to be very interesting when applied to parton distribution functions determination by global analyses ; we have shown that it allows to circumvent the technical difficulties due to the high dimensionality of the problem, in particular concerning the acceptance rate. The feasibility study performed and presented in this thesis, indicates that Markov chain Monte Carlo method can successfully be applied to the extraction of PDFs and of their experimental uncertainties.
7

Schémas numériques pour la modélisation hybride des écoulements turbulents gaz-particules

Dorogan, Kateryna 24 May 2012 (has links)
Les méthodes hybrides Moments/PDF sont bien adaptées pour la description des écoulements diphasiques turbulents, polydispersés, hors équilibre thermodynamique. Ces méthodes permettent d'avoir une description assez fine de la polydispersion, de la convection et des termes sources non-linéaires. Cependant, les approximations issues de telles simulations sont bruitées ce qui, dans certaines situations, occasionne un biais. L'approche alternative étudiée dans ce travail consiste à coupler une description Eulerienne des moments avec une description stochastique Lagrangienne à l'intérieur de la phase dispersée, permettant de réduire l'erreur statistique et d'éliminer le biais. La mise en oeuvre de cette méthode nécessite le développement de schémas numériques robustes. Les approches proposées sont basées sur l'utilisation simultanée des techniques de relaxation et de décentrement, et permettent d'obtenir des approximations stables des solutions instationnaires du système d'équations aux dérivées partielles, avec des données peu régulières provenant du couplage avec le modèle stochastique. Une comparaison des résultats de la méthode hybride Moments-Moments/PDF avec ceux issus de la méthode hybride "classique'' est présentée en termes d'analyse des erreurs numériques sur un cas de jet co-courant gaz-particules. / Hybrid Moments/PDF methods have shown to be well suitable for the description of polydispersed turbulent two-phase flows in non-equilibrium which are encountered in some industrial situations involving chemical reactions, combustion or sprays. hey allow to obtain a fine enough physical description of the polydispersity, non-linear source terms and convection phenomena. However, their approximations are noised with the statistical error, which in several situations may be a source of a bias. An alternative hybrid Moments-Moments/PDF approach examined in this work consists in coupling the Moments and the PDF descriptions, within the description of the dispersed phase itself. This hybrid method could reduce the statistical error and remove the bias. However, such a coupling is not straightforward in practice and requires the development of accurate and stable numerical schemes. The approaches introduced in this work rely on the combined use of the upwinding and relaxation-type techniques. They allow to obtain stable unsteady approximations for a system of partial differential equations containing non-smooth external data which are provided by the PDF part of the model. A comparison of the results obtained using the present method with those of the ``classical'' hybrid approach is presented in terms of the numerical errors for a case of a co-current gas-particle wall jet.
8

Approches Monte-Carlo quantiques à chemins contraints pour le modèle en couches nucléaire

Bonnard, J. 07 December 2012 (has links) (PDF)
Le modèle en couches constitue aujourd'hui un cadre théorique de référence pour appréhender les propriétés des noyaux à basse énergie. Son applicabilité demeure toutefois limitée par une croissance rédhibitoire de la dimension de l'espace des états aussi bien avec le nombre de couches de valence qu'avec le nombre de nucléons. Les méthodes Monte-Carlo quantiques (QMC) permettent a priori de contourner une telle difficulté en offrant une alternative à la diagonalisation du hamiltonien. Elles reposent sur une reformulation stochastique de l'équation de Schrödinger qui ramène le problème à N-corps à un ensemble de problèmes à un corps, numériquement solubles, et décrivant des particules indépendantes évoluant chacune dans un champ extérieur fluctuant. L'originalité de l'échantillonnage QMC proposé dans ce mémoire réside dans l'utilisation d'une approche variationnelle, avec restauration des symétries avant variation, pour guider le mouvement brownien et pour le contraindre afin de contrôler le problème de phase inhérent aux schémas QMC pour des fermions en interaction. Dans les couches sd et fp et avec les interactions résiduelles réalistes, nous avons ainsi pu obtenir une spectroscopie " yrast " en excellent accord avec les résultats issus de la diagonalisation du hamiltonien. En outre, une ouverture vers les systèmes d'électrons fortement corrélés est présentée au travers de nouveaux schémas QMC récemment suggérés pour le modèle de Hubbard en géométrie bidimensionnelle. Contrairement aux échantillonnages traditionnels, ils garantissent des trajectoires à poids positifs quel que soit le régime considéré. Nous avons prouvé que ces méthodes sont en réalité reliées à l'approche stochastique mise en oeuvre pour le modèle en couches. L'origine des erreurs systématiques qu'exhibent ces schémas, pourtant exempts de problème de signe avec le hamiltonien de Hubbard, est par ailleurs élucidée.
9

Contributions à la description de signaux, d'images et de volumes par l'approche probabiliste et statistique

Alata, Olivier 04 October 2010 (has links) (PDF)
Les éléments principaux apparaissant dans ce document de synthèse sont les suivants : - La mise en exergue de la pertinence du critère d'information $\phi_\beta$ qui offre la possibilité d'être ``réglé'' par apprentissage de $\beta$ et cela quelque soit le problème de sélection de modèles pour lequel il est possible d'écrire un critère d'information, possibilité qui a été illustrée dans divers contextes applicatifs (supports de prédiction linéaire et dimension du modèle utilisé pour les cinétiques de $\dot VO_2$). - Une méthode d'estimation d'histogrammes pour décrire de manière non-paramé-trique la distribution d'échantillons et son utilisation en reconnaissance de lois supervisée dans un contexte de canaux de transmission. \item Une méthode dite ``comparative descendante'' permettant de trouver la meilleure combinaison des paramètres pour décrire les données étudiées sans avoir à tester toutes les combinaisons, illustrée sur l'obtention de supports de prédiction linéaire 1-d et 2-d. - La mise en place de stratégies de choix de modèles par rapport à des contextes variés comme l'imagerie TEP et les lois de mélange de Gauss et de Poisson ou les espaces couleur et les lois de mélange gaussiennes multidimensionnelles. - L'exploration des modèles de prédiction linéaire vectorielle complexe sur les images représentées dans des espaces couleur séparant l'intensité lumineuse de la partie chromatique et l'usage qui peut en être fait en caractérisation de textures afin de les classifier ou de segmenter les images texturées couleur. \item Des apports en segmentation : optimisation d'une méthode de segmentation non-supervisée d'images texturées en niveaux de gris ; une nouvelle méthode supervisée de segmentation d'images texturées couleur exploitant les espaces couleur psychovisuels et les erreurs de prédiction linéaire vectorielle complexe ; prise en compte dans des distributions de Gibbs d'informations géométriques et topologiques sur le champ des régions afin de réaliser de la segmentation 3-d ``haut-niveau'' exploitant le formalisme des processus ponctuels. - L'illustration des méthodes MCMC dans des contextes divers comme l'estimation de paramètres, l'obtention de segmentations 2-d ou 3-d ou la simulation de processus. Et beaucoup d'autres éléments se révèleront à sa lecture ...
10

Essays on bayesian analysis of state space models with financial applications

Gingras, Samuel 05 1900 (has links)
Cette thèse est organisée en trois chapitres où sont développées des méthodes de simulation à posteriori pour inférence Bayesienne dans des modèles espace-état ainsi que des modèles économétriques pour l’analyse de données financières. Au chapitre 1, nous considérons le problème de simulation a posteriori dans les modèles espace-état univariés et non-Gaussiens. Nous proposons une nouvelle méthode de Monte-Carlo par chaînes de Markov (MCMC) mettant à jour le vecteur de paramètres de la dynamique d’état ainsi que la séquence de variables d’état conjointement dans un bloc unique. La proposition MCMC est tirée en deux étapes: la distribution marginale du vecteur de paramètres de la dynamique d’état est construite en utilisant une approximation du gradient et du Hessien du logarithme de sa densité a posteriori, pour laquelle le vecteur de variables d’état a été intégré. La distribution conditionnelle de la séquence de variables d’état, étant donné la proposition du vecteur de paramètres, est telle que décrite dans McCausland (2012). Le calcul du gradient et du Hessien approximatif combine des sous-produits de calcul du tirage d’état avec une quantité modeste de calculs supplémentaires. Nous comparons l’efficacité numérique de notre simulation a posteriori à celle de la méthode Ancillarity-Sufficiency Interweaving Strategy (ASIS) décrite dans Kastner & Frühwirth-Schnatter (2014), en utilisant un modèle de volatilité stochastique Gaussien et le même panel de 23 taux de change quotidiens utilisé dans ce même article. Pour calculer la moyenne a posteriori du paramètre de persistance de la volatilité, notre efficacité numérique est de 6 à 27 fois plus élevée; pour la volatilité du paramètre de volatilité, elle est de 18 à 53 fois plus élevée. Nous analysons dans un second exemple des données de compte de transaction avec un modèle Poisson et Gamma-Poisson dynamique. Malgré la nature non Gaussienne des données de compte, nous obtenons une efficacité numérique élevée, guère inférieure à celle rapportée dans McCausland (2012) pour une méthode d’échantillonnage impliquant un calcul préliminaire de la forme de la distribution a posteriori statique des paramètres. Au chapitre 2, nous proposons un nouveau modèle de durée conditionnelle stochastique (SCD) pour l’analyse de données de transactions financières en haute fréquence. Nous identifions certaines caractéristiques indésirables des densités de durée conditionnelles paramétriques existantes et proposons une nouvelle famille de densités conditionnelles flexibles pouvant correspondre à une grande variété de distributions avec des fonctions de taux de probabilité modérément variable. Guidés par des considérations théoriques issues de la théorie des files d’attente, nous introduisons des déviations non-paramétriques autour d’une distribution exponentielle centrale, qui, selon nous, est un bon modèle de premier ordre pour les durées financières, en utilisant une densité de Bernstein. La densité résultante est non seulement flexible, dans le sens qu’elle peut s’approcher de n’importe quelle densité continue sur [0, ∞) de manière arbitraire, à condition qu’elle se compose d’un nombre suffisamment grand de termes, mais également susceptible de rétrécissement vers la distribution exponentielle. Grâce aux tirages très efficaces des variables d’état, l’efficacité numérique de notre simulation a posteriori se compare très favorablement à celles obtenues dans les études précédentes. Nous illustrons nos méthodes à l’aide des données de cotation d’actions négociées à la Bourse de Toronto. Nous constatons que les modèles utilisant notre densité conditionnelle avec moins de qua- tre termes offrent le meilleur ajustement. La variation régulière trouvée dans les fonctions de taux de probabilité, ainsi que la possibilité qu’elle ne soit pas monotone, aurait été impossible à saisir avec une spécification paramétrique couramment utilisée. Au chapitre 3, nous présentons un nouveau modèle de durée stochastique pour les temps de transaction dans les marchés d’actifs. Nous soutenons que les règles largement acceptées pour l’agrégation de transactions apparemment liées induisent une inférence erronée concernant les durées entre des transactions non liées: alors que deux transactions exécutées au cours de la même seconde sont probablement liées, il est extrêmement improbable que toutes paires de transactions le soient, dans un échantillon typique. En plaçant une incertitude sur les transactions liées dans notre modèle, nous améliorons l’inférence pour la distribution de la durée entre les transactions non liées, en particulier près de zéro. Nous proposons un modèle en temps discret pour les temps de transaction censurés permettant des valeurs nulles excessives résultant des durées entre les transactions liées. La distribution discrète des durées entre les transactions indépendantes découle d’une densité flexible susceptible de rétrécissement vers une distribution exponentielle. Dans un exemple empirique, nous constatons que la fonction de taux de probabilité conditionnelle sous-jacente pour des durées (non censurées) entre transactions non liées varie beaucoup moins que celles trouvées dans la plupart des études; une distribution discrète pour les transactions non liées basée sur une distribution exponentielle fournit le meilleur ajustement pour les trois séries analysées. Nous prétendons que c’est parce que nous évitons les artefacts statistiques qui résultent de règles déterministes d’agrégation des échanges et d’une distribution paramétrique inadaptée. / This thesis is organized in three chapters which develop posterior simulation methods for Bayesian inference in state space models and econometrics models for the analysis of financial data. In Chapter 1, we consider the problem of posterior simulation in state space models with non-linear non-Gaussian observables and univariate Gaussian states. We propose a new Markov Chain Monte Carlo (MCMC) method that updates the parameter vector of the state dynamics and the state sequence together as a single block. The MCMC proposal is drawn in two steps: the marginal proposal distribution for the parameter vector is constructed using an approximation of the gradient and Hessian of its log posterior density, with the state vector integrated out. The conditional proposal distribution for the state sequence given the proposal of the parameter vector is the one described in McCausland (2012). Computation of the approximate gradient and Hessian combines computational by-products of the state draw with a modest amount of additional computation. We compare the numerical efficiency of our posterior simulation with that of the Ancillarity-Sufficiency Interweaving Strategy (ASIS) described in Kastner & Frühwirth-Schnatter (2014), using the Gaus- sian stochastic volatility model and the panel of 23 daily exchange rates from that paper. For computing the posterior mean of the volatility persistence parameter, our numerical efficiency is 6-27 times higher; for the volatility of volatility parameter, 18-53 times higher. We analyse trans- action counts in a second example using dynamic Poisson and Gamma-Poisson models. Despite non-Gaussianity of the count data, we obtain high numerical efficiency that is not much lower than that reported in McCausland (2012) for a sampler that involves pre-computing the shape of a static posterior distribution of parameters. In Chapter 2, we propose a new stochastic conditional duration model (SCD) for the analysis of high-frequency financial transaction data. We identify undesirable features of existing parametric conditional duration densities and propose a new family of flexible conditional densities capable of matching a wide variety of distributions with moderately varying hazard functions. Guided by theoretical consideration from queuing theory, we introduce nonparametric deviations around a central exponential distribution, which we argue is a sound first-order model for financial durations, using a Bernstein density. The resulting density is not only flexible, in the sense that it can approximate any continuous density on [0,∞) arbitrarily closely, provided it consists of a large enough number of terms, but also amenable to shrinkage towards the exponential distribution. Thank to highly efficiency draws of state variables, numerical efficiency of our posterior simulation compares very favourably with those obtained in previous studies. We illustrate our methods using quotation data on equities traded on the Toronto Stock Exchange. We find that models with our proposed conditional density having less than four terms provide the best fit. The smooth variation found in the hazard functions, together with the possibility of it being non-monotonic, would have been impossible to capture using commonly used parametric specification. In Chapter 3, we introduce a new stochastic duration model for transaction times in asset markets. We argue that widely accepted rules for aggregating seemingly related trades mislead inference pertaining to durations between unrelated trades: while any two trades executed in the same second are probably related, it is extremely unlikely that all such pairs of trades are, in a typical sample. By placing uncertainty about which trades are related within our model, we improve inference for the distribution of duration between unrelated trades, especially near zero. We propose a discrete model for censored transaction times allowing for zero-inflation resulting from clusters of related trades. The discrete distribution of durations between unrelated trades arises from a flexible density amenable to shrinkage towards an exponential distribution. In an empirical example, we find that the underlying conditional hazard function for (uncensored) durations between unrelated trades varies much less than what most studies find; a discrete distribution for unrelated trades based on an exponential distribution provides a better fit for all three series analyzed. We claim that this is because we avoid statistical artifacts that arise from deterministic trade-aggregation rules and unsuitable parametric distribution.

Page generated in 0.0612 seconds