Spelling suggestions: "subject:"chaîne dde markov"" "subject:"chaîne dde darkov""
31 |
Stochasticité de l'expression génique et régulation transcriptionnelle -- Modélisation de la dynamique spatiale et temporelle des structures multiprotéiquesCoulon, Antoine 01 July 2010 (has links) (PDF)
La nature stochastique de l'expression génique est maintenant clairement établie expérimentalement et apparaît comme une composante à part entière de la dynamique cellulaire. Une source importante de cette variabilité est liée au caractère dynamique des diverses structures multiprotéiques impliquées dans le processus d'expression génique. Nous étudions ici, par la modélisation, comment les interactions entre des molécules au comportement individuel probabiliste sont susceptibles de faire naître des dynamiques globales pouvant influencer l'expression génique. Nous nous concentrons plus particulièrement sur deux aspects du processus d'expression : d'une part, son caractère spatialisé au sein d'un noyau cellulaire structuré et dynamique et, d'autre part, la combinatoire des événements moléculaires stochastiques au niveau du promoteur d'un gène. Pour l'étude des phénomènes d'organisation mésoscopique au sein du noyau cellulaire, nous proposons un modèle de simulation "4D" (intégrant l'espace et le temps). Il emprunte différentes techniques aux formalismes des échelles inférieures (moléculaires) et supérieures (cellulaires), en gardant les aspects essentiels à notre étude (individualité de certaines molécules, exclusion stérique, interactions électromagnétiques, réactions chimiques . . .). Afin d'étudier spécifiquement la dynamique stochastique de la régulation transcriptionnelle, nous proposons un second modèle décrivant les événements d'association/dissociation et de modification de la chromatine en se basant sur l'affinité coopérative/compétitive des molécules et leur potentielle activité enzymatique ou de remodelage. Par des techniques analytiques et computationnelles, nous caractérisons alors l'activité du promoteur à l'aide d'outils de théorie du signal, mais aussi en reproduisant les mesures obtenues par diverses techniques expérimentales (cinétique de ChIP, FRAP, FRET, cytométrie de flux . . .). L'analyse de ce modèle démontre que l'activité spontanée du promoteur peut être complexe et structurée, présentant en particulier des dynamiques multi-échelles similaires à celles observées expérimentalement (turnover rapide des molécules, comportements cycliques lents, hétérogénéités transcriptionnelles . . .). Nous montrons enfin comment la confrontation de mesures expérimentales de diverses natures peut renseigner sur la structure du système sous-jacent. Ce modèle apparaît alors comme un cadre théorique général pour l'étude de la dynamique des promoteurs et pour l'interprétation intégrée de données expérimentales.
|
32 |
Modèles hiérarchiques de Dirichlet à temps continuFaires, Hafedh 03 October 2008 (has links) (PDF)
Nous étudions les processus de Dirichlet dont le paramètre est une mesure proportionnelle à la loi d'un processus temporel, par exemple un mouvement Brownien ou un processus de saut Markovien. Nous les utilisons pour proposer des modèles hiérarchiques bayésiens basés sur des équations différentielles stochastiques en milieu aléatoire. Nous proposons une méthode pour estimer les paramètres de tels modèles et nous l'illustrons sur l'équation de Black-Scholes en milieu aléatoire.
|
33 |
Modélisation de l’observance et détermination de son impact biopharmaceutiqueSarem, Sarem 09 1900 (has links)
L’observance, qui décrit à quel degré le patient suit la prescription, est un facteur essentiel pour que le traitement réussisse. Les observances des patients varient beaucoup et l’efficacité du médicament varie parallèlement. Par conséquent, il faut avoir des paramètres sensibles et fiables pour mesurer l’observance. Dans la littérature, on trouve beaucoup de paramètres pour évaluer l’observance mais leurs avantages, limites et inconvénients, en ce qui concerne l’évaluation de l’impact de l’observance sur les effets des médicaments n’ont pas encore été étudiés en profondeur. L’évaluation de ces paramètres nécessite de les tester dans différentes situations. Comme les données disponibles sur l’observance ne concernent pas un ensemble exhaustif de situations, le recours à la simulation, en s’inspirant des cas réels ou plausibles, est très pertinent. On a ainsi réussi à développer un modèle dont les paramètres sont simples et compréhensibles et qui est pratique et flexible pour simuler les différents cas et même les cas extrêmes de l’observance. On a proposé de nouveaux paramètres pour mesurer l’impact biopharmaceutique de l’observance. Ensuite, on a comparé la performance, en termes de sensibilité et la fiabilité, des paramètres proposés et celles de paramètres déjà utilisés. En conclusion, on peut souligner qu’il n’y a pas de paramètre parfait étant donné que chacun a ses propres limites. Par exemple, pour les médicaments dont les effets sont directement liés aux leurs concentrations plasmatiques, le pourcentage des doses prises, qui est le paramètre le plus utilisé, offre la pire performance; par contre, le pourcentage des doses correctes nettes qui est un nouveau paramètre possède une bonne performance et des avantages prometteurs. / Compliance, which refers to the degree of the conformity to the prescription, is an essential factor for a successful treatment. The compliances of patients vary widely and the effectiveness of medication varies in parallel. Therefore, we need to have reliable and sensible parameters to measure it. In literature, there are many parameters to describe it, but their advantages, disadvantages and limitations regarding the assessment of the impact of compliance on drug have not yet been studied in depth. The evaluation of these parameters requires testing them in different situations. As available compliance data are not exhaustive, the use of the simulation, based on real or plausible cases, is very relevant. We succeeded to develop a model whose parameters are simple and understandable and which is convenient and flexible to simulate the different cases and even the extreme cases of compliance. We proposed new parameters for measuring the biopharmaceutical impact of compliance. Then, we compared the performance, in terms of sensibility and reliability, of these parameters and those already used to assess compliance and discussed their performances and limitations. In conclusion, we can emphasize that there is no ideal parameter since each one has its own limitations. For example, for drugs whose effects are directly related to their plasma concentrations, the percentage of taken doses, which is the most used parameter, has the worst performance, on the other hand, the percentage of the weighted correct doses, which is a new parameter, possesses a good performance and promising advantages.
|
34 |
Estimation par testsSart, Mathieu 25 November 2013 (has links) (PDF)
Cette thèse porte sur l'estimation de fonctions à l'aide de tests dans trois cadres statistiques différents. Nous commençons par étudier le problème de l'estimation des intensités de processus de Poisson avec covariables. Nous démontrons un théorème général de sélection de modèles et en déduisons des bornes de risque non-asymptotiques sous des hypothèses variées sur la fonction à estimer. Nous estimons ensuite la densité de transition d'une chaîne de Markov homogène et proposons pour cela deux procédures. La première, basée sur la sélection d'estimateurs constants par morceaux, permet d'établir une inégalité de type oracle sous des hypothèses minimales sur la chaîne de Markov. Nous en déduisons des vitesses de convergence uniformes sur des boules d'espaces de Besov inhomogènes et montrons que l'estimateur est adaptatif par rapport à la régularité de la densité de transition. La performance de l'estimateur est aussi évalué en pratique grâce à des simulations numériques. La seconde procédure peut difficilement être implémenté en pratique mais permet d'obtenir un résultat général de sélection de modèles et d'en déduire des vitesses de convergence sous des hypothèses plus générales sur la densité de transition. Finalement, nous proposons un nouvel estimateur paramétrique d'une densité. Son risque est contrôlé sous des hypothèses pour lesquelles la méthode du maximum de vraisemblance peut ne pas fonctionner. Les simulations montrent que ces deux estimateurs sont très proches lorsque le modèle est vrai et suffisamment régulier. Il est cependant robuste, contrairement à l'estimateur du maximum de vraisemblance.
|
35 |
Empirical processes of multiple mixing data / Processus empiriques de données à mélange multipleTusche, Marco 29 November 2013 (has links)
Cette thèse étudie la convergence en loi des processus empiriques de données à mélange multiple. Son contenu correspond aux articles : Durieu et Tusche (2012), Dehling, Durieu, et Tusche (2012), et Dehiing, Durieu et Tusche (2013). Nous suivons l’approche par approximation introduite dans Dehling, Durieu, et Vo1n (2009) et Dehling and Durieu (2011), qui ont établi des théorèmes limite centraux empiriques pour des variables aléatoires dépendants à valeurs dans R ou RAd, respectivement. En développant leurs techniques, nous généralisons leurs résultats à des espaces arbitraires et à des processus empiriques indexés par des classes de fonctions. De plus, nous étudions des processus empiriques séquentiels. Nos résultats s’appliquent aux chaînes de Markov B-géométriquement ergodiques, aux modèles itératifs lipschitziens, aux systèmes dynamiques présentant un trou spectral pour l’opérateur de Perron-Frobenius associé, ou encore, aux automorphismes du tore. Nous établissons des conditions garantissant la convergence du processus empirique de tels modèles vers un processus gaussien. / The present thesis studies weak convergence of empirical processes of multiple mixing data. It is based on the articles Durieu and Tusche (2012), Dehling, Durieu, and Tusche (2012), and Dehling, Durieu, and Tusche (2013). We follow the approximating class approach introduced by Dehling, Durieu, and Voln (2009)and Dehling and Durieu (2011), who established empirical central limit theorems for dependent R- and R”d-valued random variables, respectively. Extending their technique, we generalize their results to arbitrary state spaces and to empirical processes indexed by classes of functions. Moreover we study sequential empirical processes. Our results apply to B-geometrically ergodic Markov chains, iterative Lipschitz models, dynamical systems with a spectral gap on the Perron—Frobenius operator, and ergodic toms automorphisms. We establish conditions under which the empirical process of such processes converges weakly to a Gaussian process.
|
36 |
Approche probabiliste pour l'estimation dynamique de la confiance accordée à un équipement de production : vers une contribution au diagnostic de services des SED / A probabilistic approach to dynamically estimate the confidence for production equipments : Contribution to the diagnosis of discrete event systems services.Duong, Quoc Bao 19 December 2012 (has links)
Le travail que nous présentons dans ce mémoire apporte sa contribution au domaine dela surveillance et de la supervision en ligne des systèmes à événements discrets complexes.Il se place dans un contexte perturbé par l’occurrence d’aléas de fonctionnement d’une partieopérative au sein duquel nous visons à mettre à disposition des équipes de maintenance desoutils pour les aider à localiser rapidement les équipements à l’origine probable de défautsproduits : localiser mieux pour maintenir mieux et donc minimiser encore davantage les tempsde dérives équipements. Si les équipements de production étaient en mesure de détecterde telles dérives, le problème pourrait être considéré comme simple, cependant, la présenced’équipements de métrologie montre le contraire. Aussi, partant du constat que les équipementsde production ne peuvent être dotés d’un système de captage couvrant de manière exhaustivel’ensemble des paramètres à observer, que la fiabilité des capteurs est variable dans le temps,que les contextes de production sont particulièrement stressants, nous avons proposé ici dedévelopper une approche probabiliste basée sur un raisonnement Bayésien permettant d’estimeren temps réel la confiance qui peut être accordée aux opérations réalisées par les équipementsde production. / The work that we present in this paper contributes to the field of supervision, monitoringand control of complex discrete event systems services. It is placed in the context of randomfailure occurrence of operative parts where we focus on providing tools to maintenance teamsby locating the possible origin of potential defect products: better locate to better maintain, soeffectively to minimize more equipment’s time drift. If the production equipment were able todetect such drifts, the problem could be considered simple; however, metrology equipment addsto the complexity. In addition, because of an impossibility to equip the production equipment witha sensor system which comprehensively covers all parameters to be observed, a variable sensorreliability in time and a stressed production environments, we propose a probabilistic approachbased on Bayesian network to estimate real time confidence, which can be used for productionequipment?s operation.
|
37 |
Estimation par tests / Estimation via testingSart, Mathieu 25 November 2013 (has links)
Cette thèse porte sur l'estimation de fonctions à l'aide de tests dans trois cadres statistiques différents. Nous commençons par étudier le problème de l'estimation des intensités de processus de Poisson avec covariables. Nous démontrons un théorème général de sélection de modèles et en déduisons des bornes de risque non-asymptotiques sous des hypothèses variées sur la fonction à estimer. Nous estimons ensuite la densité de transition d'une chaîne de Markov homogène et proposons pour cela deux procédures. La première, basée sur la sélection d'estimateurs constants par morceaux, permet d'établir une inégalité de type oracle sous des hypothèses minimales sur la chaîne de Markov. Nous en déduisons des vitesses de convergence uniformes sur des boules d'espaces de Besov inhomogènes et montrons que l'estimateur est adaptatif par rapport à la régularité de la densité de transition. La performance de l'estimateur est aussi évalué en pratique grâce à des simulations numériques. La seconde procédure peut difficilement être implémenté en pratique mais permet d'obtenir un résultat général de sélection de modèles et d'en déduire des vitesses de convergence sous des hypothèses plus générales sur la densité de transition. Finalement, nous proposons un nouvel estimateur paramétrique d'une densité. Son risque est contrôlé sous des hypothèses pour lesquelles la méthode du maximum de vraisemblance peut ne pas fonctionner. Les simulations montrent que ces deux estimateurs sont très proches lorsque le modèle est vrai et suffisamment régulier. Il est cependant robuste, contrairement à l'estimateur du maximum de vraisemblance. / This thesis deals with the estimation of functions from tests in three statistical settings. We begin by studying the problem of estimating the intensities of Poisson processes with covariates. We prove a general model selection theorem from which we derive non-asymptotic risk bounds under various assumptions on the target function. We then propose two procedures to estimate the transition density of an homogeneous Markov chain. The first one selects an estimator among a collection of piecewise constant estimators. The selected estimator is shown to satisfy an oracle-type inequality under minimal assumptions on the Markov chain which allows us to deduce uniform rates of convergence over balls of inhomogeneous Besov spaces. Besides, the estimator is adaptive with respect to the smoothness of the transition density. We also evaluate the performance of the estimator in practice by carrying out numerical simulations. The second procedure is only of theoretical interest but yields a general model selection theorem from which we derive rates of convergence under more general assumptions on the transition density. Finally, we propose a new parametric estimator of a density. We upper-bound its risk under assumptions for which the maximum likelihood method may not work. The simulations show that these two estimators are very close when the model is true and regular enough. However, contrary to the maximum likelihood estimator, this estimator is robust.
|
38 |
Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles / Smoothing and estimation methods in hidden variable models through sequential Monte-Carlo methodsDubarry, Cyrille 09 October 2012 (has links)
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles / Hidden Markov chain models or more generally Feynman-Kac models are now widely used. They allow the modelling of a variety of time series (in finance, biology, signal processing, ...) Their increasing complexity gave birth to approximations using Monte-Carlo methods, among which Markov Chain Monte-Carlo (MCMC) and Sequential Monte-Carlo (SMC). SMC methods applied to particle filtering and smoothing are dealt with in this thesis. These methods consist in approximating the law of interest through a particle population sequentially defined. Different algorithms have already been developed and studied in the literature. We make some of these results more precise in the particular of the Forward Filtering Backward Smoothing and Forward Filtering Backward Simulation by showing exponential deviation inequalities and by giving non-asymptotic upper bounds to the mean error. We also introduce a new smoothing algorithm improving a particle population through MCMC iterations and allowing to estimate the estimator variance without further simulation. Part of the work presented in this thesis is devoted to the parallel computing of particle estimators. We study different interaction schemes between several particle populations. Finally, we also illustrate the use of hidden Markov chains in the modelling of financial data through an algorithm using Expectation-Maximization to calibrate the exponential Ornstein-Uhlenbeck multiscale stochastic volatility model
|
39 |
Méthodes de simulation stochastique pour le traitement de l’information / Stochastic simulation methods for information processingMinvielle-Larrousse, Pierre 05 March 2019 (has links)
Lorsqu’une grandeur d’intérêt ne peut être directement mesurée, il est fréquent de procéder à l’observation d’autres quantités qui lui sont liées par des lois physiques. Ces quantités peuvent contenir de l’information sur la grandeur d’intérêt si l’on sait résoudre le problème inverse, souvent mal posé, et inférer la valeur. L’inférence bayésienne constitue un outil statistique puissant pour l’inversion, qui requiert le calcul d’intégrales en grande dimension. Les méthodes Monte Carlo séquentielles (SMC), aussi dénommées méthodes particulaires, sont une classe de méthodes Monte Carlo permettant d’échantillonner selon une séquence de densités de probabilité de dimension croissante. Il existe de nombreuses applications, que ce soit en filtrage, en optimisation globale ou en simulation d’évènement rare. Les travaux ont porté notamment sur l’extension des méthodes SMC dans un contexte dynamique où le système, régi par un processus de Markov caché, est aussi déterminé par des paramètres statiques que l’on cherche à estimer. En estimation bayésienne séquentielle, la détermination de paramètres fixes provoque des difficultés particulières : un tel processus est non-ergodique, le système n’oubliant pas ses conditions initiales. Il est montré comment il est possible de surmonter ces difficultés dans une application de poursuite et identification de formes géométriques par caméra numérique CCD. Des étapes d’échantillonnage MCMC (Chaîne de Markov Monte Carlo) sont introduites pour diversifier les échantillons sans altérer la distribution a posteriori. Pour une autre application de contrôle de matériau, qui cette fois « hors ligne » mêle paramètres statiques et dynamiques, on a proposé une approche originale. Elle consiste en un algorithme PMMH (Particle Marginal Metropolis-Hastings) intégrant des traitements SMC Rao-Blackwellisés, basés sur des filtres de Kalman d’ensemble en interaction.D’autres travaux en traitement de l’information ont été menés, que ce soit en filtrage particulaire pour la poursuite d’un véhicule en phase de rentrée atmosphérique, en imagerie radar 3D par régularisation parcimonieuse ou en recalage d’image par information mutuelle. / When a quantity of interest is not directly observed, it is usual to observe other quantities that are linked by physical laws. They can provide information about the quantity of interest if it is able to solve the inverse problem, often ill posed, and infer the value. Bayesian inference is a powerful tool for inversion that requires the computation of high dimensional integrals. Sequential Monte Carlo (SMC) methods, a.k.a. interacting particles methods, are a type of Monte Carlo methods that are able to sample from a sequence of probability densities of growing dimension. They are many applications, for instance in filtering, in global optimization or rare event simulation.The work has focused in particular on the extension of SMC methods in a dynamic context where the system, governed by a hidden Markov process, is also determined by static parameters that we seek to estimate. In sequential Bayesian estimation, the determination of fixed parameters causes particular difficulties: such a process is non-ergodic, the system not forgetting its initial conditions. It is shown how it is possible to overcome these difficulties in an application of tracking and identification of geometric shapes by CCD digital camera. Markov Monte Carlo Chain (MCMC) sampling steps are introduced to diversify the samples without altering the posterior distribution. For another material control application, which mixes static and dynamic parameters, we proposed an original offline approach. It consists of a Particle Marginal Metropolis-Hastings (PMMH) algorithm that integrates Rao-Blackwellized SMC, based on a bank of interacting Ensemble Kalman filters.Other information processing works has been conducted: particle filtering for atmospheric reentry vehicle tracking, 3D radar imaging by sparse regularization and image registration by mutual information.
|
40 |
Caractérisation et modélisation de l’écoulement de boues résiduaires dans un sécheur à palettes / Characterization and modeling of the flow pattern of sewage sludge in a paddle dryerCharlou, Christophe 28 April 2014 (has links)
Le séchage est une opération incontournable pour la valorisation énergétique des boues résiduaires. La flexibilité pour ajuster la teneur en matière sèche finale de la boue est un critère important pour le choix d'une technologie. Cet objectif est difficile à atteindre pour les sécheurs à palettes. La modélisation du processus est alors essentielle. Malheureusement, le comportement rhéologique des boues est complexe et la mécanique des fluides numérique est hors de portée. La notion de Distribution des Temps de Séjour est employée ici pour caractériser l'écoulement. Un protocole fiable et reproductible a été établi et mis en œuvre sur un pilote de laboratoire. Des injections Dirac d'oxyde de titane et de sels métalliques, avec la spectrométrie de fluorescence X comme méthode de détection, ont été employées pour caractériser les DTS du solide anhydre et de la boue humide. Pré-Mélanger la boue pâteuse, pour disperser le traceur par exemple, modifie la structure du matériau. Ceci a été mis en évidence par des mesures de distribution en taille des particules et par des caractérisations rhéologiques. Cependant, des expériences de séchage en batch ont montré que ce pré-Mélange n'a aucune influence sur la cinétique et sur la phase plastique. Nous avons montré que le solide anhydre et le solide humide s'écoulent de la même manière. Une seconde méthode, basée sur une détection par conductimétrie, a alors été développée. Plus facile à mettre en œuvre et moins onéreuse, cette méthode s'avère tout aussi fiable que la première. L'influence de la durée de stockage de la boue, avant séchage, a été évaluée. Le temps de séjour de la boue dans le sécheur double quand la durée de stockage passe de 24h à 48h. Finalement, un modèle d'écoulement, basé sur la théorie de chaînes de Markov, a été développé. L'écoulement du solide anhydre est décrit par une chaîne de n cellules parfaitement mélangées, n correspondant au nombre de palettes. Les probabilités de transition entre les cellules sont régies par deux paramètres : le ratio de recyclage interne, R, et la masse de solides retenus, MS. R est déterminé par la relation de Van der Laan et MS est identifié par ajustement du modèle aux données expérimentales. Le modèle décrit de manière satisfaisante les DTS. La masse de solides retenus identifiée est toujours plus faible que la quantité mesurée expérimentalement. Une partie de la boue, collée aux parois du sécheur et au rotor, agit comme un volume mort. / Drying is an unavoidable operation prior to sludge valorization in incineration, pyrolysis or gasification. The flexibility to adapt the solid content of the dried sludge to the demand is a major requirement of any drying system. This objective is difficult to reach for paddle dryers. Modeling the process is thus essential. Unfortunately, sludge rheological behavior is complex and computational fluid dynamics is out of reach for the time being. The concept of Residence Time Distribution (RTD) is used here to investigate sludge flow pattern in a paddle dryer. A reliable and reproducible protocol was established and implemented on a lab-Scale continuous dryer. Pulse injections of titanium oxide and of salt metals, with X-Ray fluorescence spectroscopy as detection method, were used to characterize the RTD of anhydrous solid and wet sludge, respectively. Premixing the pasty sludge, for tracer powder dispersion for instance, changes the structure of the material. This was highlighted through the measurements of particle size distributions and characterization of rheological properties. However, drying experiments performed in batch emphasized that premixing does not have any influence on the kinetic and the sticky phase. The RTD curves of the anhydrous solid are superimposed on those of the moist sludge. Consequently, a simpler protocol, based on pulse injection of chloride sodium and offline conductivity measurements, was established. Easier to implement in industry and cheaper, this method proves to be as reliable as the first one. The influence of storage duration prior to drying was assessed. The mean residence time doubles when the storage duration changes from 24h to 48h. Finally, a model based on the theory of Markov chains has been developed to represent the RTD. The flow of anhydrous solids is described by a chain of n perfectly mixed cells, n corresponding to the number of paddles. The transition probabilities between the cells are governed by two parameters: the ratio of internal recirculation, R, and the solids hold-Up, MS. R is determined from the Van der Laan's relation and MS is identified by fitting the model to the experimental RTD. The model describes the flow pattern with a good accuracy. The computed hold-Up is lower than the experimental one. Part of the sludge is stuck to the walls of the dryer, acting as dead volumes in the process.
|
Page generated in 0.0592 seconds