• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 12
  • 4
  • Tagged with
  • 38
  • 38
  • 11
  • 11
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Caractérisation des performances minimales d'estimation pour des modèles d'observations non-standards / Minimal performance analysis for non standard estimation models

Ren, Chengfang 28 September 2015 (has links)
Dans le contexte de l'estimation paramétrique, les performances d'un estimateur peuvent être caractérisées, entre autre, par son erreur quadratique moyenne (EQM) et sa résolution limite. La première quantifie la précision des valeurs estimées et la seconde définit la capacité de l'estimateur à séparer plusieurs paramètres. Cette thèse s'intéresse d'abord à la prédiction de l'EQM "optimale" à l'aide des bornes inférieures pour des problèmes d'estimation simultanée de paramètres aléatoires et non-aléatoires (estimation hybride), puis à l'extension des bornes de Cramér-Rao pour des modèles d'observation moins standards. Enfin, la caractérisation des estimateurs en termes de résolution limite est également étudiée. Ce manuscrit est donc divisé en trois parties :Premièrement, nous complétons les résultats de littérature sur les bornes hybrides en utilisant deux bornes bayésiennes : la borne de Weiss-Weinstein et une forme particulière de la famille de bornes de Ziv-Zakaï. Nous montrons que ces bornes "étendues" sont plus précises pour la prédiction de l'EQM optimale par rapport à celles existantes dans la littérature.Deuxièmement, nous proposons des bornes de type Cramér-Rao pour des contextes d'estimation moins usuels, c'est-à-dire : (i) Lorsque les paramètres non-aléatoires sont soumis à des contraintes d'égalité linéaires ou non-linéaires (estimation sous contraintes). (ii) Pour des problèmes de filtrage à temps discret où l'évolution des états (paramètres) est régit par une chaîne de Markov. (iii) Lorsque la loi des observations est différente de la distribution réelle des données.Enfin, nous étudions la résolution et la précision des estimateurs en proposant un critère basé directement sur la distribution des estimées. Cette approche est une extension des travaux de Oh et Kashyap et de Clark pour des problèmes d'estimation de paramètres multidimensionnels. / In the parametric estimation context, estimators performances can be characterized, inter alia, by the mean square error and the resolution limit. The first quantities the accuracy of estimated values and the second defines the ability of the estimator to allow a correct resolvability. This thesis deals first with the prediction the "optimal" MSE by using lower bounds in the hybrid estimation context (i.e. when the parameter vector contains both random and non-random parameters), second with the extension of Cramér-Rao bounds for non-standard estimation problems and finally to the characterization of estimators resolution. This manuscript is then divided into three parts :First, we fill some lacks of hybrid lower bound on the MSE by using two existing Bayesian lower bounds: the Weiss-Weinstein bound and a particular form of Ziv-Zakai family lower bounds. We show that these extended lower bounds are tighter than the existing hybrid lower bounds in order to predict the optimal MSE.Second, we extend Cramer-Rao lower bounds for uncommon estimation contexts. Precisely: (i) Where the non-random parameters are subject to equality constraints (linear or nonlinear). (ii) For discrete-time filtering problems when the evolution of states are defined by a Markov chain. (iii) When the observation model differs to the real data distribution.Finally, we study the resolution of the estimators when their probability distributions are known. This approach is an extension of the work of Oh and Kashyap and the work of Clark to multi-dimensional parameters estimation problems.
32

Etude des délais de survenue des effets indésirables médicamenteux à partir des cas notifiés en pharmacovigilance : problème de l'estimation d'une distribution en présence de données tronquées à droite / Time to Onset of Adverse Drug Reactions : Spontaneously Reported Cases Based Analysis and Distribution Estimation From Right-Truncated Data

Leroy, Fanny 18 March 2014 (has links)
Ce travail de thèse porte sur l'estimation paramétrique du maximum de vraisemblance pour des données de survie tronquées à droite, lorsque les délais de troncature sont considérés déterministes. Il a été motivé par le problème de la modélisation des délais de survenue des effets indésirables médicamenteux à partir des bases de données de pharmacovigilance, constituées des cas notifiés. Les distributions exponentielle, de Weibull et log-logistique ont été explorées.Parfois le caractère tronqué à droite des données est ignoré et un estimateur naïf est utilisé à la place de l'estimateur pertinent. Une première étude de simulations a montré que, bien que ces deux estimateurs - naïf et basé sur la troncature à droite - puissent être positivement biaisés, le biais de l'estimateur basé sur la troncature est bien moindre que celui de l'estimateur naïf et il en va de même pour l'erreur quadratique moyenne. De plus, le biais et l'erreur quadratique moyenne de l'estimateur basé sur la troncature à droite diminuent nettement avec l'augmentation de la taille d'échantillon, ce qui n'est pas le cas de l'estimateur naïf. Les propriétés asymptotiques de l'estimateur paramétrique du maximum de vraisemblance ont été étudiées. Sous certaines conditions, suffisantes, cet estimateur est consistant et asymptotiquement normal. La matrice de covariance asymptotique a été détaillée. Quand le délai de survenue est modélisé par la loi exponentielle, une condition d'existence de l'estimation du maximum de vraisemblance, assurant ces conditions suffisantes, a été obtenue. Pour les deux autres lois, une condition d'existence de l'estimation du maximum de vraisemblance a été conjecturée.A partir des propriétés asymptotiques de cet estimateur paramétrique, les intervalles de confiance de type Wald et de la vraisemblance profilée ont été calculés. Une seconde étude de simulations a montré que la couverture des intervalles de confiance de type Wald pouvait être bien moindre que le niveau attendu en raison du biais de l'estimateur du paramètre de la distribution, d'un écart à la normalité et d'un biais de l'estimateur de la variance asymptotique. Dans ces cas-là, la couverture des intervalles de la vraisemblance profilée est meilleure.Quelques procédures d'adéquation adaptées aux données tronquées à droite ont été présentées. On distingue des procédures graphiques et des tests d'adéquation. Ces procédures permettent de vérifier l'adéquation des données aux différents modèles envisagés.Enfin, un jeu de données réelles constitué de 64 cas de lymphomes consécutifs à un traitement anti TNF-α issus de la base de pharmacovigilance française a été analysé, illustrant ainsi l'intérêt des méthodes développées. Bien que ces travaux aient été menés dans le cadre de la pharmacovigilance, les développements théoriques et les résultats des simulations peuvent être utilisés pour toute analyse rétrospective réalisée à partir d'un registre de cas, où les données sur un délai de survenue sont aussi tronquées à droite. / This work investigates the parametric maximum likelihood estimation for right-truncated survival data when the truncation times are considered deterministic. It was motivated by the modeling problem of the adverse drug reactions time-to-onset from spontaneous reporting databases. The families of the exponential, Weibull and log-logistic distributions were explored.Sometimes, right-truncation features of spontaneous reports are not taken into account and a naive estimator is used instead of the truncation-based estimator. Even if the naive and truncation-based estimators may be positively biased, a first simulation study showed that the bias of the truncation-based estimator is always smaller than the naive one and this is also true for the mean squared error. Furthermore, when the sample size increases, the bias and the mean squared error are almost constant for the naive estimator while they decrease clearly for the truncation-based estimator.Asymptotic properties of the truncation-based estimator were studied. Under sufficient conditions, this parametric truncation-based estimator is consistent and asymptotically normally distributed. The covariance matrix was detailed. When the time-to-onset is exponentially distributed, these sufficient conditions are checked as soon as a condition for the maximum likelihood estimation existence is satisfied. When the time-to-onset is Weibull or log-logistic distributed, a condition for the maximum likelihood estimation existence was conjectured.The asymptotic distribution of the maximum likelihood estimator makes it possible to derive Wald-type and profile likelihood confidence intervals for the distribution parameters. A second simulation study showed that the estimated coverage probability of the Wald-type confidence intervals could be far from the expected level because of a bias of the parametric maximum likelihood estimator, a gap from the gaussian distribution and a bias of the asymptotic variance estimator. In these cases, the profile likelihood confidence intervals perform better.Some goodness-of-fit procedures adapted to right-truncated data are presented. Graphical procedures and goodness-of-fit tests may be distinguished. These procedures make it possible to check the fit of different parametric families to the data.Illustrating the developed methods, a real dataset of 64 cases of lymphoma, that occurred after anti TNF-α treatment and that were reported to the French pharmacovigilance, was finally analyzed. Whilst an application to pharmacovigilance was led, the theoretical developments and the results of the simulation study may be used for any retrospective analysis from case registries where data are right-truncated.
33

Développement et validation de stratégies de quantification lipidique par imagerie et spectroscopie proton à 3T : Application à l’étude de la surnutrition / Development and validation of lipid quantification strategies using proton magnetic resonance imaging and spectroscopy at 3T : Application to an overfeeding study

Nemeth, Angéline 28 November 2018 (has links)
L’imagerie et la spectroscopie par résonance magnétique nucléaire (IRM et SRM) sont des méthodes non-invasives qui ont le potentiel d’estimer in vivo la quantité et la qualité des adiposités abdominales. Le contexte scientifique et clinique de ce manuscrit s’articule autour de l’étude de surnutrition « Poly-Nut » dont l’un des objectifs est d’analyser les évolutions des tissus adipeux (TA) dans une phase rapide de prise de poids. L’originalité et la complexité de cette thèse résident dans le développement, l’adaptation et la comparaison de plusieurs méthodes quantitatives d’IRM et de SRM, pour l’étude du signal lipidique dans un contexte clinique à 3T. La fiabilité et la validation des mesures obtenues in vivo par ces techniques font ici l’objet d’une étude approfondie. Pour l’analyse quantitative du signal de spectroscopie, différentes méthodes existantes ont été comparées à celle développée spécifiquement pour notre étude clinique. L’estimation paramétrique par moindres carrés non linéaires appliquée aux spectres RMN des lipides peut conduire, selon la fonction modèle utilisée, à un problème non linéaire mal posé. Nous montrons alors que l’utilisation d’un modèle simplifié se fondant sur la structure d’une chaine de triglycéride, comme utilisé récemment en imagerie quantitative, constitue une solution valide au regard de l’état de l’art. Ensuite différentes méthodes (IRM, SRM, Dual Energy X-ray absorptiometry, chromatographie en phase gazeuse) ont été utilisées pour caractériser les TA sous-cutanés et viscéraux. Le suivi par IRM du contenu lipidique du foie ainsi que du volume et de la composition en acide gras des TA à partir d’une unique acquisition en multi-écho de gradient est démontré. Enfin des développements expérimentaux menés parallèlement à l’étude clinique sur un imageur préclinique à 4,7T, comparent différentes stratégies d’encodage du déplacement chimique par imagerie et caractérisent des méthodes SRM pour estimer in vivo la proportion d’omégas-3 dans les chaînes d’acides gras. / Magnetic resonance imaging and spectroscopy (MRI and MRS) are non-invasive methods that have the potential to estimate in vivo the quantity and the quality of abdominal adipose tissues (AT). The scientific and clinical context of this thesis is based on an overfeeding study entitled "Poly-Nut". One of the main objectives of this study is to analyze changes in adipose tissues in a rapid phase of weight gain. The originality and complexity of this thesis rely in the development, adaptation and comparison of several quantitative methods of MRI and MRS, for the study of lipid signal, in a clinical context, at 3T. The reliability and the validation of the measurements obtained in vivo using these techniques are the main subject of this PhD thesis. For the quantitative analysis of the spectroscopy signal, different existing methods have been compared to those developed specifically for our clinical study. According to the model function used, the nonlinear-least-squares parametric estimation applied to the lipid spectra can lead to an ill-posed nonlinear problem. We demonstrated that the use of a simplified model based on the structure of a triglyceride chain, as recently used in quantitative imaging, was a valid solution regarding the state of the art. Then different methods (MRI, MRS, Dual Energy X-ray absorptiometry, gas chromatography) were used to characterize the subcutaneous and visceral AT. We demonstrated the feasibility of MRI to follow the lipid content in the liver as well as the volume and the fatty acid composition of AT using a single multiple gradient-echo acquisition. Finally, experimental developments were carried out in parallel with the clinical study, on a 4.7T preclinical system, first, to compare different strategies for encoding the chemical shift using imaging and, secondly, to characterize MRS methods for in vivo estimation of the relative proportion of omega-3 among all fatty acids.
34

Une Approche vers la Description et l'Identification d'une Classe de Champs Aléatoires

Dachian, Serguei 21 January 1999 (has links) (PDF)
Une nouvelle approche de la description des champs aléatoires sur le réseau entier $\nu$-dimensionnel $Z^\nu$ est présentée. Les champs al'eatoires sont décrits en terme de certaines fonctions de sous-ensembles de $Z^\nu$ , à savoir les $P$-fonctions, les $Q$-fonctions, les $H$-fonctions, les $Q$-systèmes, les $H$-systèmes et les systèmes ponctuels. La corrélation avec la description Gibbsienne classique est montrée. Une attention particulière est portée au cas quasilocal. Les champs aléatoires non-Gibbsiens sont aussi considérés. Un procédé général pour construire des champs aléatoires non-Gibbsiens est donné. La solution du problème de Dobrushin concernant la description d'un champ aléatoire par ses distributions conditionnelles ponctuelles est déduite de notre approche. Ensuite, le problème de l'estimation paramétrique pour les champs aléatoires de Gibbs est considéré. Le champ est supposé spécifié en terme d'un système ponctuel local invariant par translation. Un estimateur du système ponctuel est construit comme un rapport de certaines fréquences conditionnelles empiriques. Ses consistances exponentielle et $L^p$ uniformes sont démontrées. Finalement, le problème nonparamétrique de l'estimation d'un système ponctuel quasilocal est considéré. Un estimateur du système ponctuel est construit par la méthode de "sieves". Ses consistances exponentielle et $L^p$ sont prouvées dans des cadres différents. Les résultats sont valides indépendamment de la non-unicité et de la perte de l'invariance par translation.
35

Autocorrélation et stationnarité dans le processus autorégressif

Proïa, Frédéric 04 November 2013 (has links) (PDF)
Cette thèse est dévolue à l'étude de certaines propriétés asymptotiques du processus autorégressif d'ordre p. Ce dernier qualifie communément une suite aléatoire $(Y_{n})$ définie sur $\dN$ ou $\dZ$ et entièrement décrite par une combinaison linéaire de ses $p$ valeurs passées, perturbée par un bruit blanc $(\veps_{n})$. Tout au long de ce mémoire, nous traitons deux problématiques majeures de l'étude de tels processus : l'\textit{autocorrélation résiduelle} et la \textit{stationnarité}. Nous proposons en guise d'introduction un survol nécessaire des propriétés usuelles du processus autorégressif. Les deux chapitres suivants sont consacrés aux conséquences inférentielles induites par la présence d'une autorégression significative dans la perturbation $(\veps_{n})$ pour $p=1$ tout d'abord, puis pour une valeur quelconque de $p$, dans un cadre de stabilité. Ces résultats nous permettent d'apposer un regard nouveau et plus rigoureux sur certaines procédures statistiques bien connues sous la dénomination de \textit{test de Durbin-Watson} et de \textit{H-test}. Dans ce contexte de bruit autocorrélé, nous complétons cette étude par un ensemble de principes de déviations modérées liées à nos estimateurs. Nous abordons ensuite un équivalent en temps continu du processus autorégressif. Ce dernier est décrit par une équation différentielle stochastique et sa solution est plus connue sous le nom de \textit{processus d'Ornstein-Uhlenbeck}. Lorsque le processus d'Ornstein-Uhlenbeck est lui-même engendré par une diffusion similaire, cela nous permet de traiter la problématique de l'autocorrélation résiduelle dans le processus à temps continu. Nous inférons dès lors quelques propriétés statistiques de tels modèles, gardant pour objectif le parallèle avec le cas discret étudié dans les chapitres précédents. Enfin, le dernier chapitre est entièrement dévolu à la problématique de la stationnarité. Nous nous plaçons dans le cadre très général où le processus autorégressif possède une tendance polynomiale d'ordre $r$ tout en étant engendré par une marche aléatoire intégrée d'ordre $d$. Les résultats de convergence que nous obtenons dans un contexte d'instabilité généralisent le \textit{test de Leybourne et McCabe} et certains aspects du \textit{test KPSS}. De nombreux graphes obtenus en simulations viennent conforter les résultats que nous établissons tout au long de notre étude.
36

Luminance-Chrominance linear prediction models for color textures: An application to satellite image segmentation

Qazi, Imtnan-Ul-Haque 01 July 2010 (has links) (PDF)
Cette thèse détaille la conception, le développement et l'analyse d'un nouvel outil de caractérisation des textures exploitant les modèles de prédiction linéaire complexe sur les espaces couleur perceptuels séparant l'intensité lumineuse de la partie chromatique. Des modèles multicanaux 2-d causaux et non-causaux ont été utilisés pour l'estimation simultanée des densités spectrales de puissance d'une image " bi-canal ", le premier contenant les valeurs réelles de l'intensité et le deuxième les valeurs complexes de la partie chromatique. Les bonnes performances en terme de biais et de variance de ces estimations ainsi que l'usage d'une distance appropriée entre deux spectres assurent la robustesse et la pertinence de l'approche pour la classification de textures. Une mesure de l'interférence existante entre l'intensité et la partie chromatique à partir de l'analyse spectrale est introduite afin de comparer les transformations associées aux espaces couleur. Des résultats expérimentaux en classification de textures sur différents ensembles de tests, dans différents espaces couleur (RGB, IHLS et L*a*b*) sont présentés et discutés. Ces résultats montrent que la structure spatiale associée à la partie chromatique d'une texture couleur est mieux caractérisée à l'aide de l'espace L*a*b* et de ce fait, cet espace permet d'obtenir les meilleurs résultats pour classifier les textures à l'aide de leur structure spatiale et des modèles de prédiction linéaire. Une méthode bayésienne de segmentation d'images texturées couleur a aussi été développée à partir de l'erreur de prédiction linéaire multicanale. La contribution principale de la méthode réside dans la proposition d'approximations paramétriques robustes pour la distribution de l'erreur de prédiction linéaire multicanale : la distribution de Wishart et une approximation multimodale exploitant les lois de mélanges gaussiennes multivariées. Un autre aspect original de l'approche consiste en la fusion d'un terme d'énergie sur la taille des régions avec l'énergie du modèle de Potts afin de modéliser le champ des labels de classe à l'aide d'un modèle de champ aléatoire possédant une distribution de Gibbs. Ce modèle de champ aléatoire est ainsi utilisé pour régulariser spatialement un champ de labels initial obtenu à partir des différentes approximations de la distribution de l'erreur de prédiction. Des résultats expérimentaux en segmentation d'images texturées couleur synthétiques et d'images satellites hautes résolutions QuickBird et IKONOS ont permis de valider l'application de la méthode aux images fortement texturées. De plus les résultats montrent l'intérêt d'utiliser les approximations de la distribution de l'erreur de prédiction proposées ainsi que le modèle de champ de labels amélioré par le terme d'énergie qui pénalise les petites régions. Les segmentations réalisées dans l'espace L*a*b* sont meilleures que celles obtenues dans les autres espaces couleur (RGB et IHLS) montrant à nouveau la pertinence de caractériser les textures couleur par la prédiction linéaire multicanale complexe à l'aide de cet espace couleur.
37

Autocorrélation et stationnarité dans le processus autorégressif / Autocorrelation and stationarity in the autoregressive process

Proïa, Frédéric 04 November 2013 (has links)
Cette thèse est dévolue à l'étude de certaines propriétés asymptotiques du processus autorégressif d'ordre p. Ce dernier qualifie communément une suite aléatoire $(Y_{n})$ définie sur $\dN$ ou $\dZ$ et entièrement décrite par une combinaison linéaire de ses $p$ valeurs passées, perturbée par un bruit blanc $(\veps_{n})$. Tout au long de ce mémoire, nous traitons deux problématiques majeures de l'étude de tels processus : l'\textit{autocorrélation résiduelle} et la \textit{stationnarité}. Nous proposons en guise d'introduction un survol nécessaire des propriétés usuelles du processus autorégressif. Les deux chapitres suivants sont consacrés aux conséquences inférentielles induites par la présence d'une autorégression significative dans la perturbation $(\veps_{n})$ pour $p=1$ tout d'abord, puis pour une valeur quelconque de $p$, dans un cadre de stabilité. Ces résultats nous permettent d'apposer un regard nouveau et plus rigoureux sur certaines procédures statistiques bien connues sous la dénomination de \textit{test de Durbin-Watson} et de \textit{H-test}. Dans ce contexte de bruit autocorrélé, nous complétons cette étude par un ensemble de principes de déviations modérées liées à nos estimateurs. Nous abordons ensuite un équivalent en temps continu du processus autorégressif. Ce dernier est décrit par une équation différentielle stochastique et sa solution est plus connue sous le nom de \textit{processus d'Ornstein-Uhlenbeck}. Lorsque le processus d'Ornstein-Uhlenbeck est lui-même engendré par une diffusion similaire, cela nous permet de traiter la problématique de l'autocorrélation résiduelle dans le processus à temps continu. Nous inférons dès lors quelques propriétés statistiques de tels modèles, gardant pour objectif le parallèle avec le cas discret étudié dans les chapitres précédents. Enfin, le dernier chapitre est entièrement dévolu à la problématique de la stationnarité. Nous nous plaçons dans le cadre très général où le processus autorégressif possède une tendance polynomiale d'ordre $r$ tout en étant engendré par une marche aléatoire intégrée d'ordre $d$. Les résultats de convergence que nous obtenons dans un contexte d'instabilité généralisent le \textit{test de Leybourne et McCabe} et certains aspects du \textit{test KPSS}. De nombreux graphes obtenus en simulations viennent conforter les résultats que nous établissons tout au long de notre étude. / This thesis is devoted to the study of some asymptotic properties of the $p-$th order \textit{autoregressive process}. The latter usually designates a random sequence $(Y_{n})$ defined on $\dN$ or $\dZ$ and completely described by a linear combination of its $p$ last values and a white noise $(\veps_{n})$. All through this manuscript, one is concerned with two main issues related to the study of such processes: \textit{serial correlation} and \textit{stationarity}. We intend, by way of introduction, to give a necessary overview of the usual properties of the autoregressive process. The two following chapters are dedicated to inferential consequences coming from the presence of a significative autoregression in the disturbance $(\veps_{n})$ for $p=1$ on the one hand, and then for any $p$, in the stable framework. These results enable us to give a new light on some statistical procedures such as the \textit{Durbin-Watson test} and the \textit{H-test}. In this autocorrelated noise framework, we complete the study by a set of moderate deviation principles on our estimates. Then, we tackle a continuous-time equivalent of the autoregressive process. The latter is described by a stochastic differential equation and its solution is the well-known \textit{Ornstein-Uhlenbeck process}. In the case where the Ornstein-Uhlenbeck process is itself driven by an Ornstein-Uhlenbeck process, one deals with the serial correlation issue for the continuous-time process. Hence, we infer some statistical properties of such models, keeping the parallel with the discrete-time framework studied in the previous chapters as an objective. Finally, the last chapter is entirely devoted to the stationarity issue. We consider the general autoregressive process with a polynomial trend of order $r$ driven by a random walk of order $d$. The convergence results in the unstable framework generalize the \textit{Leybourne and McCabe test} and some angles of the \textit{KPSS test}. Many graphs obtained by simulations come to strengthen the results established all along the study.
38

Identification and control of wet grinding processes: application to the Kolwezi concentrator / Identification et commande de procédés de broyage humide: application au concentrateur de Kolwezi

Mukepe Kahilu, Moise 17 December 2013 (has links)
Enhancing mineral processing techniques is a permanent challenge in the mineral and metal industry. Indeed to satisfy the requirements on the final product (metal) set by the consuming market, control is often applied on the mineral processing whose product, the ore concentrate, constitutes the input material of the extractive metallurgy. Therefore much attention is paid on mineral processing units and especially on concentration plants. As the ore size reduction procedure is the critical step of a concentrator, it turns out that controlling a grinding circuit is crucial since this stage accounts for almost 50 % of the total expenditure of the concentrator plant. Moreover, the product particle size from grinding stage influences the recovery rate of the valuable minerals as well as the volume of tailing discharge in the subsequent process.<p> The present thesis focuses on an industrial application, namely the Kolwezi concentrator (KZC) double closed-loop wet grinding circuit. As any industrial wet grinding process, this process offers complex and challenging control problems due to its configuration and to the requirements on the product characteristics. In particular, we are interested in the modelling of the process and in proposing a control strategy to maximize the product flow rate while meeting requirements on the product fineness and density.<p> A mathematical model of each component of the circuit is derived. Globally, the KZC grinding process is described by a dynamic nonlinear distributed parameter model. Within this model, we propose a mathematical description to exhibit the increase of the breakage efficiency in wet operating condition. In addition, a relationship is proposed to link the convection velocity to the feed ore rate for material transport within the mills.<p> All the individual models are identified from measurements taken under normal process operation or from data obtained through new specific experiments, notably using the G41 foaming as a tracer to determine material transport dynamics within the mills. This technique provides satisfactory results compared to previous studies.<p>Based on the modelling and the circuit configuration, both steady-state and dynamic simulators are developed. The simulation results are found to be in agreement with the experimental data. These simulation tools should allow operator training and they are used to analyse the system and to design the suitable control strategy.<p> As the KZC wet grinding process is a Multi-Input Multi-Output (MIMO) system, we propose a decentralized control scheme for its simplicity of implementation. To overcome all the control issues, a Double Internal Model Control (DIMC) scheme is proposed. This strategy is a feedforward-feedback structure based on the use of both a modified Disturbance Observer (DOB) and a Proportional-Integral Smith-Predictor (PI-SP). A duality between the DOB and PI-SP is demonstrated in design method. The latter is exploited to significantly simplify the design procedure. The designed decentralized controllers are validated in simulation on the process linearized model. A progressive implementation of the control strategy is proposed in the context of the KZC grinding circuit where instrumentation might not be obvious to acquire./<p><p> Améliorer les techniques de traitement de minerais est un défi permanent dans l'industrie des minéraux et des métaux. En effet, pour satisfaire aux exigences du produit fini (métal ) fixées par le marché de consommation, la commande automatique est souvent appliquée à l'usine du traitement de minerais dont le produit, le concentré, constitue la matière première de la métallurgie extractive. Une attention particulière est donc dévolue aux unités de traitement de minerais et en particulier aux concentrateurs. Comme le processus de réduction des dimensions granulométriques du minerai est l'étape critique d'un concentrateur, il s'avère que la commande d'un circuit de broyage est cruciale, car ce stade représente près de 50 % des dépenses totales de l' usine de concentration. De plus, la dimension granulométrique du produit de l'étape de broyage influe sur le taux de récupération des minéraux utiles ainsi que sur le volume des rejets du processus ultérieur.<p> La présente thèse porte sur une application industrielle, à savoir le concentrateur de Kolwezi (KZC qui est un circuit de broyage humide à double boucle fermée. Comme tout processus industriel de broyage humide, ce procédé présente une problématique de commande complexe et difficile en raison de sa configuration et des exigences relatives aux caractéristiques du produit. En particulier, nous nous intéressons à la modélisation de ce procédé et à proposer une stratégie adéquate de commande dans le but de maximiser le débit de production tout en respectant les exigences quant à la finesse et à la densité de la pulpe produite.<p> Un modèle mathématique de chaque composant du circuit a été déterminé. Globalement, le processus de broyage de KZC est décrit par un modèle dynamique non linéaire à paramètres distribués. Dans ce modèle, une description mathématique de l'augmentation de l'efficacité du broyage en milieu humide est proposée. En outre, nous avons proposé une relation liant la vitesse de convection au débit d'alimentation de minerais dans le modèle du transport de la matière à l'intérieur des broyeurs.<p> Tous les modèles mathématiques ont été identifiés à partir de mesures prises sur le procédé en fonctionnement d'équilibre stable ou à partir des données obtenues grâce à des nouvelles expériences spécifiques, notamment en utilisant le moussant G41 comme traceur pour déterminer la dynamique de transport de la matière dans les broyeurs. Cette technique a produit des résultats cohérents par rapport aux études antérieurs réalisées au moyen du traceur colorant ou radioactif.<p> Les simulateurs statique et dynamique ont été développés sur la base de la modélisation mathématique et de la configuration du circuit. Les résultats des simulations sont en accord avec les données expérimentales. Ces outils de simulation devraient permettre la formation des opérateurs et ont été utilisés pour analyser le système et concevoir la stratégie de commande la plus appropriée.<p> Comme le processus de broyage humide de KZC est un système à plusieurs grandeurs d'entrée et plusieurs grandeurs de sortie, nous avons proposé une structure de commande décentralisée en raison de sa simplicité de mise en œuvre .Afin de surmonter tous les problèmes de commande, un schéma de commande à double modèle interne (CDMI) est proposée. Cette stratégie est une structure à anticipation - rétroaction basée sur l'utilisation d'un observateur de perturbations (OBP) et d'un Prédicteur de Smith doté d'un régulateur Proportionnel-Intégral (PS-PI). Une dualité entre l'OBP et le PS-PI est démontrée dans la méthode de conception. Cette propriété est exploitée pour simplifier considérablement la procédure de conception. Les régulateurs décentralisés ainsi conçus sont validés en simulation sur le modèle linéarisé du procédé. Une mise en œuvre progressive de la stratégie de commande est proposée dans le contexte du circuit de broyage de KZC où l'instrumentation peut ne pas être évidente à acquérir.<p> <p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished

Page generated in 0.1529 seconds