• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 316
  • 48
  • 6
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 382
  • 382
  • 382
  • 122
  • 78
  • 54
  • 51
  • 46
  • 41
  • 33
  • 29
  • 28
  • 27
  • 26
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Simulation et apprentissage Monte-Carlo de stratégies d'intervention en santé publique

Durand, Audrey 18 April 2018 (has links)
Les décideurs dans un système de santé publique comme celui du Québec ont un besoin grandissant d’outils d’évaluation pour soutenir la prise de décision quant aux interventions à mettre en place. Ce mémoire propose un simulateur générique, optimisé pour les problématiques de santé publique, mais également utilisable dans d’autres domaines. Son architecture logicielle est détaillée ainsi que toutes les caractéristiques qui en font un outil de choix pour les décideurs. On présente également l’optimisation des stratégies d’intervention existantes avec une méthode d’apprentissage par renforcement de type Monte-Carlo. Ceci comprend la proposition d’un nouvel algorithme de sélection d’actions dans un contexte d’apprentissage sur des populations d’individus évoluant en parallèle. On conclut le mémoire par l’application de cette infrastructure à deux problématiques de santé publique : la rétinopathie diabétique, ayant déjà fait l’objet de travaux par d’autres chercheurs, et l’ostéoporose, une application d’actualité dont la modélisation et les résultats ont été validés par des spécialistes en santé. / Decision makers in public health system, such as the one in the province of Quebec, have a growing need for assessment tools to support their decisions on the interventions to implement. This master’s thesis proposes a generic simulator optimized for public health issues, while being extensible to other areas. It details the software architecture and all the features that make it a tool of choice for decision makers. It also presents the optimization of existing intervention strategies using Monte Carlo reinforcement learning. This includes the proposal of a new algorithm for selecting actions when learning on populations of individuals evolving in parallel. We conclude with the application of this infrastructure to two public health issues : diabetic retinopathy, that has already been the subject of work by other researchers, and osteoporosis, a current application that has been validated by health care specialists.
122

Modélisation du comportement de l'azote dans un système de traitement individuel d'épuration

Bernier, Jean 16 April 2018 (has links)
L'objectif de ce travail est d'étudier et de modéliser le comportement de l'azote pour un procédé de traitement résidentiel d'eau usée. Une unité pilote d'un système BionestMD traitant des eaux grises et noires installée dans les locaux de la compagnie produisant le procédé a été étudiée. Celle-ci comportait une fosse septique ainsi qu'un réacteur biologique à support fixe, dont une partie est aérée. La sortie de ce réacteur était en partie recirculée vers l'entrée de la fosse. Un suivi sur plusieurs semaines de plusieurs paramètres (DCO, NH₃/NH₄⁺, O₂...) a été effectué quotidiennement et/ou hebdomadairement sur chaque entrée et sortie ainsi que dans chaque étape du traitement. Le suivi a été réalisé à la fois en fonctionnement normal, en surcharge ainsi qu'en fonctionnement sans recirculation. La modélisation est quant à elle réalisée à l'aide du logiciel de simulation GPS-XTM. Les différentes étapes du traitement réel y sont représentées par un décanteur primaire (fosse) ainsi qu'un réacteur hybride, permettant la croissance fixe et suspendue (réacteur). Une étude de sensibilité a été réalisée pour cerner quels paramètres influencent le plus les prédictions du modèle. Celui-ci a par la suite été calé en comparant les résultats obtenus sur le pilote sous différents régimes à ceux simulés. Les résultats obtenus montrent que le système étudié élimine habituellement totalement l'azote ammoniacal, hormis lors des journées où la charge à traiter est particulièrement élevée. Les mesures de DCO ainsi que des MES effectuées à l'effluent du système ont également toujours été très faibles avec des moyennes de 16 et 3 mg/L (valeurs maximales de 58 et 6 mg/L), malgré des valeurs moyennes à l'entrée de 260 mg/L et 207 mg/L respectivement. Le modèle construit et calé montre également une bonne fidélité par rapport aux valeurs mesurées sur le pilote en sortie de chaque étape du traitement, avec une précision un peu moins bonne pour les nitrates. La modélisation semble donc pour le moment être un bon outil pour faciliter la compréhension et l'étude des performances d'un système de traitement résidentiel des eaux usées.
123

Simulation temps réel de convertisseurs de puissance à l'aide de FPGA

Le-Huy, Philippe 12 April 2018 (has links)
Ce mémoire présente l'étude de faisabilité d'un simulateur numérique temps réel de convertisseur de puissance à pas multiple utilisant un circuit Field Programmable Gâte Array. Un faible pas de calcul est utilisé pour augmenter la précision de la simulation de l'électronique de puissance et des autres éléments hautes fréquences. La partie sans commutation du réseau étudié est simulée avec un pas de 50 us sur un PowerPC 405D5. La partie rapide, le convertisseur et la modulation de la largeur d'impulsion, utilise un pas de calcul de 5 \xs et est simulée par un circuit FPGA dédié. Le tout est réalisé dans un Virtex II Pro VP30 de Xilinx. Les résultats obtenus avec ce simulateur sont présentés et validés à l'aide de SimPowerSystems (MATLAB). L'effet du découplage entre la partie 50 u,s et la partie 5 p,s est observé. L'ajout d'éléments réactifs aux points de découplage permet de réduire cet effet.
124

Construction dynamique de fragments par minimisation de l'énergie libre lors de collisions d'ions lourds

Vallée, Alexandre 17 April 2018 (has links)
La recherche théorique en physique des ions lourds se fait essentiellement avec des simulations numériques de leurs collisions. Cependant, pour que la description soit fondamentale, les calculs doivent se dérouler sur les constituants élémentaires des noyaux: les nucléons. Ces réactions produisent des sources excitées qui ne sont que des nuages de nucléons à la sortie de la simulation dynamique. Pour pouvoir procéder à la désexcitation de ces sources et ensuite à la comparaison expérimentale, une importante étape doit être franchie en construisant des fragments depuis la distribution des nucléons dans l'espace des phases. Appelée "clusterisation", cette reconnaissance peut être faite selon diverses approches, toutes devant produire un portrait statique très similaire sur une distribution de nucléons en fin de réaction dite de "freeze-out". Aussi, il est aussi très intéressant d'étudier la formation de ces fragments avant le freeze-out, i.e. dans la phase d'expansion. Des modèles existent déjà, utilisant un critère énergétique en recherchant la partition la plus liée (minimisation de l'énergie totale). Ce projet propose un critère entropique, soit la maximisation de l'entropie sous contraintes. Parmi les contraintes envisagées, l'énergie des partitions sera retenue en première approximation. Dans ce contexte, la clusterisation se fera donc par minimisation de l'énergie libre d'Helmoltz. L'étude des différentes façons de regrouper les nucléons en fragments et ainsi former des configurations pose un important problème de combinatoire. L'exploration de ces partitions sera faite à l'aide d'un calcul Monte Carlo (algorithme de Metropolis). Etant donné la contrainte utilisée dans la maximisation de l'entropie, le seul paramètre intensif associé devant être déterminé dans le calcul Monte Carlo est la température. Cette dernière sera extraite selon des règles de "correspondance", qui seront établies entre des ensembles statistiques à l'équilibre thermodynamique, dont les propriétés sont bien connues, et un ensemble hors équilibre constitué des différentes voies de la réaction sous clusterisation. Ces différentes voies sont produites par la dynamique qui est, dans ce projet, décrite par la Dynamique Moléculaire Antisymétrisée (AMD). L'étude de la clusterisation dynamique se fera sur des événements centraux de la réaction ⁴⁰Ca -I- ⁴⁰Ca à 35AMeV. Elle permettra d'évaluer le temps de formation des fragments puis mesurera l'effet de la température des sources sur leur formation.
125

Calcul de la résistance aérodynamique d'un véhicule muni de pièces en mouvement

Gagnon, Louis 17 April 2018 (has links)
Ce mémoire documente la recherche sur l'ajout d'une pièce mobile à un modèle de voiture dont le but consiste à capturer de l'énergie de l'écoulement perturbé par le véhicule. Le but général est de réduire l'énergie requise par un véhicule afin de contrer les forces aérodynamiques qui travaillent sur celui-ci lorsqu'il est en mouvement. Le premier objectif du projet a été de modéliser numériquement l'écoulement sur le corps Ahmed et de valider ces résultats. Ensuite, une analyse numérique bidimensionnelle du corps Ahmed est faite en utilisant un modèle de turbulence k-w-SST disponible dans le logiciel OpenFOAM (OF). L'analyse est ensuite modifiée pour inclure une roue à aubes qui capture l'énergie de la vorticité qui se trouve derrière le véhicule. La roue à aubes est modélisée en utilisant une "General Grid Interface" (GGI) et l'énergie capturée est mesurée à l'aide des bibliothèques de forces disponibles dans le logiciel OF. La génération d'énergie atteint 16.1 watts pour les meilleures conditions. On trouve aussi comme effet secondaire une réduction de traînée qui atteint 8.2%. La plupart des simulations sont effectuées en parallèle sur un ordinateur à deux processeurs. Un maillage comprenant 30 000 cellules est utilisé. Les valeurs de y+ sur les parois du véhicule varient entre 60 et 500 pour les simulations avec roue à aubes. Des essais sont effectués pour des vitesses angulaires constantes et variables. L'écoulement atteint en général une stabilité, en moyenne, après 0.2 à 0.3 secondes. Le corps Ahmed est soumis à un écoulement qui se déplace à 60 m/s et cette vitesse est utilisée pour trouver la demande énergétique du véhicule soumis au coefficient de traînée calculé. Les résultats démontrent qu'il y a un certain intervalle de vitesses angulaires qui génère les quantités d'énergie les plus importantes ; cet intervalle est relié à la vitesse angulaire du tourbillon dans lequel la roue à aubes se trouve. La roue à aubes doit être située dans la bulle de séparation arrière du véhicule afin d'éviter d'augmenter la traînée en la plaçant dans l'écoulement non-perturbé. Un algorithme permettant de réguler l'énergie capturée de la roue à aubes en fonction des forces appliquées sur celle-ci est présentement en développement ; il permettra d'atténuer les fluctuations cycliques d'énergie capturée. Dans une application pratique, l'énergie capturée serait convertie en électricité et aurait le double avantage de permettre à un moteur électrique de réguler la vitesse angulaire de la roue en fonction de mesures ou de calculs et d'envoyer l'énergie générée directement à un système de batteries embarqué tel que l'on retrouve dans les véhicules hybrides de nos jours. Le système de roue à aubes aurait son impact le plus important sur des véhicules qui servent majoritairement à de la conduite sur autoroute car c'est là que les forces aérodynamiques atteignent leur intensité maximale.
126

Simulation et conception d'heuristiques efficaces pour un problème d'assemblage de planchers

Carle, Marc-André 13 April 2018 (has links)
Dans l'industrie de la fabrication de planchers de bois pour les remorques, la qualité d'un plancher est directement liée à la position relative des lattes de bois. Le procédé de fabrication actuellement en place chez notre partenaire industriel utilise une main-d'oeuvre abondante. Les planchers sont produits en continu et puisque les décisions de positionnement de lattes doivent se prendre très rapidement (chaque employé doit placer une latte à toutes les 1,5 seconde), même des employés d'expérience peuvent commettre des erreurs. Dans ce mémoire, nous proposons des méthodes rapides et efficaces pouvant être utilisées par un processus d'assemblage mécanique. Ces méthodes ont été utilisées pour assembler des planchers à l'aide de simulation par ordinateur. Par comparaison à l'assemblage manuel, qui produit des planchers ayant environ 5% de joints défectueux, nos méthodes d'assemblage produisent des planchers presque parfaits.
127

Évaluation des coûts de déplacement de la martre d'Amérique dans une sapinière boréale aménagée

Planckaert, Ophelie 16 April 2018 (has links)
Contrairement à ce que décrivaient Fretwell et Lucas (1969) dans leur approche de distribution idéale libre, la sélection d’habitat est régie par un certain nombre de contraintes que prennent en compte les animaux chaque fois qu’ils se déplacent dans un paysage. Pourtant, ces contraintes sont rarement prises en compte dans les études de sélection des habitats, et leur évaluation est rare. Les modèles spatialement explicites, de plus en plus courants pour prédire les répartitions spatiales futures des populations animales, reposent donc le plus souvent sur des jugements experts à propos de paramètres tels que la résistance aux déplacements et l’horizon de perception. Enfin, la radio-télémétrie est la technique employée le plus communément pour récolter des données de déplacement, mais il s’agit d’une méthode coûteuse à laquelle d’autres alternatives existent. Cette étude a pour objectif de (1) développer une approche peu coûteuse permettant d’analyser des déplacements à partir de données de répartition spatiale, et (2) évaluer la valeur de deux paramètres (la résistance aux déplacements dans différents habitats et la résolution spatiale) intégrés dans les études de simulation appliquées à la martre d’Amérique (Martes americana). Les données ont été obtenues par pistage hivernal entre 2004 et 2008 à la forêt Montmorency, 70 km au Nord de Québec, Canada. Pour chaque année de données, j'ai défini 150 scénarios de résistance, basés sur trois résolutions spatiales (5 m, 25 m et 100 m), 10 résistances aux déplacements en milieu ouvert (facteur de 4 à 1000) et cinq scénarios variant en termes d'effet de lisière ou de coûts associés aux jeunes peuplements (11-30 ans). J'ai ensuite simulé des trajets au moindre coût avec un système d'information géographique (SIG). Les points d’intersection entre les trajets simulés et les transects suivis constituaient des pistes de martres simulées qui étaient comparées aux pistes réelles de martres pour évaluer la performance de chaque modèle de résistance. Dans 78 % des cas (45 % significatifs), les simulations ont mieux performé que le modèle nul correspondant (coûts égaux dans tous les habitats), suggérant que la structure en mosaïque du site d’étude limite les déplacements de la martre d’Amérique. Avec l’ajout d’un milieu intermédiaire (11-30 ans) entre le milieu ouvert (0-10 ans) et la forêt mature (> 31ans), le pourcentage de succès des simulations s'élevait à 93 % (53 % significatives), ce qui porte à croire que les milieux jeunes limitent davantage les déplacements que les forêts matures. De plus, toutes les simulations avec une résolution spatiale de 100 m étaient significativement plus performantes que le modèle nul, ce qui laisse supposer que l’horizon de perception de la martre était au moins de 100 m. Cependant, la performance des modèles variait peu d'un coût hypothétique à un autre (à l'intérieur d'un scénario), ce qui ne m'a pas permis d’estimer la résistance précise pour chaque type d’habitat. L’étude des déplacements à partir de données ponctuelles de répartition spatiale semble prometteuse, et pourrait livrer des résultats utiles dans des paysages fortement fragmentés. / In contrast to the ideal free distribution (Fretwell and Lucas 1969) framework, animals have to face numerous constraints when moving through landscapes. However, these constraints have rarely been integrated, let alone quantified, into habitat selection studies. Spatially-explicit models are increasingly used to make predictions about distribution of animal populations, but they are based on subjective estimations of movement parameters such as resistance to movement and perceptual range. Finally, most ecologists studying movements collect data by radio-telemetry, but this is an expensive method to which alternatives exist. The objectives of this study were to (1) develop an inexpensive approach to analyze movements from spatial distribution data, and (2) estimate value of two parameters (movement resistance and perceptual range) integrated in simulation models of American martens (Martes americana). Every winter from 2004 to 2008, marten tracks were located by snow-tracking. For each year, I designed 150 movement resistance scenarios differing by three spatial resolutions (5 m, 25 m, and 100 m), 10 resistance factors in open areas (range 4-1000), and five scenarios differing by edge effect and relative movement cost in young stands (age 11-30 y). With a Geographical Information System (GIS), ‘least-cost’ paths were generated across the study area, according to each cost scenario. Nearest-neighbor distances between points where simulated paths met transects and real marten tracks were used to assess simulation performance. In 78 % of cases (45 % significant), resistance scenarios performed better than corresponding null models (equal resistance in all habitats), suggesting that mosaic structure of our study area did limit movements of American martens. Adding intermediate movement values for young forests increased simulation performance to 93 % (53 % significant), suggesting that movement resistance in young stands was higher than in mature forest. All simulations with a pixel size of 100 m performed significantly better than null models, suggesting that marten perceptual range was at least 100 m. However, model performance was similar among hypothetical movement costs in the open (within scenarios), preventing a reliable estimate of relative movement cost in the open. Studying movements with snow-tracking data appears promising, and may yield useful results in highly fragmented landscapes.
128

Modélisation par éléments finis du transport électrochimique des espèces ioniques dans une cuve Hall-Héroult

Gagnon, Frédérick 18 April 2018 (has links)
La présente thèse présente le développement d'un premier modèle d'électrode poreuse pour une cathode Hall-Héroult ainsi que le développement de nouvelles méthodes numériques. Les nouvelles méthodes numériques sont l'implantation du critère d'électroneutralité par contrainte de type multiplicateur de Lagrange ainsi que l'application d'un équilibre thermodynamique ionique par la méthode de pénalisation. Une revue des divers processus physico-chimiques associés à la cathode est présentée. Le modèle d'électrode poreuse est développé avec une formulation ionique pour le bain comportant cinq espèces. Le modèle est développé avec une méthode d'homogénéisation pour le volume poreux. Les lois de transport sont formulées en fonction des concentrations ioniques. Les concentrations ioniques d'équilibre ont été calculées par un modèle thermodynamique simple formulé selon des données thermodynamiques empiriques. Le modèle prend en compte la migration, la diffusion et la convection des espèces ioniques. Les divers paramètres de transport ont été calés avec des mesures empiriques de conductivité conjointement aux concentrations ioniques d'équilibre. Le modèle prend en compte la réaction électrochimique de production d'aluminium au niveau des pores du carbone. De plus, un équilibre ionique est imposé entre certaines espèces. La méthode par éléments finis a été utilisée pour effectuer les calculs numériques. De nouvelles méthodes numériques d'implantation du critère d'électroneutralité et d'un équilibre ionique sont présentées. Les méthodes ont été utilisées avec succès et permettent d'éviter d'éliminer une équation de conservation. La méthode de pénalisation s'est avérée comparable aux méthodes d'élimination par le biais d'un terme source mais les résultats sont partiellement différents du modèle principal procédant par élimination d'équations de conservation. Certaines méthodes par élimination négligent en partie la contribution au transport provenant des termes associés aux équations de conservation éliminées. Par la suite, des résultats de simulation du début de l'électrolyse sont montrés. Le modèle donne des résultats conformes aux ordres de grandeur des mesures expérimentales.
129

Simulation et optimisation des rhéogrammes d'usines d'extraction de l'or par cyanuration

Bellec, Steve 19 April 2018 (has links)
L’or, en raison de sa rareté et de ses nombreuses applications, est l’un des métaux les plus convoités. Il est principalement recherché pour sa valeur monétaire élevée qui a d’autant plus subi une hausse importante au cours des dernières années. Cette hausse de la valeur de l’or a grandement contribué à modifier le visage des nouveaux projets aurifères mis de l’avant en permettant à plusieurs compagnies d’exploiter des gisements à faibles teneurs ou contenant des minerais difficiles à traiter. Une chute drastique du prix de l’or aurait un impact important sur la rentabilité de ces nouveaux projets. L’une des façons de minimiser ce risque est de cibler une optimisation économique des circuits de cyanuration. Ce projet propose d’optimiser les circuits de cyanuration de l’or par simulation en basant son raisonnement sur la caractérisation de l’accessibilité des surfaces d’or. Pour ce faire, on caractérise cette accessibilité et on exploite ensuite l’information obtenue pour modéliser les différentes étapes d’un circuit conventionnel d’extraction de l’or par cyanuration. Lors de l’étape de broyage, les particules aurifères sont fragmentées pour libérer les surfaces d’or. Étant donné la grande différence de densité entre l’or et la gangue, cette libération a un impact considérable sur la classification gravimétrique des particules. Finalement, lors de l’étape de lixiviation, l’accessibilité des surfaces facilite l’attaque de l’or par le cyanure en présence d’oxygène et joue un rôle primordial sur l’optimisation du circuit. Pour créer des modèles représentatifs, il est essentiel d’avoir en main des données cohérentes et justes. Sans une bonne qualité de données, la calibration et même l’identification de la structure d’un modèle peuvent être faussées. Dans le cas des minerais aurifères, la nature intrinsèque du minerai et les difficultés associées à l’analyse des concentrations en or dans les phases liquides et solides peuvent entraîner des mesures non représentatives de la population globale à caractériser. La première étape de ce projet de recherche consiste donc à explorer l’application de la réconciliation de données aux procédés d’extraction de l’or. Ceci permet de rendre cohérentes les données issues de campagnes industrielles d’échantillonnage et de créer des modèles représentatifs de fragmentation, de classification et de lixiviation. La vitesse de cyanuration est fortement dépendante du degré de libération de l’or et par conséquent de la taille des particules aurifères. Il est donc important d’identifier dans quelle classe granulométrique se trouvent les grains d’or dans le minerai. Le premier modèle proposé dans ce projet permet de caractériser la distribution de l’or dans les différentes classes granulométriques ainsi que son accessibilité. Ceci est effectué en combinant un modèle de libération cubique et un modèle de broyage qui fait intervenir des fonctions de broyage et de sélection différentes pour les particules porteuses d’or et celles de gangue. Le modèle proposé est calibré et validé sur une série d’essais de broyage effectués en laboratoire. La classification gravimétrique influence différemment le partage des particules mixtes, d’or libre et de gangue entre la surverse et la sousverse d’hydrocyclones. Étant donné que les particules mixtes et d’or libre ont des degrés d’accessibilité différents et, par conséquent, des cinétiques de lixiviation différentes, la classification influence la performance des circuits de cyanuration positionnés en aval d’hydrocyclones. On propose donc de coupler le degré d’accessibilité, obtenu par le modèle de broyage, au modèle de Plitt à l’aide de la densité des particules. En bref, selon que l’or est totalement libéré ou attaché à une particule de minerai, son comportement en classification est différent puisqu’il est influencé par la densité de la particule. Le modèle développé est ensuite appliqué à des données industrielles. Pour ce faire, il est cependant nécessaire de faire intervenir un second modèle puisqu’une cyanuration a lieu à l’intérieur des broyeurs de ce circuit. Un modèle simplifié permettant de caractériser la lixiviation de l’or simultanément à la fragmentation du minerai est donc proposé. L’information relative au degré d’exposition des surfaces d’or alimente un modèle phénoménologique de cyanuration. Le modèle intègre les concepts d’exposition et de diffusion tout en tenant compte de la stœchiométrie de la réaction de dissolution de l’or et de la consommation du cyanure par les cyanicides. Des essais en laboratoire sont utilisés pour confirmer la prédominance de la réaction diffusionnelle dans le processus de cyanuration industriel. Ces essais sont également utilisés pour calibrer et valider le modèle proposé. L’ensemble des modèles développés est regroupé dans un simulateur d’usine couplant l’accessibilité des surfaces d’or à sa dissolution. À cette fin, les modèles développés pour des conditions discontinues sont adaptés à une application continue. Finalement, le simulateur est utilisé pour étudier différents scénarios d’optimisation économique de circuits de cyanuration. Les modèles développés et les résultats obtenus sont encourageants et permettent de jeter les bases d’une approche reliant l’accessibilité des surfaces au broyage, à la classification gravimétrique et à la cyanuration de l’or. / Gold, because of its rarity and its various applications is one of the most coveted metals. It is mainly known for its high value that has significantly increased recently. This increase in the value of gold contributed to change the face of new gold projects by allowing companies to exploit low grade deposits or difficult ore to process. A drastic fall in the price of gold would have a significant impact on the profitability of these new projects. One way to minimize this risk is to focus on economic optimization of cyanidation circuits. This project proposes to optimize gold cyanidation circuits with simulation based on the characterization of gold surfaces accessibility. To do so, gold accessibility is characterized. The information is then use to model the different stages of a conventional cyanidation gold extraction circuit. During the grinding step, the gold particles are broken to liberate gold surfaces. Given the high density difference between gold and the non-value minerals, liberation has a significant impact on the gravimetric classification. Finally, during leaching, the accessibility of surfaces facilitates the attack of gold by cyanide in presence of oxygen. This latest link is used to optimize leaching circuits. To create representative models, it is essential to have consistent data. With poor data quality, calibration, and even model structure may be distorted. In the case of gold ores, the intrinsic nature of the ore and the difficulties associated with gold concentration measurements in the liquid and solid phases can lead to non-representative data sets of the ore to characterize. Therefore, the first step of this research project is to explore the data reconciliation application to gold extraction processes measurements. This corrects data from industrial sampling campaigns and allows creating representative models of fragmentation, classification and leaching. Cyanidation kinetic is highly dependent of the degree of gold liberation and consequently is dependant on ore particle size. It is therefore important to identify in which ore size class the gold grains are. The first model proposed in this project characterizes the distribution of gold in different size classes as well as its accessibility. This is done by combining a cubic liberation model and a grinding model that uses different breakage and selection functions for mixed and non-value particles. The proposed model is calibrated and validated on a series of laboratory grinding tests. The gravimetric classification influences differently mixed particles, free gold and free non-value particles partition to the overflow and underflow of hydrocyclones. Liberated gold grains and gold attached to mixed particle have different classification behavior because they are influenced by the density of the particle. Furthermore, mixed particles and liberated gold grains have different degrees of accessibility and different leaching kinetics. Consequently, classification as an influence on cyanidation circuits performances positioned downstream of hydrocyclones. It is therefore proposed to link the information on the degree of gold accessibility obtained by the grinding model to Plitt’s classification model by using particle density. The model is then applied to industrial data. To do so, it is however necessary to introduce a second model since cyanidation takes place inside the mills of this grinding circuit. A simplified model for characterizing the gold leaching simultaneously with the fragmentation of the ore is proposed. Information on the exposure of gold surfaces feed a phenomenological model of cyanidation. The model incorporates the concepts of exposure and diffusion while taking into account the stoichiometry of gold dissolution reaction and cyanide consumption by cyanicides. Laboratory tests are used to confirm that the reaction rate is limited by diffusion in the industrial cyanidation process. These tests are also used to calibrate and validate the proposed model. All the models developed are grouped in a simulator combining the degree of gold surface accessibility to gold dissolution. To this end, the models developed for batch conditions are adapted for continuous application. Finally, the simulator is used to study different scenarios of cyanidation circuit economic optimization. The models developed and the results obtained lay the foundations to integrate liberation to grinding, gravity classification and cyanidation of gold.
130

Integration of 3D geological and numerical models based on tetrahedral meshes for hydrogeological simulations in fractured porous media

Blessent, Daniela 16 April 2018 (has links)
Une nouvelle approche de modélisation des milieux géologiques fracturés représentés par un modèle conceptuel de fractures discrètes et déterministes est présentée dans cette thèse. L'objectif principal de l'étude est de reproduire l'hétérogénéité et la complexité des milieux poreux fracturés dans un modèle géométrique tridimensionnel afin d'effectuer des simulations numériques dans le but d'améliorer les capacités de modélisation en hydrogéologie. Ceci est réalisé à travers le couplage entre une plateforme de modélisation géologique (GOCAD) et un code numérique (HydroGeoSphere). Les principaux défis à relever sont: la représentation géométrique du réseau de fractures, la sélection d'un maillage approprié pour la discrétisation spatiale du domaine de simulation et l'adaptation du code numérique à ce maillage. La nouvelle approche est basée sur une première phase de modélisation géologique 3D, suivie par la génération d'un maillage tétraédrique 3D et par la simulation numérique de l'écoulement souterrain en conditions saturées et du transport de solutés. En général, le maillage tétraédrique s'avère plus adéquat que les maillages de blocs ou de prismes pour discrétiser les geometries complexes telles que les milieux fracturés. De plus, une définition alternative du maillage "dual", qui est essentiel pour appliquer la méthode numérique élément finis - volume de contrôle utilisée par HydroGeoSphere, est analysée et intégrée dans le code numérique. Le code numérique proposé est d'abord vérifié par l'intermédiaire de simples scénarios de simulation dont les solutions, analytiques et numériques, sont déjà connues. La complexité des simulations est augmentée de façon graduelle. L'approche de modélisation est finalement appliquée au site Olkiluoto (Finlande) où un laboratoire de recherche souterrain est en construction afin d'évaluer la faisabilité du stockage géologique profond de déchets nucléaires à haute activité. Les techniques de modélisation géologique mises au point permettent de modéliser facilement la géométrie des fractures identifiées à travers la caractérisation géologique in situ. De plus, le modèle numérique s'avère adéquat pour la simulation de l'écoulement et du transport de solutés dans ce site complexe. Ce travail de recherche présente une contribution au développement des techniques de modélisation hydrogéologique des milieux fracturés.

Page generated in 0.0404 seconds