• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 317
  • 46
  • 6
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 381
  • 381
  • 381
  • 122
  • 78
  • 53
  • 52
  • 46
  • 41
  • 33
  • 29
  • 29
  • 28
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Résolution spatiale non uniforme dans une méthode vortex et optimisation d'un concept de turbine à aile oscillante

Bochud, Pascal 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / Les objectifs de ce mémoire peuvent se scinder en deux parties distinctes. On retrouve tout d'abord un objectif de nature méthodologique qui consiste à réduire les coûts de calcul d'une méthode lagrangienne par particules vortex. Le second objectif est pour sa part davantage relié aux phénomènes physiques et à l'optimisation d'un concept de turbine à aile oscillante. L'objectif méthodologique concerne une méthode vortex lagrangienne 2-D permettant de résoudre des écoulements externes, visqueux et incompressibles, autour de multiples corps en mouvement arbitraire. Avec une telle méthode, le contrôle de la relaxation de la résolution spatiale dans le sillage des corps est plus complexe que dans le cas d'une méthode eulérienne (méthode de grille), puisque la discrétisation des champs est réalisée via un ensemble de particules vortex. Étant donné le nombre sans cesse croissant de ces particules dans le sillage, les coûts de calcul deviennent alors de plus en plus importants. Afin de mieux contrôler cette augmentation du nombre de particules, une approche de redistribution par boîtes est donc proposée et permet à l'utilisateur de définir des boîtes de dimensions et de résolution variables. Les résultats montrent que dans plusieurs simulations, le nombre de particules peut être réduit jusqu'à 50% sans toutefois affecter significativement les prédictions des forces agissant sur les corps. L'atteinte de l'objectif méthodologique s'est avérée nécessaire pour réaliser l'optimisation du rendement d'un concept de turbine à aile oscillante. Cette optimisation a été étudiée via la modification des fonctions de mouvement de l'aile et l'utilisation d'un volet au bord de fuite. Les résultats montrent que la modification des fonctions de mouvement ne permet qu'une faible amélioration du rendement. Toutefois, le déploiement d'un volet permet quant à lui d'aller jusqu'à doubler le rendement pour certaines conditions d'opération.
122

Intégration de l'optimisation et de la simulation pour l'élaboration et l'évaluation de politiques de production et de transport d'une chaîne logistique

Jerbi, Wassim 20 April 2018 (has links)
Ce mémoire décrit un cadre pour l'élaboration et l'évaluation de politiques de pilotage des réseaux de création de valeur de l'industrie des produits forestiers. Il permet de déterminer la combinaison optimale de politiques de niveau tactique (production et distribution) et de politiques au niveau de l'exécution. Le cadre s’appuie, d’abord, sur le logiciel LogiLab qui permet de modéliser le réseau de l'industrie des produits forestiers et d'effectuer une optimisation mathématique afin de proposer un plan agrégé de production et de distribution. À partir de ce plan, on extrait des politiques de gestion des flux de production et de transport qui guideront au jour le jour les opérations au niveau opérationnel. Ensuite, les décideurs pourront proposer des politiques d'exécution (par exemple: règles à utiliser pour le chargement des camions). La combinaison de ces politiques est évaluée en utilisant un modèle de simulation à événements discrets, en utilisant le logiciel de simulation SIMIO, qui permet d'évaluer dans le détail ce que serait l'impact de la mise en œuvre de ces politiques.
123

Utilisation des sous-modèles comme filtres utilisés pour la commande et l'optimisation d'un atelier de lixiviation de l'or

Hallab, Soufiane 16 April 2018 (has links)
L'objectif de cette étude est de développer un simulateur d'un circuit de lixiviation de l'or afin d'évaluer les bénéfices de combiner la réconciliation de données, la commande et l'optimisation sur la performance technique et économique du circuit. Le modèle qu'utilise ce simulateur se base sur les bilans de conservation de matière des différentes espèces, tandis que les modèles de cinétique de dissolution du cyanure, de l'or solide et de l'oxygène sont empiriques. Des algorithmes de réconciliation de données ont été élaborés pour des régimes d'opération stationnaire et statique. La réconciliation de données stationnaire sert d'outil de filtrage pour alimenter les boucles de contrôle, alors que la réconciliation de données statique génère les données pour l'optimisation. La stratégie de commande développée fait appel à la rétroaction pour la régulation des concentrations de cyanure ainsi qu'à l'anticipation des perturbations comme les cyanicides. L'optimisation est effectuée en temps réel et calcule des consignes pour les contrôleurs en maximisant un critère économique. L'effet de la longueur de la fenêtre temporelle utilisée pour moyenner les données ainsi que la période d'actualisation des consignes sur la performance économique du circuit de lixiviation sont abordés. Le gain apporté par la combinaison de la réconciliation de données statique et de l'optimisation est aussi évalué.
124

Modélisation par éléments finis du transport électrochimique des espèces ioniques dans une cuve Hall-Héroult

Gagnon, Frédérick 18 April 2018 (has links)
La présente thèse présente le développement d'un premier modèle d'électrode poreuse pour une cathode Hall-Héroult ainsi que le développement de nouvelles méthodes numériques. Les nouvelles méthodes numériques sont l'implantation du critère d'électroneutralité par contrainte de type multiplicateur de Lagrange ainsi que l'application d'un équilibre thermodynamique ionique par la méthode de pénalisation. Une revue des divers processus physico-chimiques associés à la cathode est présentée. Le modèle d'électrode poreuse est développé avec une formulation ionique pour le bain comportant cinq espèces. Le modèle est développé avec une méthode d'homogénéisation pour le volume poreux. Les lois de transport sont formulées en fonction des concentrations ioniques. Les concentrations ioniques d'équilibre ont été calculées par un modèle thermodynamique simple formulé selon des données thermodynamiques empiriques. Le modèle prend en compte la migration, la diffusion et la convection des espèces ioniques. Les divers paramètres de transport ont été calés avec des mesures empiriques de conductivité conjointement aux concentrations ioniques d'équilibre. Le modèle prend en compte la réaction électrochimique de production d'aluminium au niveau des pores du carbone. De plus, un équilibre ionique est imposé entre certaines espèces. La méthode par éléments finis a été utilisée pour effectuer les calculs numériques. De nouvelles méthodes numériques d'implantation du critère d'électroneutralité et d'un équilibre ionique sont présentées. Les méthodes ont été utilisées avec succès et permettent d'éviter d'éliminer une équation de conservation. La méthode de pénalisation s'est avérée comparable aux méthodes d'élimination par le biais d'un terme source mais les résultats sont partiellement différents du modèle principal procédant par élimination d'équations de conservation. Certaines méthodes par élimination négligent en partie la contribution au transport provenant des termes associés aux équations de conservation éliminées. Par la suite, des résultats de simulation du début de l'électrolyse sont montrés. Le modèle donne des résultats conformes aux ordres de grandeur des mesures expérimentales.
125

Simulation et conception d'heuristiques efficaces pour un problème d'assemblage de planchers

Carle, Marc-André 13 April 2018 (has links)
Dans l'industrie de la fabrication de planchers de bois pour les remorques, la qualité d'un plancher est directement liée à la position relative des lattes de bois. Le procédé de fabrication actuellement en place chez notre partenaire industriel utilise une main-d'oeuvre abondante. Les planchers sont produits en continu et puisque les décisions de positionnement de lattes doivent se prendre très rapidement (chaque employé doit placer une latte à toutes les 1,5 seconde), même des employés d'expérience peuvent commettre des erreurs. Dans ce mémoire, nous proposons des méthodes rapides et efficaces pouvant être utilisées par un processus d'assemblage mécanique. Ces méthodes ont été utilisées pour assembler des planchers à l'aide de simulation par ordinateur. Par comparaison à l'assemblage manuel, qui produit des planchers ayant environ 5% de joints défectueux, nos méthodes d'assemblage produisent des planchers presque parfaits.
126

Évaluation des coûts de déplacement de la martre d'Amérique dans une sapinière boréale aménagée

Planckaert, Ophelie 16 April 2018 (has links)
Contrairement à ce que décrivaient Fretwell et Lucas (1969) dans leur approche de distribution idéale libre, la sélection d’habitat est régie par un certain nombre de contraintes que prennent en compte les animaux chaque fois qu’ils se déplacent dans un paysage. Pourtant, ces contraintes sont rarement prises en compte dans les études de sélection des habitats, et leur évaluation est rare. Les modèles spatialement explicites, de plus en plus courants pour prédire les répartitions spatiales futures des populations animales, reposent donc le plus souvent sur des jugements experts à propos de paramètres tels que la résistance aux déplacements et l’horizon de perception. Enfin, la radio-télémétrie est la technique employée le plus communément pour récolter des données de déplacement, mais il s’agit d’une méthode coûteuse à laquelle d’autres alternatives existent. Cette étude a pour objectif de (1) développer une approche peu coûteuse permettant d’analyser des déplacements à partir de données de répartition spatiale, et (2) évaluer la valeur de deux paramètres (la résistance aux déplacements dans différents habitats et la résolution spatiale) intégrés dans les études de simulation appliquées à la martre d’Amérique (Martes americana). Les données ont été obtenues par pistage hivernal entre 2004 et 2008 à la forêt Montmorency, 70 km au Nord de Québec, Canada. Pour chaque année de données, j'ai défini 150 scénarios de résistance, basés sur trois résolutions spatiales (5 m, 25 m et 100 m), 10 résistances aux déplacements en milieu ouvert (facteur de 4 à 1000) et cinq scénarios variant en termes d'effet de lisière ou de coûts associés aux jeunes peuplements (11-30 ans). J'ai ensuite simulé des trajets au moindre coût avec un système d'information géographique (SIG). Les points d’intersection entre les trajets simulés et les transects suivis constituaient des pistes de martres simulées qui étaient comparées aux pistes réelles de martres pour évaluer la performance de chaque modèle de résistance. Dans 78 % des cas (45 % significatifs), les simulations ont mieux performé que le modèle nul correspondant (coûts égaux dans tous les habitats), suggérant que la structure en mosaïque du site d’étude limite les déplacements de la martre d’Amérique. Avec l’ajout d’un milieu intermédiaire (11-30 ans) entre le milieu ouvert (0-10 ans) et la forêt mature (> 31ans), le pourcentage de succès des simulations s'élevait à 93 % (53 % significatives), ce qui porte à croire que les milieux jeunes limitent davantage les déplacements que les forêts matures. De plus, toutes les simulations avec une résolution spatiale de 100 m étaient significativement plus performantes que le modèle nul, ce qui laisse supposer que l’horizon de perception de la martre était au moins de 100 m. Cependant, la performance des modèles variait peu d'un coût hypothétique à un autre (à l'intérieur d'un scénario), ce qui ne m'a pas permis d’estimer la résistance précise pour chaque type d’habitat. L’étude des déplacements à partir de données ponctuelles de répartition spatiale semble prometteuse, et pourrait livrer des résultats utiles dans des paysages fortement fragmentés. / In contrast to the ideal free distribution (Fretwell and Lucas 1969) framework, animals have to face numerous constraints when moving through landscapes. However, these constraints have rarely been integrated, let alone quantified, into habitat selection studies. Spatially-explicit models are increasingly used to make predictions about distribution of animal populations, but they are based on subjective estimations of movement parameters such as resistance to movement and perceptual range. Finally, most ecologists studying movements collect data by radio-telemetry, but this is an expensive method to which alternatives exist. The objectives of this study were to (1) develop an inexpensive approach to analyze movements from spatial distribution data, and (2) estimate value of two parameters (movement resistance and perceptual range) integrated in simulation models of American martens (Martes americana). Every winter from 2004 to 2008, marten tracks were located by snow-tracking. For each year, I designed 150 movement resistance scenarios differing by three spatial resolutions (5 m, 25 m, and 100 m), 10 resistance factors in open areas (range 4-1000), and five scenarios differing by edge effect and relative movement cost in young stands (age 11-30 y). With a Geographical Information System (GIS), ‘least-cost’ paths were generated across the study area, according to each cost scenario. Nearest-neighbor distances between points where simulated paths met transects and real marten tracks were used to assess simulation performance. In 78 % of cases (45 % significant), resistance scenarios performed better than corresponding null models (equal resistance in all habitats), suggesting that mosaic structure of our study area did limit movements of American martens. Adding intermediate movement values for young forests increased simulation performance to 93 % (53 % significant), suggesting that movement resistance in young stands was higher than in mature forest. All simulations with a pixel size of 100 m performed significantly better than null models, suggesting that marten perceptual range was at least 100 m. However, model performance was similar among hypothetical movement costs in the open (within scenarios), preventing a reliable estimate of relative movement cost in the open. Studying movements with snow-tracking data appears promising, and may yield useful results in highly fragmented landscapes.
127

Multi-platform coordination and resource management in command and control

Beaumont, Patrick 11 April 2018 (has links)
Depuis plusieurs années, nous constatons l'augmentation de l'utilisation des techniques d'agents et multiagent pour assister l'humain dans ses tâches. Ce travail de maîtrise se situe dans la même voie. Précisément, nous proposons d'utiliser les techniques multiagent de planification et de coordination pour la gestion de ressources dans les systèmes de commande et contrôle (C2) temps réel. Le problème particulier que nous avons étudié est la conception d'un système d'aide à la décision pour les opérations anti-aérienne sur les frégates canadiennes. Dans le cas où plusieurs frégates doivent se défendre contre des menaces, la coordination est un problème d'importance capitale. L'utilisation de mécanismes de coordination efficaces permet d'éviter les actions conflictuelles et la redondance dans les engagements. Dans ce mémoire, nous présentons quatre mécanismes de coordination basés sur le partage de tâche. Trois sont basés sur les communications : la coordination centrale, le Contract Net, la coordination similaire à celle proposée par Brown; tandis que la défense de zone est basée sur les lois sociales. Nous exposons enfin les résultats auxquels nous sommes arrivés en simulant ces différents mécanismes. / The use of agent and multiagent techniques to assist humans in their daily routines has been increasing for many years, notably in Command and Control (C2) systems. This thesis is is situated in this domain. Precisely, we propose to use multiagent planning and coordination techniques for resource management in real-time \acs{C2} systems. The particular problem we studied is the design of a decision-support for anti-air warfare on Canadian frigates. In the case of several frigates defending against incoming threats, multiagent coordination is a complex problem of capital importance. Better coordination mechanisms are important to avoid redundancy in engagements and inefficient defence caused by conflicting actions. In this thesis, we present four different coordination mechanisms based on task sharing. Three of these mechanisms are based on communications: central coordination, Contract Net coordination and Brown coordination, while the zone defence coordination is based on social laws. Finally, we expose the results obtained while simulating these various mechanisms.
128

Simulation des écoulements de fluides viscoélastiques par une formulation en logarithmique du tenseur de conformation

Kane, Abdoulaye Sabou 16 April 2018 (has links)
L'objectif des travaux présentés dans cette thèse est d'explorer de nouvelles méthodes numériques efficaces et robustes pour la résolution par la méthode des éléments finis des problèmes d'écoulements des fluides viscoélastiques pour des nombres de Weissenberg élevés. La motivation de cette étude provient en grande partie au fait que les fluides viscoélastiques sont à la base de nombreuses applications industrielles, notamment dans l'industrie des polymères, l'industrie des pâtes de papiers, l'industrie alimentaire, etc... Ces écoulements sont régis par un système d'équations aux dérivées partielles fortement non linéaire composé des équations de Navier Stokes (ou Stokes pour les écoulements lents) et d'une équation constitutive modélisant la contribution du polymère. Les rhéologues ont mis à la disposition de la communauté scientifique plusieurs modèles. Dans ce travail, afin de pouvoir effectuer des comparaisons avec les travaux effectués par d'autres chercheurs déjà disponibles dans la vaste littérature du domaine, nos simulations numériques ont été faites pour les modèles de Oldroyd-B, PTT et Giesekus. La méthodologie utilisée est toutefois assez générale. Une des difficultés majeures rencontrées dans la simulation numérique des fluides viscoélastiques est la perte de convergence des algorithmes pour des problèmes à faibles nombres de Weissenberg. Ainsi, dans l'optique d'améliorer la convergence des schémas numériques, nous nous sommes proposés de développer et d'implémenter de nouveaux algorithmes en nous basant sur la nouvelle formulation en logarithmique du tenseur de conformation. Cette formulation a été utilisée pour la première fois dans le contexte des fluides viscoélastiques par Fattal et Kupferman et al. (21). Par la suite, en nous inspirant de Coronado et al. (35), nous avons introduit deux autres formulations logarithmiques. La première est une variante de celle proposée par Coronado et al. (35) avec un traitement spécial pour le terme convectif. La deuxième formulation permet une linéarisation complète des équations pour la résolution par la méthode de Newton. Les deux méthodes que nous proposons ont l'avantage d'être relativement simple à mettre en oeuvre. Pour tester la robustesse de ces nouvelles formulations, quelques calculs ont été effectués pour le problème d'écoulement autour d'un cylindre et l'inévitable problème de la contraction 4:1 sur des maillages non structurés anisotropes obtenus par la stratégie générale de remaillage adaptatif développée au GIREF. Nous avons ensuite jugé utile d'appliquer cette nouvelle formulation logarithmique pour la résolution de quelques problèmes de surfaces libres. Nous avons étudié la présence des écoulements secondaires et leur influence sur la morphologie des écoulements complexes des problèmes multi-couches dans une filière. En effet, nous avons montré qu'il possible de résoudre des problèmes multi-couches dans une filière tridimensionnelle en résolvant un problème bidimensionnel de surface libre instationnaire seulement sur une section. Nous avons également traité un problème de cisaillement d'une goutte dans une matrice fluide. Il s'agit ici d'un écoulement régi par la tension superficielle. Le calcul des sufaces libres est rendu possible grâce à la méthode des surfaces de niveau (level set method). Cette méthode requiert la résolution d'une équation de transport pour trouver la nouvelle position de l'interface. L'interface constitue une zone de transition de largeur 2 ? des paramètres rhéologiques des deux fluides. Ces paramètres sont régularisés à l'interface pour éviter de gérer des discontinuités. Une technique de réinitialisation a été mise en oeuvre pour remédier à d'éventuels problèmes de conservation de masse. Ces techniques sont falicitées par l'introduction de la méthode de remaillage adaptatif. Celle-ci permet de concentrer les éléments dans l'interface permettant ainsi de faire les calculs avec une meilleure précision. Pour la résolution des équations hyperboliques, notamment l'équation constitutive, de transport et de régularisation de l'interface, nous avons utilisé la méthode de stabilisation de type SUPG. Il résulte de ces développements une méthode de résolution nettement plus performante que les méthodes classiques.
129

Simulation et optimisation des rhéogrammes d'usines d'extraction de l'or par cyanuration

Bellec, Steve 19 April 2018 (has links)
L’or, en raison de sa rareté et de ses nombreuses applications, est l’un des métaux les plus convoités. Il est principalement recherché pour sa valeur monétaire élevée qui a d’autant plus subi une hausse importante au cours des dernières années. Cette hausse de la valeur de l’or a grandement contribué à modifier le visage des nouveaux projets aurifères mis de l’avant en permettant à plusieurs compagnies d’exploiter des gisements à faibles teneurs ou contenant des minerais difficiles à traiter. Une chute drastique du prix de l’or aurait un impact important sur la rentabilité de ces nouveaux projets. L’une des façons de minimiser ce risque est de cibler une optimisation économique des circuits de cyanuration. Ce projet propose d’optimiser les circuits de cyanuration de l’or par simulation en basant son raisonnement sur la caractérisation de l’accessibilité des surfaces d’or. Pour ce faire, on caractérise cette accessibilité et on exploite ensuite l’information obtenue pour modéliser les différentes étapes d’un circuit conventionnel d’extraction de l’or par cyanuration. Lors de l’étape de broyage, les particules aurifères sont fragmentées pour libérer les surfaces d’or. Étant donné la grande différence de densité entre l’or et la gangue, cette libération a un impact considérable sur la classification gravimétrique des particules. Finalement, lors de l’étape de lixiviation, l’accessibilité des surfaces facilite l’attaque de l’or par le cyanure en présence d’oxygène et joue un rôle primordial sur l’optimisation du circuit. Pour créer des modèles représentatifs, il est essentiel d’avoir en main des données cohérentes et justes. Sans une bonne qualité de données, la calibration et même l’identification de la structure d’un modèle peuvent être faussées. Dans le cas des minerais aurifères, la nature intrinsèque du minerai et les difficultés associées à l’analyse des concentrations en or dans les phases liquides et solides peuvent entraîner des mesures non représentatives de la population globale à caractériser. La première étape de ce projet de recherche consiste donc à explorer l’application de la réconciliation de données aux procédés d’extraction de l’or. Ceci permet de rendre cohérentes les données issues de campagnes industrielles d’échantillonnage et de créer des modèles représentatifs de fragmentation, de classification et de lixiviation. La vitesse de cyanuration est fortement dépendante du degré de libération de l’or et par conséquent de la taille des particules aurifères. Il est donc important d’identifier dans quelle classe granulométrique se trouvent les grains d’or dans le minerai. Le premier modèle proposé dans ce projet permet de caractériser la distribution de l’or dans les différentes classes granulométriques ainsi que son accessibilité. Ceci est effectué en combinant un modèle de libération cubique et un modèle de broyage qui fait intervenir des fonctions de broyage et de sélection différentes pour les particules porteuses d’or et celles de gangue. Le modèle proposé est calibré et validé sur une série d’essais de broyage effectués en laboratoire. La classification gravimétrique influence différemment le partage des particules mixtes, d’or libre et de gangue entre la surverse et la sousverse d’hydrocyclones. Étant donné que les particules mixtes et d’or libre ont des degrés d’accessibilité différents et, par conséquent, des cinétiques de lixiviation différentes, la classification influence la performance des circuits de cyanuration positionnés en aval d’hydrocyclones. On propose donc de coupler le degré d’accessibilité, obtenu par le modèle de broyage, au modèle de Plitt à l’aide de la densité des particules. En bref, selon que l’or est totalement libéré ou attaché à une particule de minerai, son comportement en classification est différent puisqu’il est influencé par la densité de la particule. Le modèle développé est ensuite appliqué à des données industrielles. Pour ce faire, il est cependant nécessaire de faire intervenir un second modèle puisqu’une cyanuration a lieu à l’intérieur des broyeurs de ce circuit. Un modèle simplifié permettant de caractériser la lixiviation de l’or simultanément à la fragmentation du minerai est donc proposé. L’information relative au degré d’exposition des surfaces d’or alimente un modèle phénoménologique de cyanuration. Le modèle intègre les concepts d’exposition et de diffusion tout en tenant compte de la stœchiométrie de la réaction de dissolution de l’or et de la consommation du cyanure par les cyanicides. Des essais en laboratoire sont utilisés pour confirmer la prédominance de la réaction diffusionnelle dans le processus de cyanuration industriel. Ces essais sont également utilisés pour calibrer et valider le modèle proposé. L’ensemble des modèles développés est regroupé dans un simulateur d’usine couplant l’accessibilité des surfaces d’or à sa dissolution. À cette fin, les modèles développés pour des conditions discontinues sont adaptés à une application continue. Finalement, le simulateur est utilisé pour étudier différents scénarios d’optimisation économique de circuits de cyanuration. Les modèles développés et les résultats obtenus sont encourageants et permettent de jeter les bases d’une approche reliant l’accessibilité des surfaces au broyage, à la classification gravimétrique et à la cyanuration de l’or. / Gold, because of its rarity and its various applications is one of the most coveted metals. It is mainly known for its high value that has significantly increased recently. This increase in the value of gold contributed to change the face of new gold projects by allowing companies to exploit low grade deposits or difficult ore to process. A drastic fall in the price of gold would have a significant impact on the profitability of these new projects. One way to minimize this risk is to focus on economic optimization of cyanidation circuits. This project proposes to optimize gold cyanidation circuits with simulation based on the characterization of gold surfaces accessibility. To do so, gold accessibility is characterized. The information is then use to model the different stages of a conventional cyanidation gold extraction circuit. During the grinding step, the gold particles are broken to liberate gold surfaces. Given the high density difference between gold and the non-value minerals, liberation has a significant impact on the gravimetric classification. Finally, during leaching, the accessibility of surfaces facilitates the attack of gold by cyanide in presence of oxygen. This latest link is used to optimize leaching circuits. To create representative models, it is essential to have consistent data. With poor data quality, calibration, and even model structure may be distorted. In the case of gold ores, the intrinsic nature of the ore and the difficulties associated with gold concentration measurements in the liquid and solid phases can lead to non-representative data sets of the ore to characterize. Therefore, the first step of this research project is to explore the data reconciliation application to gold extraction processes measurements. This corrects data from industrial sampling campaigns and allows creating representative models of fragmentation, classification and leaching. Cyanidation kinetic is highly dependent of the degree of gold liberation and consequently is dependant on ore particle size. It is therefore important to identify in which ore size class the gold grains are. The first model proposed in this project characterizes the distribution of gold in different size classes as well as its accessibility. This is done by combining a cubic liberation model and a grinding model that uses different breakage and selection functions for mixed and non-value particles. The proposed model is calibrated and validated on a series of laboratory grinding tests. The gravimetric classification influences differently mixed particles, free gold and free non-value particles partition to the overflow and underflow of hydrocyclones. Liberated gold grains and gold attached to mixed particle have different classification behavior because they are influenced by the density of the particle. Furthermore, mixed particles and liberated gold grains have different degrees of accessibility and different leaching kinetics. Consequently, classification as an influence on cyanidation circuits performances positioned downstream of hydrocyclones. It is therefore proposed to link the information on the degree of gold accessibility obtained by the grinding model to Plitt’s classification model by using particle density. The model is then applied to industrial data. To do so, it is however necessary to introduce a second model since cyanidation takes place inside the mills of this grinding circuit. A simplified model for characterizing the gold leaching simultaneously with the fragmentation of the ore is proposed. Information on the exposure of gold surfaces feed a phenomenological model of cyanidation. The model incorporates the concepts of exposure and diffusion while taking into account the stoichiometry of gold dissolution reaction and cyanide consumption by cyanicides. Laboratory tests are used to confirm that the reaction rate is limited by diffusion in the industrial cyanidation process. These tests are also used to calibrate and validate the proposed model. All the models developed are grouped in a simulator combining the degree of gold surface accessibility to gold dissolution. To this end, the models developed for batch conditions are adapted for continuous application. Finally, the simulator is used to study different scenarios of cyanidation circuit economic optimization. The models developed and the results obtained lay the foundations to integrate liberation to grinding, gravity classification and cyanidation of gold.
130

Integration of 3D geological and numerical models based on tetrahedral meshes for hydrogeological simulations in fractured porous media

Blessent, Daniela 16 April 2018 (has links)
Une nouvelle approche de modélisation des milieux géologiques fracturés représentés par un modèle conceptuel de fractures discrètes et déterministes est présentée dans cette thèse. L'objectif principal de l'étude est de reproduire l'hétérogénéité et la complexité des milieux poreux fracturés dans un modèle géométrique tridimensionnel afin d'effectuer des simulations numériques dans le but d'améliorer les capacités de modélisation en hydrogéologie. Ceci est réalisé à travers le couplage entre une plateforme de modélisation géologique (GOCAD) et un code numérique (HydroGeoSphere). Les principaux défis à relever sont: la représentation géométrique du réseau de fractures, la sélection d'un maillage approprié pour la discrétisation spatiale du domaine de simulation et l'adaptation du code numérique à ce maillage. La nouvelle approche est basée sur une première phase de modélisation géologique 3D, suivie par la génération d'un maillage tétraédrique 3D et par la simulation numérique de l'écoulement souterrain en conditions saturées et du transport de solutés. En général, le maillage tétraédrique s'avère plus adéquat que les maillages de blocs ou de prismes pour discrétiser les geometries complexes telles que les milieux fracturés. De plus, une définition alternative du maillage "dual", qui est essentiel pour appliquer la méthode numérique élément finis - volume de contrôle utilisée par HydroGeoSphere, est analysée et intégrée dans le code numérique. Le code numérique proposé est d'abord vérifié par l'intermédiaire de simples scénarios de simulation dont les solutions, analytiques et numériques, sont déjà connues. La complexité des simulations est augmentée de façon graduelle. L'approche de modélisation est finalement appliquée au site Olkiluoto (Finlande) où un laboratoire de recherche souterrain est en construction afin d'évaluer la faisabilité du stockage géologique profond de déchets nucléaires à haute activité. Les techniques de modélisation géologique mises au point permettent de modéliser facilement la géométrie des fractures identifiées à travers la caractérisation géologique in situ. De plus, le modèle numérique s'avère adéquat pour la simulation de l'écoulement et du transport de solutés dans ce site complexe. Ce travail de recherche présente une contribution au développement des techniques de modélisation hydrogéologique des milieux fracturés.

Page generated in 0.3447 seconds