• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 589
  • 185
  • 3
  • Tagged with
  • 779
  • 779
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 64
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Programmes d'aide à l'emploi et solidarité sociale : analyse causale des effets de la participation par l'approche des forêts aléatoires

Rancourt, Marie-Pierre 11 February 2021 (has links)
Dans ce mémoire, nous évaluons l’effet des programmes d’aide à l’emploi sur le nombre de sorties de l’aide sociale et la durée cumulative passée en dehors de celle-ci chez les prestataires vivant avec des contraintes sévères à l’emploi. Il est évident que tous les prestataires ne tireront pas les mêmes bénéfices de la participation à un programme et pour cette raison il est utile d’évaluer des effets de traitement conditionnellement aux caractéristiques de chaque individu. Pour bien répondre à la question de recherche, nous avons besoin d’une méthode flexible nous permettant d’estimer des effets de traitement hétérogènes. Pour ce faire, nous utilisons une technique d’apprentissage automatique nommée generalized random forests (grf ) nous permettant d’évaluer des effets de traitement hétérogènes en conditionnant sur les caractéristiques des individus. Nous avons utilisé une base de données fournie par le Ministère du Travail, de l’Emploi et de la Solidarité sociale (MTESS) contenant les observations mensuelles de tous les prestataires d’aide et de solidarité sociale entre 1999 et 2018 au Québec. Grâce à la méthode grf et à la base de données du MTESS, nous avons trouvé que les prestataires présentant les plus longues durées cumulatives à l’aide sociale ont des effets de traitement moins élevés que ceux présentant des durées plus courtes. Nous avons également observé que les prestataires les plus jeunes et les plus scolarisés bénéficient davantage de la participation aux programmes que les autres. C’est également le cas des individus qui ont un diagnostic auditif et de ceux qui n’ont pas un diagnostic organique. / In this thesis, we assess the effect of employment assistance programs on the number of exits from social assistance and the cumulative duration spent outside of it among beneficiaries living with severe constraints. It is obvious that not all beneficiaries will derive the same benefits from participating in a program and for this reason it is useful to assess treatment effects conditional on the characteristics of each individual. To answer the research question, we need a flexible method that allows us to estimate differentiated treatment effects based on individual characteristics. To do this, we use a machine learning technique called generalized random forests (grf ) allowing us to evaluate heterogeneous treatment effects by conditioning on the characteristics of individuals. We used a database provided by the Ministère du Travail, de l’Emploi et de la Solidarité sociale (MTESS) containing monthly observations of all recipients of social assistance between 1999 and 2018 in Quebec. Using the grf method and the MTESS database, we found that beneficiaries with the longest cumulative durations on social assistance had lower treatment effects than those with shorter durations. We also observed that the younger and more educated beneficiaries benefited more from program participation than the others. This is also the case for individuals who have an auditory diagnosis and those who do not have an organic diagnosis.
332

Three essays in financial frictions and international macroeconomics

Kopoin, Alexandre 20 April 2018 (has links)
Cette thèse examine le rôle des frictions financières qui émergent des asymétries d’information dans les marchés financiers sur la propagation des chocs, et sur les fluctuations économiques. Le premier essai utilise la modélisation factorielle dynamique ciblée pour évaluer la contribution des données nationales et internationales sur la question de la prévision du PIB des provinces du Canada. Les résultats indiquent que l’utilisation des données nationales et internationales, principalement les données américaines, améliore significativement la qualité des prévisions. De plus, cet effet est présent et significatif pour les horizons de court terme (moins d’un an), mais disparait pour les prévisions de long terme. Ceci suggère que les chocs qui prennent naissance au niveau national ou international sont transmis aux provinces, et donc reflétés dans les séries chronologiques régionales assez rapidement. Tandis que le premier essai aborde la question de la transmission des chocs à l’aide d’un modèle macro-économétrique non-structurel, les deux derniers essais développent des modèles d’équilibre général dynamique stochastique (DSGE) pour analyser les effets des frictions financières sur la propagation des chocs nationaux et internationaux. Ainsi, le deuxième essai présente un modèle DSGE dans un cadre international avec des frictions financières. Le cadre théorique comprend le mécanisme d’accélérateur financier, les canaux du capital bancaire et du taux de change. Les résultats suggèrent que le canal du taux de change, longtemps ignoré, joue un rôle primordial dans la propagation des chocs. De plus, en maintenant les trois canaux de transmission, les chocs nationaux et internationaux jouent un rôle important dans l’explication des fluctuations macroéconomiques. Par ailleurs, les résultats montrent aussi que les économies les mieux capitalisées réagissent mieux que celles avec une capitalisation bancaire plus faible lorsqu’il advient un choc négatif. Ces résultats soulignent l’importance du capital bancaire dans une perspective internationale et peuvent contribuer à enrichir le débat mondial sur la régulation bancaire. Le troisième essai, à travers un modèle DSGE à deux pays avec des frictions financières, analyse l’effet des activités bancaires transfrontalières sur la propagation des chocs nationaux et internationaux, et sur la synchronisation des cycles économiques. Les résultats suggèrent que la présence d’activité bancaire transfrontalière amplifie l’effet des chocs de productivité et de politique monétaire. Cependant, l’impact sur la consommation est plus faible à cause des possibilités de lissage à travers les dépôts inter-pays. De plus, les résultats montrent que les corrélations bilatérales entre les agrégats macroéconomiques deviennent plus importantes en présence d’activités bancaires transfrontalières. / This dissertation investigates the role of financial frictions stemming from asymmetric information in financial markets on the transmission of shocks, and the fluctuations in economic activity. Chapter 1 uses the targeted factor modeling to assess the contribution of national and international data to the task of forecasting provincial GDPs in Canada. Results indicate using national and especially US-based series can significantly improve the forecasting ability of targeted factor models. This effect is present and significant at shorter-term horizons but fades away for longerterm horizons. These results suggest that shocks originating at the national and international levels are transmitted to Canadian regions and thus reflected in the regional time series fairly rapidly. While Chapter 1 uses a non-structural, econometric model to tackle the issue of transmission of international shocks, the last two Chapters develop structural models, Dynamic Stochastic General Equilibrium (DSGE) models to assess spillover effects of the transmission of national and international shocks. Chapter 2 presents an international DSGE framework with credit market frictions to assess issues regarding the propagation of national and international shocks. The theoretical framework includes the financial accelerator, the bank capital and exchange rate channels. Results suggest that the exchange rate channel, which has long been ignored, plays an important role in the propagation of shocks. Furthermore, with these three channels present, domestic and foreign shocks have an important quantitative role in explaining domestic aggregates. In addition, results suggest that economies whose banks remain well-capitalized when affected by adverse shock experience less severe downturns. These results highlight the importance of bank capital in an international framework and can be used to inform the worldwide debate over banking regulation. In Chapter 3, I develop a two-country DSGE model in which banks grant loans to domestic as well as to foreign firms to study effects of these cross-border banking activities in the transmission of national and international shocks. Results suggests that cross-border banking activities amplify the transmission of productivity and monetary policy shocks. However, the impact on consumption is limited, because of the cross-border saving possibility between the countries. Moreover, results suggests that under cross-border banking, bilateral correlations become greater than in the absence of these activities. Overall, results demonstrate sizable spillover effects of cross-border banking in the propagation of shocks and suggest that cross-border banking is an important source of the synchronization of business cycles.
333

Modélisation de la résorption d'un œdème de la prostate : approche par éléments finis

Trichet, Rémy 16 April 2018 (has links)
Ce projet est le résultat d'une collaboration entre le laboratoire de vision et systèmes numériques (LVSN) de l'Université Laval et le département de Radio-oncologie du CHUQ. Il consistait à développer une méthode de simulation de la résorption d'un oedème de la prostate. La méthode développée est basée sur l'algorithme des masses-tenseurs élastique linéaire et sur une discrétisation en éléments finis. Elle consiste à étirer artificiellement le contour de la prostate pour simuler l'oedème, puis à relâcher et observer le comportement. Cette méthode a l'avantage de donner un modèle tridimensionnel de la résorption de l'oedème contrairement aux modèles existants qui sont des modèles de modélisation de la décroissance du volume seulement, comme le modèle exponentiel par exemple. Les résultats obtenus avec cette méthode sont assez proches du comportement réel. Ces résultats seront éventuellement exploités dans la boucle de calcul de dosimétrie pour le traitement du cancer de la prostate par curiethérapie avec implants permanents. Le modèle visco-élastique linéaire servira également à la réalisation d'un simulateur de traitement en réalité virtuelle.
334

Moteur de type Stirling à piston libre : modélisation mathématique, simulation et optimisation numérique afin de maximiser le rendement thermique

Lapointe-Dubé, Charles-Alexandre 31 January 2021 (has links)
La perte d’énergie sous forme de chaleur est un problème bien connu en industrie et la valorisation de cette énergie est une approche de plus en plus explorée par les ingénieurs et scientifiques. Une des solutions possibles est l’utilisation d’un moteur Stirling à piston libre (MSPL), qui lui, utilise de l’énergie thermique afin de générer de l’énergie électrique. Toutefois, la conception de ce moteur est complexe puisque son rendement énergétique dépend de plusieurs paramètres le caractérisant et il n’existe pas de charte de conception dans la littérature facilitant son élaboration. L’objectif de ce projet de recherche est donc de fournir des outils sous forme de graphiques aux ingénieurs et scientifiques souhaitant effectuer la conception d’un moteur Stirling à piston libre, et ainsi d’effectuer la valorisation d’énergie thermique rejetée dans notre environnement. Dans un premier temps, la modélisation mathématique et numérique d’un moteur Stirling simplifié est effectuée. Le modèle implémenté numériquement est sans dimension, ce qui réduit le nombre de paramètres impliqués dans l'analyse. Ensuite, des outils numériques d’optimisation ont été développés afin de maximiser le rendement thermique de ce moteur sur une grande plage de conditions d’opération. Deux analyses de robustesse sont effectuées permettant de vérifier la capacité du MSPL à fournir de bonnes performances lorsque ces paramètres ne sont pas réglés à ses valeurs optimales. Les résultats optimaux, ainsi que les analyses de robustesse sont présentés sous forme de graphiques. Dans un deuxième temps, un travail semblable au précédent est réalisé, toutefois avec un MSPL équipé d’un échangeur de chaleur nommé «régénérateur». Les optimisations du modèle numérique sans dimension sont effectuées avec les mêmes outils numériques. Encore une fois, deux analyses de robustesse permettent de vérifier son bon fonctionnement dans des conditions non optimales. Les résultats sont représentés sous forme graphique et illustrent les designs optimaux ainsi que les deux analyses de robustesse. / The loss of energy in the form of heat is a well-known problem in the industry and the exploitation of this energy is an approach increasingly explored by engineers and scientists. One possible solution is the use of a free piston Stirling engine (FPSE), which itself consumes thermal energy to generate electrical energy. However, the design of this engine is complex since its thermal efficiency depends on several parameters and there is no chart in the literature facilitating its development. The objective of this research project is therefore to provide graphic tools to engineers and scientists wishing to design a free piston Stirling engine, and thus recover and convert thermal energy rejected in our environment. Firstly, the mathematical and numerical modeling of a simplified Stirling engine is performed. The model is dimensionless so as to reduce the amount of parameters in the analyses. Numerical optimization tools have been developed to maximize the thermal efficiency of the engine over a wide range of operating conditions. Two robustness analyses are performed to verify the ability of the FPSE to provide good performance when its parameters are not set to the optimal values. The optimal results, as well as the robustness analyses are presented in the form of charts. Secondly, an analysis similar to the previous one is carried out, however, with an FPSE equipped with a heat exchanger called “regenerator”. The optimization of the dimensionless model is performed with the same numerical tools. Again, two robustness analyses allow verifying proper operation under non-optimal conditions. The new graphics generated allow to represent the optimal designs on the FPSE as well as the two robustness analyses.
335

Méthode lagrangienne actualisée pour des problèmes hyperélastiques en très grandes déformations

Léger, Sophie 20 April 2018 (has links)
Simuler numériquement de façon précise les matériaux hyperélastiques en grandes déformations par la méthode des éléments finis est encore un problème difficile. Même avec l’aide d’un maillage très raffiné, la formulation lagrangienne totale peut mener à des problèmes de convergence en raison de la dégénérescence des éléments du maillage. L’estimation d’erreur et le remaillage adaptatif sur la géométrie initiale sont des outils utiles qui peuvent améliorer la précision des solutions (avec moins de degrés de liberté), mais ces outils ne sont malheureusement pas suffisants pour atteindre de très hauts niveaux de déformation. La formulation lagrangienne actualisée où la géométrie du domaine de calcul est périodiquement mise à jour est donc préférée, et ceci même si des étapes de remaillage sont encore nécessaires afin de contrôler la qualité des éléments et d’éviter les éléments trop déformés, voire renversés. Suite à une étape de remaillage, le transfert de données (réinterpolation des variables) de l’ancien maillage vers le nouveau maillage est nécessaire, ce qui est un problème délicat. Si les transferts ne sont pas effectués adéquatement, la précision peut être sérieusement affectée. Dans cette thèse, nous présentons une formulation lagrangienne actualisée où l’erreur sur la solution éléments finis est estimée et combinée au remaillage adaptatif afin de raffiner le maillage dans les régions où l’erreur estimée est grande, et au contraire, enlever des éléments là où l’erreur est considérée petite, le tout en contrôlant la qualité des éléments du maillage. En utilisant cette approche, de très hauts niveaux de déformation peuvent être atteints tout en préservant la précision de la solution. Une attention particulière est portée aux méthodes de transfert de données et une méthode de projection cubique très précise est introduite. La méthode de continuation de Moore-Penrose, qui est très efficace, est aussi utilisée pour piloter automatiquement l’algorithme complet qui inclut l’augmentation de la charge, l’estimation d’erreur, le remaillage adaptatif et le transfert de données. Une nouvelle approche pour l’implémentation de la méthode de continuation de Moore-Penrose, facilitant la détection des points de bifurcation, sera aussi présentée de même que plusieurs exemples. / Accurate simulations of large deformation hyperelastic materials by the finite element method is still a challenging problem. In a total Lagrangian formulation, even when using a very fine initial mesh, the simulation can break down due to severe mesh distortion. Error estimation and adaptive remeshing on the initial geometry are helpful and can provide more accurate solutions (with a smaller number of degrees of freedom) but are not sufficient to attain very large deformations. The updated Lagrangian formulation where the geometry is periodically updated is then preferred. Remeshing may still be necessary to control the quality of the elements and to avoid too severe mesh distortion. It then requires frequent data transfer (reinterpolation) from the old mesh to the new one and this is a very delicate issue. If these transfers are not done appropriately, accuracy can be severely affected. In this thesis, we present an updated Lagrangian formulation where the error on the finite element solution is estimated and adaptive remeshing is performed in order to concentrate the elements of the mesh where the error is large, to coarsen the mesh where the error is small and at the same time to control mesh distortion. In this way, we can reach high level of deformations while preserving the accuracy of the solution. Special attention is given to data transfer methods and a very accurate cubic Lagrange projection method is introduced. As large deformation problems frequently have highly nonlinear solutions, the Moore-Penrose continuation method is used to automatically pilot the complete algorithm including load increase, error estimation, adaptive remeshing and data transfer. A new approach for the implementation of the Moore-Penrose continuation method, facilitating the detection of bifurcation points, will also be presented as well as a number of examples.
336

Optimisation des transferts inter-sites chez un fabricant de produits agricoles

Nde Pekuelkue, Hornella Sylvanie 17 June 2021 (has links)
Ce mémoire aborde la problématique des transferts inter-sites. Utilisés comme moyen d'accroître la disponibilité des produits, de limiter les ruptures de stocks, et de mieux servir les clients, les transferts inter-sites tendent à devenir un fardeau pour les entreprises lorsque la gestion de l'inventaire est inefficace et décentralisée. Ils sont en effet sources de coûts, de transports parfois inutiles, et d'émissions de gaz à effet de serre, d'où la nécessité de les optimiser. En collaboration avec un partenaire industriel dans le secteur agricole, ce projet vise l'optimisation des coûts et émissions associés aux transferts inter-sites. Pour y parvenir, nous modélisons et résolvons un problème d'inventory transshipment problem, dont la fonction objectif est la minimisation du coût total, comprenant les coûts de transfert, de distribution, de stockage et de location. Nos résultats montrent que d'importants gains peuvent être obtenus grâce à la gestion centralisée de l'inventaire et à l'intégration des décisions. On observe une réduction comprise entre 36,86% et 99,92% pour les coûts de transferts, 41,33% et 99,98% pour les émissions associées aux transferts, et 0,56% et 92,48% pour le coût total. Le présent document est structuré comme suit. Premièrement, une introduction générale est présentée. Puis, les données sont analysées dans le chapitre 1. Le problème est ensuite résolu dans le chapitre 2. Finalement, nos conclusions et des orientations pour de futurs travaux sont présentées. / This master thesis addresses the issue of inter-plants transfers. Although used as a strategy to increase products availability, manage unanticipated stock-outs, and improve service levels, inter-plant transfers tend to become a burden on companies when inventory management is inefficient and decentralized. Indeed, they generate important costs and contribute to greenhouse gas emissions. Thus, they must be optimized. In collaboration with an industrial partner in the agricultural sector, this project aims to optimize costs and emissions linked to inter-plant transfers. In order to achieve that, we model and solve an inventory transshipment problem in which the objective function minimises total costs consisting of transshipment, distribution, inventory, and renting costs. Our results show that significant gains can be achieved through centralized inventory management and integration. We observe savings between 36.86% and 99.92% for transshipment costs, 41.33% and 99.98% for emissions linked to transfers, and 0.56% and 92.48% for the total cost. This document is organized as follows. First, a general introduction is presented. Then, data are analyzed in Chapter 1. The optimization problem is solved in Chapter 2. Finally, our conclusions and directions for future work are presented.
337

Modeling and simulation of spiral concentrators

Sadeghi, Maryam 22 June 2021 (has links)
Les spirales gravimétriques ou « spirales » sont des équipements de séparation par gravité utilisés pour la valorisation des minerais pour lesquels la densité des minéraux de valeur est significativement différente de celle de gangue. C'est le cas du traitement du minerai de fer discuté dans cette thèse. Les spirales sont préférées à d'autres séparateurs car elles sont peu coûteuses, simples à utiliser, pratiquement sans entretien, peu exigeantes en énergie et n'utilisent pas de réactif. Malgré ces qualités attrayantes et contrairement à la flottation, peu d'études sont consacrées à examiner l'opération des spirales. En effet, ce n'est que récemment que l'analyse de ce procédé a démontré que les spirales ne réussissaient pas à récupérer les particules minérales denses et grossières au produit lourd alors qu'elles le devraient en théorie. Il a également été démontré récemment que l'eau de lavage, qui est la principale variable de contrôle pour les spirales, est en partie responsable de la perte des particules grossières. Pour compenser cette perte, d'autres variables de contrôle doivent être utilisées, dont l'ouverture des couteaux de concentré et la position des portes du diviseur à la décharge de la spirale. L'étude de stratégies alternatives de contrôle des spirales ne peut difficilement se faire en milieu industriel, car l'opération des usines de traitement des minéraux est soumise à des contraintes imposées par la production et la qualité du produit final. Par ailleurs, l'impact des perturbations dues aux variations du minerai et/ou aux problèmes mécaniques dans l'usine est inévitable. Tester de nouvelles stratégies de contrôle dans une usine pilote est une option certainement trop coûteuse. Les opérateurs d'usine recherchent donc des approches rapides et peu coûteuses pour identifier des stratégies qui pourraient ensuite être testées sécuritairement dans l'usine. La simulation de procédé offre cette possibilité, mais une étude de la littérature a rapidement révélé l'absence d'outils de simulation pour les spirales et plus particulièrement pour les circuits de séparation gravimétrique utilisant des spirales. Pour construire un tel simulateur il faut donc trouver ou développer des modèles mathématiques pour les unités du circuit. Pour pouvoir tester des stratégies de contrôle, il est important que le modèle développé prenne en compte les variables de fonctionnement de la spirale, dont l'ouverture des couteux de concentré et du diviseur à la décharge de spirale ainsi que l'ajout d'eau de lavage. L'objectif de ce projet de recherche est de proposer un tel modèle pour les spirales. Le modèle mathématique proposé décrit la trajectoire des particules distribuées en classes de minéraux/taille lors de leur descente dans la spirale. Cette prédiction est réalisée en introduisant le nouveau concept de Fonctions de Déplacement de Particules (FDP) pour décrire les mouvements des particules. Le modèle est calibré en utilisant des données générées à partir d'essais réalisés sur un montage à l'échelle pilote construit autour d'une spirale Mineral Technologies WW6 +, installée au Laboratoire de Traitement de Minerai de l'Université Laval. Le modèle est ensuite validé avec des données obtenues avec une spirale WW6E opérée au COREM. Le montage, mis en service à l'Université Laval, utilise une distribution contrôlée d'eau de lavage dans les tours de spirale pour surmonter le problème observé de distribution inégale de l'eau de lavage lorsque le système intégré à la spirale est utilisé. Le montage est également conçu pour échantillonner simultanément le produit de chaque couteau de concentré de la spirale, de sorte que la progression de la séparation des minéraux dans la spirale puisse être utilisée pour calibrer le modèle. Le simulateur calibré prédit de manière adéquate la réponse de la spirale aux changements des états des variables manipulables. Le modèle est capable de simuler l'opération d'une spirale nettoyeuse bien qu'il ait été calibré à l'aide de données collectées à partir d'une spirale ébaucheuse. Le modèle proposé est prêt à être implanté dans un simulateur pour une usine de traitement de minerai de fer, bien qu'il reste du travail à faire pour finaliser la méthodologie de calibrage pour améliorer la prédiction de la distribution granulométrique des minéraux dans le flux mixte de la spirale / Spiral concentrators are gravity separation devices used for the valorization of ores for which the specific gravity of the valuable minerals is significantly different from that of the gangue minerals. This is the case of iron ore processing discussed in this thesis. Spirals are preferred to other mineral separation devices because they are inexpensive, simple of operation, practically maintenance free, low energy demanding and do not require the use of reagents to separate minerals. Despite these appealing qualities and unlike flotation, few studies are dedicated to the analyze the spiral operation. Indeed, it is only recently that basic process analysis has shown that spirals fail to recover coarse dense mineral particles to the heavy product. It has also been recently found that wash water, as the main control variable for the operation of the studied spirals, is partly responsible for the loss of coarse valuable particles. To make up for this loss and to maintain a satisfactory operation of spirals, other control variables such as the concentrate cutter openings and position of the splitter gates at the spiral discharge should be used. The study of alternative control strategies for spirals implies testing these strategies in the industrial environment, which is practically impossible considering that the operation of mineral processing plants is subjected to constraints imposed on the production and on the quality of the plant product. Besides, the impact of disturbances due to ore variations and/or mechanical problems in the plant is unavoidable. Testing new control strategies in pilot plant is possible but it is certainly costly if one can find a pilot plant equipped for such testing. Plant operators are thus seeking for rapid and inexpensive approaches to carry out such investigation to identify strategies that can subsequently be safely tested in a plant. Process simulation offers this possibility, but a literature survey rapidly revealed the absence of simulation tools for spirals and more particularly for gravity separation circuits that use spiral concentrators. The first step in building such circuit simulator is to find or develop mathematical models for the units of the circuit. With the objective of testing control strategies, it is thus important that the model to be developed be able to account for the usual spiral operating variables, namely the cutter opening, the discharge splitter position and the wash water addition. The objective of this research project is to propose such model for spirals. A mathematical model is therefore described to predict the trajectory of particles distributed in mineral/size classes as they flow down a spiral. This is achieved here by introducing the new concept of Particle Displacement Functions (PDF) in spiral modelling to describe the movements of the particles flowing down the spiral. The model is calibrated using data generated from tests conducted on a pilot-scale test rig built around a Mineral Technologies WW6+ spiral, installed in the Mineral Processing Laboratory of Université Laval. The model is further validated with data obtained from a WW6E spiral operated at COREM. The test rig commissioned at Laval University uses a controlled wash water distribution within the spiral turns to overcome the observed problem of unequal wash water distribution when using the spiral built-in wash water distribution system. The test rig is also designed to sample simultaneously the product from each concentrate cutter of the spiral, so that the progress of the heavy mineral concentration down the spiral can be monitored. This information can be used to calibrate the model. The calibrated spiral simulator predicts adequately the spiral response to changes in the states of the operating variables. The model can simulate a cleaner spiral operation although it is calibrated using data collected from a rougher spiral operation. The proposed model is ready to be implemented into a simulator for an iron ore processing plant, although work remains to be done to finalize the calibration methodology to improve the prediction of the mineral size distribution in the spiral middling stream.
338

Modélisation et simulation de la séparation des éléments de terres rares par extraction par solvant : applications à la conception, l'opération et l'optimisation économique des circuits

Turgeon, Keven 14 August 2023 (has links)
Titre de l'écran-titre (visionné le 7 juillet 2023) / Cette thèse tente de répondre à la question suivante : quel est le coût de la séparation des éléments de terres rares par le procédé d'extraction par solvant ? Pour arriver à répondre à la question, un outil de simulation spécifique à la séparation des éléments de terres rares (ETR) par extraction par solvant est développé. L'approche fondamentale du modèle utilise les constantes d'équilibre de la réaction d'extraction pour produire des simulations robustes et plus précises que les autres méthodes de simulation du procédé rapportées dans la littérature. L'approche proposée permet d'intégrer dans les simulations l'ensemble des paramètres opératoires d'un circuit de séparation réel, dont certains sont rarement considérés tels le degré de saponification ou les reflux entre les bancs de mélangeurs-décanteurs. Le modèle utilise une approche itérative à plusieurs niveaux de différents objets programmés afin d'obtenir une solution pour un sous-circuit comportant plusieurs mélangeurs-décanteurs agencés dans des bancs d'extraction, d'élution partielle et d'élution pour une de séparation entre deux éléments ou groupes d'éléments. Les prédictions du modèle sont confrontées avec succès à des résultats d'un pilotage d'un circuit de séparation des ETR. Le simulateur est utilisé pour étudier l'effet des facteurs de séparation, convertis par la suite en constantes d'équilibre, sur la facilité de séparation et développer différentes stratégies d'optimisation de consommation de réactifs, principalement pour l'étape d'élution d'un circuit. Les simulations montrent que le nombre de mélangeurs-décanteurs nécessaire à une séparation est le principal facteur affecté par une variation dans les facteurs de séparation, alors que la consommation en réactifs est affectée dans une moindre mesure. Le simulateur permet de faire la conception d'usines de séparation des ETR. En plus de détailler les paramètres de conception et d'opération des usines, les coûts d'opération et en capital sont estimés. Une usine alimentée a 10 t/j d'un concentré d'oxydes de terres rares (OTR) effectuant la majorité des séparations des ETR produisant 9 oxydes de terres rares couterait 405 M$ à construire et exigerait des coûts d'opération de 26 298 $ /t de concentré mixte d'OTR alimenté, alors qu'une usine séparant seulement les ETR générant le plus de revenus couterait 101 M$ et 9 805 $/t d'OTR à opérer. La simulation démontre, chiffres à l'appui, que basé sur les prix des OTR de 2021, la construction d'une usine comprenant une pré-séparation du cérium par précipitation et ne produisant que des oxydes de La, Pr-Nd, Tb et Dy est la solution la plus rentable, permettant de générer un bénéfice de 46 595 $/t d'OTR alimenté. Afin de quantifier objectivement la qualité de séparation d'un circuit en considérant l'aspect économique de la séparation, un indice de performance économique est développé ainsi qu'un calcul du flux monétaire généré pour une séparation tenant compte de la consommation en réactif. L'outil de simulation est utilisé pour déterminer des stratégies d'optimisation économique de l'opération d'une usine fictive. En cas de fluctuation des prix des ETR, il est possible de modifier le circuit pour cibler les ETR de valeur et diminuer les coûts d'opération afin de conserver la rentabilité de l'usine. Dans le cas où l'alimentation de l'usine changerait à la suite d'un changement dans la composition de son alimentation, le simulateur permet de déterminer les conditions d'opération à ajuster afin de conserver les puretés des produits telle la concentration en HCl des solutions d'élution partielle. / This thesis attempts to answer the following question: what is the cost of separating rare earth elements using the solvent extraction process? To achieve this, a simulation software specific to REE separation by solvent extraction is developed. The model fundamental approach using the equilibrium constants of the extraction reaction allows to produce robust and more accurate simulations than other process simulation methods reported in the literature. This approach allows to integrate all the parameters of a real circuit, some of which are rarely considered such as the degree of saponification or the reflux between the batteries of mixers-settlers. The model uses a multi-level iterative approach based on object-programming to obtain a solution for a defined separation sub-circuit. The predictions of the model are successfully confronted with results of a pilot REE separation circuit. The simulator is used to study the effect of separation factors on the ease of separation and to develop different optimization strategies for reagent usage, mainly for the elution stage of a circuit. The simulation shows that the number of mixer-settlers required for a circuit is the variable mostly affected by a variation in the separation factors, while reagent consumption is affected to a lesser extent. The simulator allows the design of different REE separation plants. In addition to detailing the design and operating parameters of the plants, the operating and capital costs are estimated. A plant fed with 10 t/d of rare earth oxide (REO) concentrate performing the majority of REE separations with 9 separated rare earth oxides would cost 405 M$ to build and 26 298 $/t of REO to operate with a marginal profit. On the other hand, a plant separating only the most valuable REE would cost $101 M and 9 805 $/t of REO fed to operate and would generate a profit of 46 595 $/t of REO fed based on 2021 REO prices. Simulation also shows that the construction of a plant including pre-separation of cerium by precipitation and producing only La, Pr-Nd, Tb and Dy oxides is the most cost-effective solution; an intuition of many authors, that is mathematically demonstrated here. In order to objectively quantify the separation quality of a circuit by considering the economic aspect of the separation, an economic performance index is developed as well as a calculation of the cash flow generated for a separation taking into account the reagent consumption. The simulation tool is used to determine economic optimization strategies for a virtual plant. In case of fluctuating REE prices, it is possible to modify the circuit operating strategy to target valuable REE and decrease the operating costs in order to keep the plant profitable. In case the plant feed changes due to differences in the composition of the REO concentrates purchased from different mines, the simulator can be used to determine the operating conditions to be adjusted in order to keep the products purities on target.
339

Modelling color changes in wood during conventional drying

Liu, Wenhua 18 April 2018 (has links)
La coloration du bois pendant le séchage diminue la qualité et la valeur du produit fini, augmente les coûts de production et diminue le rendement matière. C’est un processus complexe qui est difficile à prédire. Le développement d'un modèle de changement de couleur du bois en cours de séchage peut donc favoriser l’économie de temps et de matière première. Deux séries de six essais ont été effectuées dans cette étude sur l’aubier du bouleau à papier et de l'érable à sucre afin de mesurer le changement de couleur du bois pendant un séchage conventionnel à trois niveaux différents de température sèche (40, 60 et 80°C) et deux niveaux de dépression au thermomètre humide (4 et 15°C). Les données de ces essais ont conduit au développement de modèles statistiques du changement de l’indice de clarté L* pour chaque espèce, séparément pour la surface et l’intérieur du bois, en utilisant des modèles de régression mixte avec la planche considérée comme effet aléatoire. Deux types de modèles ont été développés, soit en considérant les trois températures sèches (40, 60 et 80°C) d’une part, et les deux températures les plus élevées seulement (60 et 80°C) d’autre part. Finalement, les modèles statistiques furent combinés à un modèle existant de transfert de masse et de chaleur (DRYTEK) afin de simuler les changements de couleur pour tout autre programme spécifique de séchage à moyenne température. Les paramètres du modèle numérique de transfert de masse et de chaleur ont été mesurés préalablement pour les deux espèces. Les modèles statistiques et les modèles intégrés de changement de couleur furent enfin validés en réalisant pour chaque espèce un essai indépendant de séchage à une température sèche de 70°C et à une dépression au thermomètre humide de 10°C. Les résultats des essais de mesure de couleur aux températures de 60 et 80°C montrent que les valeurs de L* des deux espèces à l’intérieur de la planche diminuent rapidement avec une diminution de la teneur en humidité (M) jusqu’au point de saturation des fibres. Par la suite, les valeurs de L* diminuent lentement jusqu'à 15 - 25% M où celles-ci peuvent même commencer à augmenter. Le changement de couleur du bois à 40°C est très faible ou inexistant. Les valeurs de L* à la surface de la planche diminuent également de façon substantielle avec la diminution de la teneur en humidité, exception faite à 40°C. Pour l’ensemble de l’épaisseur du bois, plus élevée est la température de séchage, plus grande est la diminution des valeurs de L*. Réciproquement, plus forte est la dépression au thermomètre humide, plus faible est le changement de couleur à une température sèche donnée. Les composantes a* et b* montrent un comportement similaire à L* par rapport aux variations de la température de séchage et de la dépression au thermomètre humide. Par contre, les valeurs de a* et b* augmentent avec la teneur en humidité au lieu de diminuer. La comparaison des valeurs de L* obtenues des modèles statistiques de prévision avec les valeurs de L* mesurées expérimentalement à partir des essais de validation montre une très forte similarité des deux types de résultats dans le cas de l'érable de sucre. Pour le bouleau à papier, un écart important est observé entre les valeurs prédites et mesurées au-dessus du point de saturation des fibres. La relation teneur en humidité-potentiel hydrique mesurée expérimentalement montre que le potentiel hydrique augmente avec la température à une teneur en humidité donnée. Pour les deux espèces, un plateau caractéristique est observé dans la gamme de potentiels hydriques entre -2000 et -6000 J kg-1. Tel que prévu, la conductivité hydrique effective augmente avec le contenu d'humidité et la température, et elle est plus élevée en direction radiale qu’en direction tangentielle. Le coefficient de transfert convectif de masse augmente avec la température de séchage à une dépression au thermomètre humide donnée, alors qu’il diminue avec la dépression au thermomètre humide à une température de séchage donnée. Finalement, la comparaison des mesures de changement de couleur au cours des essais de validation avec les valeurs simulées à partir des modèles statistiques combinés au modèle de transfert de masse et de chaleur montre une évolution des valeurs de L* très similaire dans le cas de l’érable à sucre. À l’instar des modèles statistiques, un écart important existe entre les deux types de résultats pour le bouleau à papier dans la première partie du séchage. / Wood discoloration during drying is diminishing quality and value of end product, increasing production costs and decreasing yield. Wood discoloration during drying is a complex process which is difficult to predict. The development of a wood color model can save material and time by simulating color changes for any specific drying conditions. A set of six experiments were performed in this study on paper birch and sugar maple sapwood to measure wood color changes during conventional drying at three different levels of dry-bulb temperature (40, 60 and 80˚C) and two levels of wet-bulb depression (4 and 15˚C). Statistical wood color models for lightness L* were proposed for each species, both for the wood surface and through the board thickness, to predict the wood color changes during conventional drying using mixed regression models with the board sample taken as the random effect. Three temperature (3T) (40, 60 and 80˚C) and two temperature (2T) (60 and 80˚C) models were developed. Finally, the statistical wood color models were integrated into an existing heat and mass transfer numerical model (DRYTEK) in order to simulate, for any conventional dynamic wood drying schedule, wood color changes on the surface and through the board thickness. The numerical model parameters (moisture content-water potential relationship, effective water conductivity, convective mass transfer coefficient) were experimentally determined for paper birch and sugar maple at the three drying temperatures. Both types of wood color predictive models were then validated by means of an independent drying run conducted at the dry-bulb temperature of 70°C and the wet-bulb depression of 10oC. The results of the wood color measurement tests show that at the dry-bulb temperatures of 60 and 80˚C, the L* values of both species below the surface decrease rapidly with a decrease of the moisture content (M) from the green state to the fiber saturation point. Then, the L* values decrease slowly until about 15 - 25% M where they may even start to increase. Wood color changes at 40˚C were found very small, either positive or negative. The L* values at the surface also decrease as the moisture content decreases and, except for the temperature of 40oC, the changes in color increase with the drying temperature. In general, the higher is the dry-bulb temperature, the greater is the decrease of the L* values through the board thickness. Conversely, the higher is the wet-bulb depression at a given dry-bulb temperature, the smaller are the color changes. The color components a* and b* follow a similar behavior as L* with respect to drying temperature and wet bulb depression. However, contrarily to the L* values, the a* and b* values increase with a decrease of M. The comparison of the predicted L* values obtained from the statistical models with the experimental L* values obtained from the validation tests shows a very good agreement between both types of results in the case of sugar maple. For paper birch, a fairly large discrepancy is observed during the first part of drying between predicted and experimental results but a better agreement is found at the end of drying. The results of the moisture content-water potential relationship determination show that the water potential increases with temperature at a given moisture content. A characteristic plateau was found in the water potential range of -2,000 and -6,000 J kg-1. As expected, the effective water conductivity increases with moisture content and temperature and it is higher in the radial direction than in the tangential direction. The convective mass transfer coefficient increases with dry-bulb temperature at a given wet-bulb depression, whereas it decreases with an increase of web-bulb depression at a given dry-bulb temperature. Finally, the comparison of the wood color measurements during the validation tests on paper birch and sugar maple with the wood color values simulated with the integrated statistical/numerical models shows a very good agreement between both types of results in the case of sugar maple. As it was observed for the statistical models, the fit was poorer in the case of paper birch, especially above the fiber saturation point where the initial moisture content seems to be an important factor in the color changes behavior of wood during drying.
340

Les copules en finance : analyse qualitative et quantitative de l'expansion de cette théorie

Bourdeau-Brien, Michaël 12 April 2018 (has links)
Le terme « copula » utilisé dans le moteur de recherche Google produisait 1 130 000 résultats en janvier 2007. Dans ce mémoire, nous cherchons à analyser cet intérêt phénoménal pour les copules. Notre démarche est à la fois qualitative en terme d'analyse de l'évolution des domaines de recherche et quantitative en terme de production d'articles. Une attention particulière est apportée à la statistique, où s'est d'abord développée la théorie, et à la finance qui semble être devenue un domaine privilégié d'application. L'analyse s'appuie sur une base de données exhaustive de 871 documents de travail et articles qui nous permet d'identifier les principaux champs de recherche, les auteurs les plus prolifiques, ainsi que les revues qui publient le plus d'articles. Nous constatons que l'utilisation des copules en finance ne semble pas démesurée et qu'elle s'appuie solidement sur les travaux séminaux de Paul Embrechts et de ses collaborateurs. / The term "copula" used in the search engine Google produced 1,310,000 results in January 2007. In this Master's thesis, we seek to analyze this phenomenal interest for copulas. Our approach is at the same time qualitative in terms of analysis of the evolution and quantitative in terms of production of articles. Special attention is given to Statistics where the theory was initially developed, and to Finance which seems to have become a privileged field of application. The analysis is based on an exhaustive database of 871 working papers and articles printed in scientific journals which allows us to describe the evolution of the number of publications and identify the most popular fields of research, the most prolific authors, as well as the journals that published the largest number of articles. We note that the use of copulas in finance does not seem disproportionate and that it is firmly based on the seminal work of Paul Embrechts and his collaborators.

Page generated in 0.0659 seconds