• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 16
  • 1
  • Tagged with
  • 86
  • 86
  • 48
  • 27
  • 24
  • 20
  • 17
  • 12
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Comparaison de méthodes d'imputation de données manquantes dans un contexte de modèles d'apprentissage statistique

Bouchard, Simon 14 June 2023 (has links)
Titre de l'écran-titre (visionné le 6 juin 2023) / Le sujet de ce mémoire concerne l'utilisation de données incomplètes qui sont utilisées à des fins d'apprentissage statistique, dans un contexte où une méthode de traitement des données manquantes a été appliquée aux données. La problématique motivant ce travail est la prédiction de l'abandon scolaire chez les étudiants collégiaux. La caractéristique principale de la non-réponse au sein de ces données est que les étudiants ayant le statut d'immigrant ont une non-réponse quasi complète pour certaines variables. À partir d'une étude de simulation répliquant le comportement des données collégiales, différentes méthodes d'imputation sont utilisées sur des jeux de données ayant différentes configurations de non-réponse. Ces données imputées sont ensuite utilisées pour entraîner des modèles d'apprentissage statistique afin d'en évaluer les performances. À partir des résultats de cette étude de simulation, les combinaisons de méthodes d'imputation et de modèles d'apprentissage statistique ayant le mieux performé au niveau des prédictions sont appliquées aux données collégiales afin de déterminer quelles méthodes d'imputation permettent d'obtenir les meilleures performances prédictives. / This thesis deals with the use of incomplete data, to which a missing data treatment has been applied, in a statistical learning problem. The issue motivating this project is the prediction of school dropout among college students. The main characteristic of non-response in these data is that students with immigrant status have non-response for almost all the variables. Based on a simulation study replicating the behavior of college data, different imputation methods are applied on datasets with different nonresponse patterns. The imputed data are then used to train statistical learning models and to evaluate their performance. Based on the results of the simulation study, the best-performing combinations of imputation methods and statistical learning models are applied to college data.
32

Conceptualisation des fonctions exécutives : prolifération, organisation et mesure

Packwood, Sonia 18 April 2018 (has links)
Malgré les nombreuses recherches sur le sujet, le concept des Fonctions Executives (FEs) demeure vague et difficilement opérationnalisable. La présente thèse utilise une approche multi-perspective afin d'améliorer leur conceptualisation. Plus précisément, elle étudie la prolifération, l'organisation et la mesure des FEs. La prolifération des FEs est mesurée à travers une revue de 60 études qui identifient 68 FEs. Une analyse sémantique latente (ASL) ainsi qu'une analyse de classification hiérarchique (ACH) permettent de réduire cet ensemble à 18 FEs en diminuant le chevauchement conceptuel et psychométrique entre les FEs. Une analyse factorielle est utilisée pour vérifier l'organisation et la mesure des FEs. Celle-ci examine la relation entre trois FEs (i.e., inhibition, Mémoire de Travail [MdT] et planification) à l'aide de neuf tâches neuropsychologiques classiques et d'une simulation de la cognition dynamique (CD). Cette simulation reproduit une situation réelle de prise de décision complexe et dynamique. Une analyse factorielle confirmatoire est effectuée sur la performance de 121 participants âgés entre 18 et 50 ans ayant complété les 10 tâches. Les résultats supportent l'hypothèse d'un modèle unitaire des FEs et de la relation significative entre ce concept et celui de la CD à travers lequel un ensemble de FEs peuvent être mesurées simultanément.
33

Conception et mise en œuvre de multichronia, un cadre conceptuel de simulation visuelle interactive

Rioux, François 16 April 2018 (has links)
Cette thèse présente Multichronia, un cadre conceptuel de simulation interactive fournissant une représentation visuelle du cheminement d'un utilisateur dans l'exploration des simulations d'un système complexe. En complément aux méthodes formelles d'analyse, Multichronia vise à aider ses utilisateurs à comprendre un système sous étude en fournissant quatre boucles interactives. La boucle d'exploration de l'espace des paramètres permet à un utilisateur de modifier des paramètres de simulation afin de tester des hypothèses. La boucle d'exploration de l'espace des simulations lui permet de manipuler les données correspondant à des instances de simulation. Notamment, elle rend disponible des opérations de sélection et d'alignement via une interface graphique. La boucle d'exploration de l'espace des données lui permet de transformer les flots de données. Finalement, la boucle d'exploration de l'espace visuel lui permet d'afficher des données et de manipuler leur aspect visuel. Afin de représenter le cheminement d'un utilisateur dans son exploration de l'espace des paramètres, une interface graphique a été développée. Il s'agit de Varbre multichro-nique, une vue formelle donnant une représentation informative de l'état de l'analyse d'un problème ainsi que la possibilité d'exécuter une foule d'opérations interactives. D'autre part, le cadre conceptuel Multichronia forme un pipeline de données générique allant d'un simulateur jusqu'à un logiciel d'analyse. Un modèle conceptuel peut être extrait de ce pipeline de même que le flux de données correspondant. Dans cette thèse, il a été spécialisé avec la technologie XML. Cette dernière permet entre autres de définir une méthodologie de conception du modèle de données associé à un simulateur. La mise en oeuvre de Multichronia a permis de vérifier la validité des concepts proposés. L'architecture logicielle adoptée est un cadre d'application, de sorte que de nouveaux simulateurs puissent être facilement exploités. Deux applications concrètes ont été implantées, soit la simulation tactique et stratégique de l'attaque de convois militaires. Des modifications mineures aux simulateurs ont été nécessaires afin qu'ils rencontrent certains critères établis dans cette thèse. Somme toute, ces applications ont montré que Multichronia peut être déployé pour des applications quelconques.
34

Influence du vieillissement sur le contrôle visuo-locomoteur utilisé pour contourner un piéton approchant avec différents patrons de marche

Fiset, Félix 30 August 2022 (has links)
L'objectif de ce mémoire est de mieux comprendre les informations utilisées par de jeunes adultes et des personnes âgées en santé relativement aux mouvements locomoteurs d'une autre personne pour la contourner dans un environnement représentatif de la marche en communauté. Pour ce faire, deux projets ont été réalisés dans un environnement virtuel représentant un centre commercial. Dans le premier projet (chapitre 2), dix jeunes adultes avaient comme consigne de se diriger vers un café situé devant eux et de contourner au besoin un piéton virtuel approchant avec différents patrons de marche : mouvements locomoteurs normaux; aucun mouvement des bras ; aucun mouvement des jambes ; aucun mouvement des bras et des jambes. Dans le deuxième projet (chapitre 3), 14 jeunes adultes et 14 personnes âgées ont été recrutés afin de réaliser une tâche similaire à la première étude, mais cette fois-ci, avec un piéton virtuel ayant une trajectoire de marche initialement imprévisible. La trajectoire de marche, le dégagement minimal, la vitesse de marche, les stratégies de réorientation du corps et les stratégies visuelles ont été étudiés. Des analyses non paramétriques de données longitudinales ont été utilisées pour comparer les variables entre les âges et les conditions. L'absence de mouvements des bras et des jambes d'un piéton se traduisait par une stratégie de contournement plus conservatrice tant chez les jeunes que chez les personnes âgées en augmentant les distances maintenues avec le piéton. Les personnes âgées avaient besoin de plus de temps pour traiter l'information, ce qui résultait en une déviation de trajectoire plus tardive et une attention visuelle davantage dirigée sur le piéton. Ces changements liés au vieillissement pourraient se traduire par un risque accru de chutes chez les populations âgées présentant des troubles d'équilibre et contribuer à limiter la marche dans la communauté. / The objective of this master's thesis was to better understand the information used by healthy young and older adults during circumvention depending on the locomotor movements of another pedestrian within an environment representative of community walking. To do this, two projects were carried out in a virtual environment representing a shopping mall. In the first project (Chapter 2), ten young adults were instructed to walk towards a coffee shop located in front of them and to circumvent an approaching virtual pedestrian with different locomotor movements: Normal locomotor movement; No arm movement; No leg movement; No arm and leg movement. In the second project (Chapter 3), 14 young adults and 14 older adults were recruited to perform a task similar to the first study, but this time with a virtual pedestrian approaching with an initially unpredictable trajectory. Walking trajectory, minimum clearance, walking speed, body reorientation strategies and gaze behaviour were studied. Non parametric Analyses of Longitudinal Data were used to compare variables across the age groups and conditions. The absence of arm and leg movements from a pedestrian resulted in a more cautious strategy for both young and older adults by increasing the distances maintained with the pedestrian. The older adults needed more time to process visual information, which resulted in a later trajectory deviation and more visual attention directed to the pedestrian. These age-related changes could result in an increased risk of falls in older adult populations with reduced balance and mobility and contribute to limiting community ambulation.
35

Modélisation en centrifugeuse pour l'étude du comportement d'un barrage en enrochement avec un noyau mince

Soud, Ibrahim 24 April 2018 (has links)
Cette thèse contribue au domaine de la modélisation en centrifugeuse géotechnique des barrages en enrochement. Étant donné que les essais œdométriques sont généralement utilisés pour estimer les déformations verticales de la partie centrale des barrages en enrochement, une étude comparative a été réalisée entre les déformations verticales des modèles en centrifugeuses d’assemblages de particules de roche avec des pentes non supportées (2D) et les déformations verticales observées au cours des essais œdométriques (1D). Les deux types d’essais ont été effectués sur des assemblages de particules de roche avec la même granulométrie, tout en tenant compte de l’effet de la compacité. La comparaison a montré que pour une densité relative donnée, les modèles en centrifugeuses ont subi des déformations verticales plus élevées que celles des spécimens œdométriques et que le rapport entre les déformations verticales des sommets des modèles et celles obtenues lors des essais œdométriques diminue quand la densité relative augmente. De plus, une autre série d’essais en centrifugation a été réalisée sur des modèles de barrages en enrochement avec des noyaux centraux minces pour simuler le comportement typique de ce type de barrages pendant la construction et le remplissage du réservoir, tout en explorant les effets de la granulométrie et d’échelle sur la réponse de ces modèles. Ces modèles ont différentes granulométries alors qu’ils ont la même densité relative. Tout au long des essais, la rigidité de réponse a été plus élevée quand le coefficient d’uniformité des granulométries des modèles augmente pour la même taille maximale des particules et quand la taille maximale des particules diminue pour des granulométries parallèles. La taille des particules dans les grandes structures en enrochement telles que les barrages en enrochement empêche les essais de laboratoire sur ces matériaux et par conséquent, la prédiction du comportement sur le terrain nécessite le développement d’une méthode d’analyse afin d’extrapoler les résultats des essais de laboratoire tout en prenant les effets d’échelle et de la granulométrie en compte. Une méthode d’analyse est adoptée dans ce travail afin d’extrapoler les résultats des essais en centrifugeuses menés sur les modèles, déjà mentionnés, des barrages en enrochement avec des noyaux centraux minces, ce qui a permis la prédiction des déformations verticales de différentes zones du barrage de la Romaine 2. Cette méthode d’analyse est basée sur les effets d’échelle sur l’aptitude à la fragmentation des matériaux granulaires et il tient compte des résultats expérimentaux passés relatifs à cette question. Les valeurs prédites des déformations verticales de différentes zones du barrage de la Romaine 2 étaient dans le même ordre des valeurs des mesures in situ pendant la construction et le premier remplissage. / This thesis contributes to the domain of geotechnical centrifuge modeling of rockfill dams. Given that odometer testing is usually used to estimate the vertical deformations of the central part of rockfill dams, a comparative study was performed between the vertical deformations of centrifuge models of rock particle assemblages with unsupported slopes (2D) and the vertical deformations observed during oedometer tests (1D). Both types of testing were conducted on rock particle assemblages with the same gradation while considering the effect of compactness. The comparison showed that for a given relative density, the centrifuge models experienced higher vertical deformations than those of the oedometer specimens and the ratio between the vertical deformation of the top of the models and that obtained during the oedometer tests decreases as relative density increases. Furthermore, another series of centrifuge tests was conducted on models of rockfill dams with thin central cores to simulate the typical behavior of such type of dams during construction and reservoir impoundment while exploring the effects of gradation and size scale on the response of these models. These models have different gradations while they have the same relative density. Throughout the tests, the response stiffness was higher as uniformity coefficient of the models’ gradations increases for the same maximum particle size and as maximum particle size decreases for parallel gradations. Particle size in large rockfill structures such as rockfill dams prevent laboratory testing of these materials and consequently, the prediction of field behaviour requires the development of an analysis method in order to extrapolate the laboratory testing results while taking the effects of size scale and gradation in consideration. An analysis method is adopted in this work in order to extrapolate the results of the centrifuge tests conducted on the already mentioned models of rockfill dams with central thin cores, which allowed the prediction of vertical deformations of different zones of the Romaine 2 dam. This analysis method is based on size scale effects on the crushability of granular materials and it considers past experimental findings relating to this issue. The predicted values of vertical deformations of different zones of the Romaine 2 dam were in the same order of the field measurement values during construction and reservoir impoundment.
36

Détermination des cotes de crue en présence de glace sur la Rivière Chaudière

Ladouceur, Jean-Robert 20 March 2023 (has links)
La rivière Chaudière, située au sud de la Ville de Québec, est sujette aux inondations provoquées par la formation d'embâcles. Des inondations ont été enregistrées depuis 1896 jusqu'à ce jour malgré la mise en service, en 1967, d'un ouvrage de contrôle des glaces (ICS) à 3 kilomètres en amont de la Ville de Saint-Georges-de-Beauce afin de réduire les inondations causées par la glace dans le secteur le plus à risque de la rivière Chaudière. Les inondations par embâcles demeurent donc un problème récurrent qui affecte régulièrement 8 villes le long du tronçon de 90 kilomètres en aval de l'ICS. Dans le cadre d'un programme gouvernemental d'aléas d'inondation initié par le ministère des Affaires Municipales et de l'Habitation (MAMH), un mandat pour évaluer les cotes de crues en présence de glace de la rivière Chaudière a été confié à l'Université Laval. La modélisation d'embâcles combinée à des données d'observations historiques d'embâcles est utilisée pour déterminer les niveaux d'inondation par embâcles. L'approche préconisée consiste à contrôler un modèle de simulation hydraulique fluviale, plus spécifiquement le module HEC-RAS, avec un script externe en Python pour générer une distribution Monte-Carlo (MOCA) d'évènements d'embâcles le long du secteur de la rivière à l'étude. Les paramètres mécaniques tels que l'angle de frottement, la porosité et les vitesses de contrainte de cisaillement critiques sont également attribués de manière aléatoire par le script dans une plage délimitée. Les paramètres physiques et hydrologiques attribués à chaque évènement sont choisis au hasard en fonction d'une probabilité estimée à partir des observations historiques, soit le débit calculé à l'ICS, l'emplacement de l'embâcle, la longueur de l'embâcle et les degrés-jours de gel (épaisseur de la glace). Les cotes de crues selon les périodes de retour de 2, 20, 100 et 350 ans sont alors déterminées selon une équation statistique empirique de Gringorten, suivie d'une modulation pour tenir compte des facteurs externes non considérés par MOCA. Ces cotes de crues en présence de glace sont comparées à celles en eau libre telles que déterminées par la méthode classique. Le projet démontre que les niveaux d'eau calculés en présence de glace prédominent ceux en eau libre pour les villes en amont de Saint-Joseph-de-Beauce. La combinaison des niveaux d'eau en présence de glace et en eau libre, réalisée à l'aide de l'équation de la FEMA, montre que la probabilité d'atteindre un seuil spécifique d'élévation diminue la période de retour et en conséquence augmente les probabilités reliées aux inondations. Ce mémoire est le premier travail scientifique qui présente une validation complète de l'approche hydrotechnique utilisant les valeurs in situ de débit, de DJGC et de l'emplacement et de la longueur d'embâcles pour la détermination des cotes de crue par embâcles. Les valeurs de cotes de crues calculées avec la méthode MOCA sont comparées avec les données historiques dans le secteur à l'étude de la rivière Chaudière. La présente étude met en évidence les limitations et les conditions nécessaires pour l'utilisation de cette méthode. Ce projet de recherche montre aussi pour la première fois que l'approche hydrotechnique permet de calculer des courbes fréquentielles de niveaux d'eau en présence de glace qui peuvent être utilisées à des fins réglementaires au Québec. / The Chaudière River, located south of Quebec City, is prone to seasonal ice jam flooding. As early as 1896, ice induced floods have been recorded and in 1967 an ice control structure (ICS) was constructed 3 kilometers upstream of the Town of St. Georges to reduce ice flooding events in the area most at risk of the Chaudière River. Despite the construction of the ICS, flooding caused by ice jams is still an ongoing issue that regularly affects 8 towns along this reach of 90 kilometers downstream of the ICS. As part of a governmental flood hazard program that is managed by the provincial ministère des Affaires Municipales et de l'Habitation (MAMH), the mandate of assessing ice jam flood delineation has been given to Laval University. In order to achieve this objective, ice jam modelling combined with historical data is used to determine ice jam flood levels. More specifically, the approach used is to control a river hydraulic simulation model (HEC-RAS) with an external script (MOCA) written in Python to generate a Monte-Carlo distribution of ice jam flood events along the study reach. The script polls historical data of recorded ice jam events which include flow measured at the ICS, ice jam location, ice jam length, and degree days of freezing (ice thickness). Mechanical parameters such as the angle of friction, porosity and critical shear stress velocities are also randomly assigned by the script within a delimited range. The physical and hydrological parameters assigned to each event are randomly chosen based on the historical data. The flood levels according to the return periods of 2, 20, 100, and 350 years are then determined according to an empirical statistical equation and modulated to consider external factors not considered by the MOCA. These calculated flood levels are compared with the ones obtained by open water floods as determined by the classical method. The results show that the calculated ice induce water levels predominate over open water flooding for the towns upstream of Saint-Joseph-de-Beauce. The combination of ice induced and open water levels, using the FEMA equation, show that the probability of reaching a specific elevation is reduced and thus increases the probability associated with flooding. This thesis is the first scientific work that presents the complete validity of the hydrotechnical approach using in situ flows, cumulative degree-days of freezing and ice jam length and location for the determination for ice induced flood delineation combined with a MOCA framework. Calculated flood frequency levels are compared with historical ice induced flood water levels within the studied reach, as well as the conditions and limitations for using this approach. Also, this scientific document is the first to present ice-related flood levels using the hydrotechnical approach for regulatory purposes in the Province of Québec.
37

Modélisation et prédiction du séchage à l'air libre du bois d'œuvre

Gendron, Samuel 13 November 2023 (has links)
Titre de l'écran-titre (visionné le 8 novembre 2023) / Le séchage à l'air libre du bois d'œuvre est une bonne stratégie à adopter pour un scieur. Il permet de réduire les coûts reliés au séchage et d'augmenter la capacité de séchage d'un site, tout en améliorant la qualité finale des produits. Il peut être utilisé comme stratégie de séchage complet ou bien comme pré-séchage à l'air libre avant de passer aux séchoirs conventionnels. Cependant, il demande un suivi manuel et une gestion de l'inventaire qui peuvent être exigeants sans outil automatisé. En réponse à cet enjeu, l'utilisation d'un modèle de simulation du séchage du bois est justifiée. En combinaison avec une station météorologique, le modèle étudié (FPdrySim) pourrait être utilisé en temps réel. L'objectif général de cette étude est donc de déterminer si l'ajout de données météorologiques (température sèche, température humide, vitesse et direction du vent, pluie et rayonnement solaire) dans FPdrySim pourrait lui permettre de prédire la teneur en humidité du bois pendant son séchage à l'air. Dans l'éventualité que ses prédictions soient justes, le simulateur pourrait être utilisé comme outil automatisé d'aide à la décision et de gestion de l'inventaire, pour la formation des lots de séchage et l'optimisation de l'homogénéité des lots à l'entrée des séchoirs. Deux séries d'essais ont été menées aux mois de mai et d'août 2022. Ces essais ont eu pour objectif de suivre le séchage à l'air libre de paquets de sapin baumier et d'épinette blanche pendant quatre semaines, dans des conditions météorologiques d'entreposage monitorées. Les coefficients de détermination globaux calculés entre la prédiction du modèle et la teneur en humidité moyenne réelle sont de 0,83 et de 0,94 pour les essais du mois de mai et d'août respectivement. La prédiction sur la distribution de la teneur en humidité pourrait être améliorée. Néanmoins, les résultats sont favorables à la continuation du projet vers une étape subséquente de plus grande échelle.
38

Gestion des systèmes automatisés d'entreposage : simulation, optimisation et résultats empiriques

Gagliardi, Jean-Philippe 18 April 2018 (has links)
Les systèmes automatisés d'entreposage {Automated Storage and Retrieval Systems- AS/RS) sont considérés aujourd'hui comme une technologie de pointe dans le domaine de l'entreposage et de la distribution à haut débit. L'implantation d'un tel système représente un investissement corporatif majeur, il est donc attendu que son niveau de performance soit élevé. Ce niveau de performance, pour un environnement donné, est le résultat d'un ensemble de décisions relatives à la fois au design et au contrôle du système. Pour cette raison, tant aux niveaux industriel qu'académique, on cherche à développer des approches permettant de modéliser, concevoir et contrôler au mieux ces systèmes qui jouent un rôle critique dans les chaînes logistiques modernes. À cette fin, plusieurs approches issues de la recherche opérationnelle peuvent être appliquées. Cette thèse comporte quatre articles, présentant chacun un aspect distinct de l'étude des AS/RS. Nous présentons, dans le premier article, une revue de littérature traitant des approches de modélisation des AS/RS. L'étude met l'accent sur les hypothèses de modélisation employées dans les différents articles et qui ne sont pas toujours intuitives, ni même mentionnées. Cette réalité fait en sorte qu'il est parfois très difficile d'exploiter les résultats de recherches précédentes afin de les transposer dans un autre contexte. En plus d'isoler les hypothèses de modélisation, nous présentons une structure séparant les différentes questions de recherche en fonction des problèmes étudiés. Les résultats de cette revue prennent la forme d'une synthèse permettant d'associer, pour un problème donné, les études et résultats provenant de contextes similaires. Nous proposons dans le second article un modèle de simulation à événements discrets conçu pour étudier les AS/RS à charge unitaire. En prenant appui sur la programmation orientée-objet, le modèle a été conçu de manière à pouvoir aisément modéliser plusieurs configurations, comme par exemple les systèmes à plusieurs allées ou les AS/RS visant à gérer la collecte de petits items dans des contenants. Une description détaillée du moteur de simulation est donnée. C'est grâce à ce modèle que les chapitres subséquents ont pu voir le jour, en permettant l'étude empirique de ces systèmes hautement complexes et dynamiques. Dans le troisième article, nous présentons une étude sur le problème de gestion de l'espace dans les AS/RS. Ce problème consiste à définir, pour chaque localisation de stockage, le ou les produits pouvant y être stockés. Nous nous intéressons principalement à l'étude de l'entreposage par zones dont le nombre peut varier entre une seule zone et autant de zones qu'il y a de produits. La gestion de l'espace a suscité beaucoup d'intérêt scientifique vers la fin des années 70. Plusieurs modèles analytiques ont été formulés, résultant en certaines conclusions largement acceptées dans tous les milieux. Cependant, nous constatons que la validité de ces modèles analytiques repose sur certaines hypothèses restrictives. À l'aide du modèle de simulation présenté, nous montrons que ces conclusions ne tiennent plus lorsque nous nous transposons dans un contexte réaliste. Ce nouveau résultat nous amène à voir la gestion de l'espace en fonction des caractéristiques des produits entreposés. Dans le quatrième article, nous portons notre attention sur le problème de séquencement des requêtes dans un AS/RS. Le séquencement des requêtes consiste à définir l'ordre dans lequel les requêtes de stockage et de collecte seront complétées selon un horizon à durée déterminée, dans un objectif de minimisation du temps de cycle moyen. Cela revient à maximiser le rendement du système. Pour ce faire, nous proposons une adaptation des heuristiques de la littérature pour traiter le cas de séquencement dynamique, puis nous proposons une des premières formulations mathématiques au problème. Par la suite, nous évaluons les opérations du système à l'aide du modèle de simulation détaillé dans le deuxième article. Les résultats empiriques obtenus illustrent l'effet positif du séquencement sur la performance du système en plus de fournir une comparaison des différentes approches de séquencement étudiées. À travers ces quatre chapitres, nous démontrons que la simulation et l'optimisation des systèmes automatisés d'entreposage posent plusieurs défis. Nous avons présenté un modèle de simulation robuste qui a permis de faire avancer les connaissances dans le domaine de la gestion de l'espace et du séquencement des requêtes.
39

Amélioration de l'efficacité énergétique d'un circuit de broyage à rouleaux à haute pression par la commande prédictive économique

Thivierge, Alex 30 November 2022 (has links)
Le traitement du minerai s'effectue en deux étapes : la comminution et la séparation des particules. La première comprend le broyage, un procédé très énergivore. Celui-ci consomme près de la moitié de l'énergie des sites miniers. Il a déjà été démontré que remplacer le broyeur primaire conventionnel par le broyeur à rouleaux à haute pression (HPGR) permettait de diminuer la consommation énergétique des usines. Ceci s'explique en raison de son mécanisme de fragmentation. Contrairement aux broyeurs conventionnels qui brisent les particules par impacts et attrition, le HPGR fait appel à la compression, plus efficace énergétiquement. Remplacer les systèmes de contrôle du statu quo par la commande prédictive économique (EMPC) pourrait réduire davantage la consommation énergétique des usines avec HPGR, car celle-ci considère le coût énergétique dans sa fonction objectif. Jusqu'à maintenant, ce scénario n'a pas été étudié. Cette recherche comble cette lacune. La mener à terme a nécessité de programmer des simulateurs de HPGR et de flottation. Le corpus contient déjà plusieurs modèles de HPGR, mais la majorité de ceux-ci présume que les fragments de minerai ne glissent pas dans l'espacement entre les rouleaux, une hypothèse qui n'avait pas été vérifiée. Les objectifs de la recherche sont donc : 1. de vérifier l'hypothèse d'absence de glissement du minerai dans l'espacement des rouleaux du HPGR ; 2. de développer un simulateur de HPGR permettant d'étudier le contrôle de procédé à l'échelle de l'usine ; 3. de modéliser mathématiquement la performance de flottation aux caractéristiques du produit de broyage et 4. de quantifier l'impact économique et énergétique de la commande prédictive économique à l'échelle globale à partir d'une étude de cas par simulation. Ces travaux invalident plusieurs modèles de HPGR en démontrant, à l'aide d'un bilan de matière, que le glissement se produit pour un jeu de données. Concevoir un observateur a permis de quantifier la vitesse de glissement. Celui-ci est basé sur des bilans de force, de matière et d'énergie. Il fait appel au critère de friction de Coulomb et à d'autres relations empiriques. Cette thèse présente ensuite le développement d'un modèle de HPGR ne faisant aucune hypothèse restrictive sur le glissement. Ce modèle suppose un écoulement piston divisé en plusieurs zones le long des rouleaux. Il comprend quatre sous-modèles : 1. espacement entre les rouleaux - fonction empirique de la force spécifique ; 2. débit massique du produit - équation de continuité améliorée d'un facteur de correction ; 3. puissance soutirée - fonction de l'angle d'application de la force de broyage et 4. distribution granulométrique du produit - approche populationnelle cumulative résolue dans le domaine énergétique. Son calibrage pour 18 jeux de données a permis d'évaluer sa validité. Le manuscrit continue avec la proposition d'un modèle empirique de la constante cinétique de flottation en fonction de la taille et de la composition des particules. En reliant le simulateur de broyage aux performances de flottation, il permet la réalisation de l'étude de contrôle de procédé à l'échelle de l'usine. Celle-ci s'accomplit en comparant l'efficacité énergétique et la performance économique des réponses de plusieurs systèmes de contrôle à une séquence donnée de perturbations. Les résultats principaux sont énumérés ci-après. 1. Comparativement à une stratégie de contrôle de procédés qui maintient le débit de minerai frais alimenté constant, un système qui manipule cette variable consomme moins d'énergie spécifique et produit une performance économique supérieure malgré une détérioration du rendement métal. 2. Une stratégie basée sur des contrôleurs de type proportionnel-intégral (PI) décentralisés permet d'obtenir la même performance économique que la EMPC, car l'optimum économique se situe au point de rencontre de contraintes d'opération du système. 3. La EMPC peut accroitre l'efficacité énergétique si son critère contient une composante pénalisant la puissance soutirée explicitement, mais au prix d'une diminution de la performance économique. En somme, la recherche montre qu'une stratégie de commande multivariable judicieuse mène à des performances économiques et énergétiques supérieures comparativement à une stratégie de commande de base pour une usine avec HPGR. Des performances équivalentes peuvent toutefois être obtenues autant avec une EMPC qu'avec une stratégie décentralisée faisant appel à des régulateurs PI. / Mineral processing comprises two steps : comminution and separation of the particles. The first one includes grinding, an energy-inefficient process consuming about half the energy of mine sites. It was previously demonstrated that replacing conventional grinding technologies by high-pressure grinding rolls (HPGR) reduces the specific energy consumption of mineral processing plants. The different breakage mechanisms explain these results. In contrast to conventional grinding mills that break particles by impact and attrition, the HPGR fragments them by compression, which exhibits higher energy efficiency. Replacing current process control systems with economic model predictive control (EMPC) could further reduce the energy consumption of HPGR grinding circuits since it considers the energy cost within its objective function. This solution remains unexplored as of now. This work aims at filling this gap. Doing so requires programming HPGR and flotation simulators. The literature already contains several HPGR models. Most of them, however, assume the ore does not slip against the surface of the rolls even though this assumption has yet to be validated. This research therefore aims: 1. to verify whether the ore fragments may slip or not in the HPGR working gap; 2. to develop an HPGR simulator enabling the study of plant-wide process control; 3. to model mathematically the flotation response to the grinding product characteristics, and 4. to quantify the performance of plant-wide EMPC in a simulated case study using specific energy consumption and the product net value as metrics. The results invalidate several HPGR models by showing, through a mass balance, that the ore fragments slip in the HPGR working gap for a data set. Developing an observer allowed quantifying the speed at which they do. It makes use of force, mass, and energy balances, the Coulomb friction criterion, and other empirical models. This thesis then presents a novel HPGR model that makes no restricting hypothesis regarding slip. It considers several parallel plug flow reactors along the length of the rolls. It comprises four sub-models: 1. working gap - empirical function of the specific force; 2. product mass flow rate - continuity equation improved with a correction factor; 3. power draw - function of the grinding force application angle, and 4. product particle size distribution - cumulative population balance model solved in the energy domain. Calibrating the model on 18 data sets allowed evaluating its validity. The manuscript follows with the proposal of an empirical model for the flotation kinetic constant as a function of the particle size and composition. It therefore links the flotation process performance to the grinding circuit, in turn allowing the plant-wide process control study to take place. To do so, the simulator introduces a given disturbance sequence to different control strategies. It makes use of energy efficiency and product hourly net value as comparison metrics. The main results are listed thereafter. 1. In contrast to a control system maintaining constant feed rate, a system that manipulates this variable consumes less specific energy and generates more profits even though the metal recovery decreases. 2. A control strategy based on decentralized proportional-integral (PI) controllers allows generating the same economic output as the EMPC because the system's constraints define the economic optimum. 3. EMPC can reduce the grinding circuit specific energy consumption by including a penalty for HPGR power draw in the objective function, albeit at the cost of a lower economic performance. Overall, the research shows that a well-designed multivariable control system results in higher economic performance and energy efficiency in comparison to a basic regulatory control system for a plant comprising HPGR grinding. This being said, both EMPC and PI-based decentralized regulatory control produce equivalent performances. / Thèse ou mémoire avec insertion d'articles.
40

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.

Page generated in 0.1172 seconds