Spelling suggestions: "subject:"modèles mathématiques"" "subject:"modèles athématiques""
131 |
Les langages testables par morceauxDubé, Maxime 17 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Une des questions incontournables qu'on se pose en théorie des langages est de savoir si une logique est décidable. Autrement dit, pour une logique donnée, on veut savoir s'il existe un algorithme qui détermine si un langage donné est exprimable dans cette logique. Depuis les travaux de Schützenberger, McNaughton et Papert sur la logique de premier ordre sur les mots, on reconnait l'importance de la théorie algébrique des langages pour résoudre ces questions de décidabilité. Un autre exemple historique est la caractérisation de Simon des langages testables par morceaux de mots par les monodes J -triviaux. On dit qu'un langage est testable par morceaux si on peut le définir par une combinaison booléenne d'expressions régulieres de la forme [symbol]. Ces langages sont exactement ceux qui sont définis par la clôture booléenne de [symbol] et le théorème de Simon engendre un algorithme qui en resout la décidabilité. Suite aux succès sur les mots, on a attaque les mêmes questions de décidabilité de logiques sur les langages de forêts, plus spéciquement sur les langages d'arbres. Dernièrement, Bojanczyk, Segoufin et Straubing ont pu démontrer un analogue du théorème de Simon pour les forêts. En effet, ils ont pu caractériser la clôture booléenne de [symbol], c'est-à-dire les langages testables par morceaux, en fonction d'une structure algébrique nommée algèbre de forêts. Ce mémoire est d'abord un état de l'art de la théorie algébrique des langages testables par morceaux. Entre autres, nous présentons le théorème de Simon sur les mots en passant par un résultat de Straubing et Thérien qui utilise la théorie des monodes partiellement ordonnés. Ensuite, nous étudions un pendant de ce résultat pour les algèbres de forêts. Finalement, nous règlons la décidabilité des langages de mots bien emboîtés testables par morceaux, une sous-classe des langages visiblement à pile. En efet, nous proposons un algorithme qui utilise le résultat de Bojanczyk, Segoufin et Straubing sur les langages de forêts.
|
132 |
Les sommes de renouvellement escomptées avec taux d'intérêt généralAdekambi, Franck 17 April 2018 (has links)
Dans la littérature actuarielle, les modèles collectifs les plus souvent utilisés pour représenter le montant total des réclamations sur un intervalle de temps donné sont ceux construits à partir de sommes de renouvellement dans lesquelles les forces d'intérêt et d'inflation peuvent éventuellement être prises en compte. Le modèle de renouvellement dans lequel le contexte économique est ignoré, même si trop simpliste, a toutefois permis dans plusieurs cas le calcul de quantités d'intérêt telles que les moments, la fonction génératrice des moments, la distribution du montant total des réclamations, la probabilité de ruine, et a ainsi constitué une première approche de ce problème d'assurance. Pour le modèle de renouvellement avec force d'intérêt constante, les mathématiques sont déjà plus complexes, mais plusieurs résultats ont tout de même été obtenus. Nous pouvons citer deux articles des professeurs Léveillé et Garrido, où ces auteurs proposent des formules récursives pour le calcul de tous les moments. Dans cette thèse, nous proposons un modèle de renouvellement escompté encore plus réaliste où la force d'intérêt est soit représentée par une fonction déterministe ou par un processus stochastique. Les difficultés qu'ajoute ainsi une force d'intérêt plus générale nous obligent à développer une identité qui donnera la distribution conjointe conditionnelle du temps des réclamations connaissant leur nombre dans un intervalle de temps donné. Cet outil fondamental nous permettra de calculer les premiers moments simples et conjoints, de construire une équation intégrale de la fonction génératrice des moments, d'obtenir certaines distributions, de développer des prédicteurs de la valeur présente de notre processus de risque ainsi que d'autres résultats connexes.
|
133 |
Modélisation mathématique en épidémiologie par réseaux de contacts : introduction de l'hétérogénéité dans la transmissibilitéAllard, Antoine 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / La dernière décennie a vu se développer une approche novatrice et efficace pour modéliser la propagation de maladies infectieuses dans des populations: l'épidémiologie par réseaux de contacts. Utilisant des réseaux complexes pour tenir compte des interactions permettant la transmission de maladies infectieuses entre les individus, la percolation de liens de tels réseaux permet de prédire l'issue d'une épidémie et donc d 'aider à tester et à améliorer les politiques de santé publique. Nous présentons un nouveau modèle de percolation de liens sur des réseaux complexes possédant une quelconque distribution de degrés et où l'hétérogénétité de la probabilité d'occupation des liens est explicitement intégrée. Puisque plusieurs maladies infectieuses possèdent une transmissibilité hétérogène, due aux différences physiologiques et comportementales entre les individus, ce modèle permettra des études beaucoup plus précises et détaillées et pourra participer à l'élaboration de politiques de santé publique mieux adaptées à la réalité.
|
134 |
Modèle d’évolution de galaxies pour simulations cosmologiques à grande échelleCôté, Benoit 20 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / Nous présentons un modèle semi-analytique (MSA) conçu pour être utilisé dans une simulation hydrodynamique à grande échelle comme traitement de sous-grille afin de générer l’évolution des galaxies dans un contexte cosmologique. Le but ultime de ce projet est d’étudier l’histoire de l’enrichissement chimique du milieu intergalactique (MIG) ainsi que les interactions entre les galaxies et leur environnement. Le MSA inclut tous les ingrédients nécessaires pour reproduire l’évolution des galaxies de faible masse et de masse intermédiaire. Cela comprend l’accrétion du halo galactique et du MIG, le refroidissement radiatif, la formation stellaire, l’enrichissement chimique et la production de vents galactiques propulsés par l’énergie mécanique et la radiation des étoiles massives. La physique des bulles interstellaires est appliquée à chaque population d’étoiles qui se forme dans le modèle afin de relier l’activité stellaire à la production des vents galactiques propulsés par l’énergie mécanique. Nous utilisons des modèles stellaires à jour pour générer l’évolution de chacune des populations d’étoiles en fonction de leur masse, de leur métallicité et de leur âge. Cela permet d’inclure, dans le processus d’enrichissement, les vents stellaires des étoiles massives, les supernovae de Type II, Ib et Ic, les hypernovae, les vents stellaires des étoiles de faible masse et de masse intermédiaire ainsi que les supernovae de Type Ia. Avec ces ingrédients, notre modèle peut reproduire les abondances de plusieurs éléments observées dans les étoiles du voisinage solaire. De manière plus générale, notre MSA peut reproduire la relation actuelle observée entre la masse stellaire des galaxies et la masse de leur halo de matière sombre. Il peut aussi reproduire la métallicité, la quantité d’hydrogène et le taux de formation stellaire spécifique observés dans les galaxies de l’Univers local. Notre modèle est également consistant avec les observations suggérant que les galaxies de faible masse sont davantage affectées par la rétroaction stellaire que les galaxies plus massives. De plus, le modèle peut reproduire les différents comportements, soit oscillatoire ou stable, observés dans l’évolution du taux de formation stellaire des galaxies. Tous ces résultats démontrent que notre MSA est suffisamment qualifié pour traiter l’évolution des galaxies à l’intérieur d’une simulation cosmologique. / We present a semi-analytical model (SAM) designed to be used in a large-scale hydrodynamical simulation as a sub-grid treatment in order to generate the evolution of galaxies in a cosmological context. The ultimate goal of this project is to study the chemical enrichment history of the intergalactic medium (IGM) and the interactions between galaxies and their surrounding. Presently, the SAM takes into account all the ingredients needed to compute the evolution of low- and intermediate-mass galaxies. This includes the accretion of the galactic halo and the IGM, radiative cooling, star formation, chemical enrichment, and the production of galactic outflows driven by the mechanical energy and the radiation of massive stars. The physics of interstellar bubbles is applied to every stellar population which forms in the model in order to link the stellar activity to the production of outflows driven by mechanical energy. We use up-to-date stellar models to generate the evolution of each stellar population as a function of their mass, metallicity, and age. This enables us to include, in the enrichment process, the stellar winds from massive stars, Type II, Ib, and Ic supernovae, hypernovae, the stellar winds from low- and intermediate-mass stars in the asymptotic giant branch, and Type Ia supernovae. With these ingredients, our model can reproduce the abundances of several elements observed in the stars located in the solar neighborhood. More generally, our SAM reproduces the current stellar-to-dark-halo mass relation observed in galaxies. It can also reproduce the metallicity, the hydrogen mass fraction, and the specific star formation rate observed in galaxies as a function of their stellar mass. Our model is also consistent with observations which suggest that low-mass galaxies are more affected by stellar feedback than higher-mass galaxies. Moreover, the model can reproduce the periodic and the stable behaviors observed in the star formation rate of galaxies. All these results show that our SAM is sufficiently qualified to treat the evolution of low- and intermediate-mass galaxies inside a large-scale cosmological simulation.
|
135 |
Modélisation des ruptures initiant la coulée argileuse de Saint-Luc-de-VincennesOmri, Rihab 02 February 2024 (has links)
Le glissement de terrain de Saint-Luc-de-Vincennes est survenu en plusieurs évènements entre le 22 octobre et le 9 novembre 2016. La description de ces évènements repose essentiellement sur le témoignage du propriétaire du terrain. Selon ses observations, le 22 octobre, un premier glissement rotationnel, impliquant le pied du talus, est survenu. Quelques jours plus tard, un plus grand glissement aurait impliqué toute la pente en atteignant la crête du talus. Ce glissement aurait initié la première coulée argileuse survenu le 7 novembre et aurait donné la forme du goulot de bouteille caractéristique des coulées argileuses. Le 9 novembre, une deuxième coulée est survenue, suivie très rapidement d'un étalement. L'objectif de cette étude est de présenter une méthodologie permettant la modélisation temporelle des conditions ayant menées à l'initiation des coulées argileuses. Dans cette perspective, des essais œdométriques avec des calculs de perméabilité et de coefficient de consolidation (cv) ont été réalisés afin de caractériser le comportement mécanique et les propriétés de l'argiles sensibles de Saint-Luc-de-Vincennes. L'ensemble de ces paramètres ont servi à effectuer la modélisation numérique par le couplage de SLOPE/W et SIGMA/W de la suite GeoStudio du déchargement des débris du glissement du 22 octobre et du deuxième glissement survenu quelques jours plus tard et qui aurait initié la première coulée du 7 novembre. Enfin, une étude paramétrique s'attardant sur l'effet des propriétés du sol et de la géométrie de la pente a permis d'analyser l'évolution du coefficient de sécurité de l'escarpement arrière en fonction du temps suite au déchargement des débris causés par les deux premiers glissements. L'ensemble des résultats donne un bon aperçu de la complexité d'inclure le temps dans les analyses de stabilité permettant de reproduire les conditions ayant menées à la première coulée du 7 novembre 2016. / The Saint-Luc-de-Vincennes landslide occurred in several events between October 22 and November 9, 2016. The description of these events is based primarily on the testimony of the property owner. According to his observations, on October 22, a first rotational slide, involving the toe of the slope, occurred. A few days later, a larger slide would have involved the entire slope by reaching the crest of the slope. It seem that this slide could have initiated the first sensitive clay flowslide that occurred on November 7 and would have given the shape of the bottleneck characteristic of clay flows. On November 9, a second flow occurred, followed very quickly by a spread. The objective of this study is to present a methodology allowing the temporal modeling of the conditions that led to the initiation of clay flows. In this perspective, odometer tests with permeability and consolidation coefficient (cv) calculations were performed in order to characterize the mechanical behavior and the properties of sensitive clays at Saint-Luc-de-Vincennes. All of these parameters were used to carry out numerical modelling, by coupling SLOPE/W and SIGMA/W from the GeoStudio suite, of the discharge of debris from the October 22 landslide and the second landslide that occurred a few days later and which would have initiated the first flow on November 7. Finally, a parametric study focusing on the effect of soil properties and slope geometry was used to analyze the evolution of the safety factor of the back scarp as a function of time following the unloading of debris caused by the first two slides. The overall results provide a good overview of the complexity of including time in stability analyses to reproduce the conditions that led to the first landslide on November 7, 2016.
|
136 |
Control and optimization of the primary drying of lyophilization in vialsChia, Andrea 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 28 juin 2023) / La lyophilisation est devenue un sujet essentiel de développement dans l'industrie pharmaceutique. Il s'agit d'une technique de séchage reposant sur le principe de la sublimation qui est utilisée pour stabiliser et conserver des matériaux qui ne peuvent pas être séchés par des techniques conventionnelles. La lyophilisation comporte trois étapes : la congélation, le séchage primaire et le séchage secondaire. L'efficacité globale du procédé dépend principalement de la performance du séchage primaire, qui représente l'étape la plus longue et la plus énergivore et détermine en grande partie la qualité du produit final. La pratique courante consiste à opérer le procédé sous des profils pré-calculés avec des marges de sécurité, ce qui conduit à des cycles conservateurs et sous-performants. La commande automatique est donc une voie prometteuse pour réduire la durée de séchage, mais elle se limite généralement à des applications en flacon unique négligeant l'hétérogénéité spatiale affectant la dynamique de séchage intra-lot. D'autres défis sont liés à l'inaccessibilité des variables clés du processus ou à l'utilisation d'instruments intrusifs pour leur mesure. Ce projet de recherche étudie la commande et l'optimisation du séchage primaire de la lyophilisation en flacons, en abordant trois aspects principaux : la modélisation, l'estimation et la commande. La conception des stratégies d'estimation et de contrôle exige d'abord une représentation fiable du procédé. Le modèle proposé intègre les équations fondamentales du séchage primaire dans un modèle linéaire à paramètres variables, fournissant un compromis approprié entre la précision du modèle et le coût de calcul. Cette étude explore également la conception d'estimateurs en ligne de variables clés du procédé à l'aide d'instruments non invasifs, applicables à des équipements pilotes et industriels. La mesure globale est convertie pour tenir compte des contributions des flacons individuels, et cette mesure locale est utilisée dans la conception des estimateurs en ligne de la température du produit. Trois estimateurs sont formulés à l'aide des algorithmes suivants : filtre de Kalman étendu, l'estimation à fenêtre glissante et l'estimation non linéaire par moindres carrés. Des résultats satisfaisants ouvrent la voie à la possibilité de concevoir des estimateurs multi-flacons avec la mesure globale de la vapeur d'eau et englobant l'hétérogénéité spatiale du séchage. Le principe de commande initial a été développé et évalué en simulation pour un cas à flacon unique. Il a considéré deux algorithmes : une commande proportionnelle-intégrale et la commande prédictive. Le schéma de contrôle a été étendu à un problème à multiples flacons et validé dans une unité à l'échelle pilote. Les résultats ont été concluants, la commande automatique a conduit à des réductions significatives du temps de séchage par rapport aux conditions de fonctionnement typiques, et l'approche multi-flacons a permis d'obtenir un cycle très fiable. / Lyophilization, or freeze-drying, has become an essential subject of ongoing development in the pharmaceutical industry. It is a drying technique relying on the sublimation principle and is used to stabilize and preserve materials that cannot be dried by conventional techniques. Lyophilization involves three stages: freezing, primary drying, and secondary drying. The global efficiency of the process relies mainly on the performance of primary drying, as it represents the most time and energy-consuming stage and largely determines the quality of the final product. The common practice runs the process under pre-calculated profiles with safety margins, leading to conservative and underperforming cycles. Process control is thus a promising avenue to decrease drying duration, but it is generally confined to single-vial applications neglecting the spatial heterogeneity affecting the drying dynamics intra-lot. Additional challenges are related to the inaccessibility of key process variables or the use of intrusive instrumentation for their measurement. This research project investigates the control and optimization of the primary drying of lyophilization in vials, addressing three main aspects: modeling, estimation, and control. The conception of estimation and control strategies first requires a reliable process representation. The proposed model accommodates the fundamental equations of primary drying into a linear parameter-varying model, providing a suitable compromise between model accuracy and computational cost. This study also explores the design of in-line estimators of key process variables using non-invasive instrumentation, with applicability to pilot and industrial scale equipment. The global reading is converted to account for the contributions of individual vials, and this local measurement is used in the design of in-line estimators of the product temperature. Three estimators are formulated using the following algorithms: extended Kalman filter, moving horizon estimation, and nonlinear least square estimation. Satisfactory results open the door to the possibility of designing multi-vial estimators with the global reading of water vapor and encompassing the spatial heterogeneity of drying. The initial control framework was developed and benchmarked in simulation for a single-vial case. It considered two algorithms: a standard proportional integral control and a model predictive control. The control scheme was extended to a multi-vial problem and validated in a pilot-scale unit. Results were conclusive, process control led to significant drying time reductions compared to typical operating conditions, and the multi-vial approach yielded a highly dependable cycle.
|
137 |
Méthode d'inférence utilisant la vraisemblance empirique basée sur l'entropie pour les modèles de diffusion avec sautsLaporte, Francis 13 March 2024 (has links)
Avec la venue de modèles de plus en plus élaborés pour modéliser les rendements boursiers, la méthode classique du maximum de vraisemblance pour inférer les paramètres n’est généralement plus applicable puisque, par exemple, la fonction de densité n’est pas disponible ou très difficile à calculer numériquement. Dans la littérature, l’inférence par la méthode des moments (MM) est donc généralement suggérée. Dans ce mémoire, une méthode d’inférence plus efficace, soit celle du maximum de vraisemblance empirique basé sur l’entropie (MEEL), est proposée pour deux cas particuliers du processus de Lévy, soit les modèles de Merton et de Tsay. Premièrement, un retour sur certains modèles développés par le passé est fait. Les lacunes du mouvement brownien géométrique sont présentées afin de justifier l’utilisation de modèles plus élaborés. Ensuite, les deux modèles, Merton et Tsay, et leurs propriétés sont présentés plus en détail. Par la suite, il y a une analyse comparative entre l’efficacité du MEEL et celle du MM ; un exemple sur des données réelles est aussi présenté. Pour terminer, deux approches de tarification de produits dérivés sont présentées. / With the advent of increasingly sophisticated models for modeling stock market returns, the classical maximum likelihood method for inferring parameters is generally no longer applicable since, for example, the density function has no closed form or very difficult to calculate numerically. In the literature, inference by the method of moments (MM) is therefore generally suggested. In this master’s thesis, a more efficient inference method, the maximum empirical entropy likelihood (MEEL), is proposed for two particular cases of the Lévy process, namely the Merton and Tsay models. First, a review of some models developed in the past is done. The flaws of the geometric Brownian motion are presented to justify the use of more sophisticated models. Then, the two models, Merton and Tsay, and their properties are presented in more detail. Subsequently, there is a comparative analysis between the effectiveness of the MEEL and the MM; an example with real data is also presented. Finally, two approaches to pricing derivatives are presented.
|
138 |
Developing a new methodology for predicting open stopes' performanceMcFadyen, Benoît 17 July 2024 (has links)
Les chantiers de type chambre ouverte ont été popularisés dans les mines souterraines autour des années 80 dû aux hauts rendements et relativement faibles coûts qu'ils engendrent. Le succès de cette méthode de minage dépend de la capacité à concevoir une chambre ouverte qui maximise les profits tout en respectant la géométrie de celle-ci lors du minage. En réalité, des sur-bris (volume de roche minée et non planifiée) et sous-bris (volume de roche planifié laissée en place) sont générés lors du minage du chantier et peuvent avoir des conséquences néfastes sur la stabilité du chantier et la rentabilité des opérations. Afin de minimiser ces bris hors-profil et leurs impacts, des outils empiriques, tels que les abaques de stabilité, ont été développés et améliorés afin de prédire les volumes de sur-bris par face pour le chantier. Malheureusement, ces outils présentent certaines limitations : ils intègrent un nombre limité de paramètres (ce qui ne couvre pas toutes les causes possibles des bris hors-profil pour le site à l'étude), le sous-bris n'est pas considéré et la résolution spatiale des prédictions est limitée (valeur qualitative ou moyenne par face). Ces limitations empêchent l'intégration de données économiques dans les prédictions et ainsi l’optimisation globale des chantiers. L'objectif de cette thèse fut de développer une méthodologie pour les mines en opération qui permet de comprendre la distribution spatiale et la magnitude des bris hors-profils générés le long de la surface du chantier et d'utiliser ces connaissances durant la conception du chantier pour prédire la géométrie attendue afin d'optimiser sa performance. Pour ce faire, une base de données de chantiers fut créée pour trois cas d'étude (deux en Australie et un au Canada) à une résolution par octree (données géoréférencées mesurées à une résolution d'environ un mètre cube) qui comprend des paramètres géométriques, géomécaniques, géologiques, opérationnels et de performance. Des méthodes statistiques univariées, bivariées et multivariées (analyse en composantes principales et moindres carrés partiels) ont servi à identifier les paramètres critiques. Deux modèles prédictifs multivariés ont été utilisés par la suite pour prédire la géométrie (moindres carrés partiels et forêt aléatoire) ainsi qu'un modèle prédictif additionnel (analyse discriminante linéaire) pour prédire la position des bris hors-profils. Les modèles ont été comparés pour déterminer la meilleure approche. Des données économiques ont ensuite été intégrées pour caractériser les performances géotechniques (bris hors-profil) et économiques des chantiers attendus. L'analyse statistique des paramètres a permis d'identifier les paramètres critiques pour chaque cas d'étude qui impacte le sur-bris (énergie du tir à l'explosif, surdéveloppement des galeries, position dans la surface et présence de structures géologiques) et le sous-bris (position dans la surface, distance avec les trous chargés d'explosifs et l'angle d'interception des trous chargés d'explosifs avec les surfaces). Les paramètres critiques ont été utilisés pour chaque site afin de construire les modèles prédictifs. Les résultats montrent que la magnitude des bris hors-profils le long de la surface de conception peut être prédite à l'aide d'un modèle forêt aléatoire avec moins d'un mètre d'erreur pour 65% de la surface en moyenne. Les modèles de forêt aléatoire permettent de prédire la géométrie avec succès pour 71 % des faces de chantiers transversaux et 51 % des faces de chantiers longitudinaux. L'analyse de ces prédictions permet de déterminer les magnitudes maximales possibles de bris hors-profil et leur position (utilisant l'approche probabiliste) ainsi que d'estimer la performance économique du chantier. La résolution des données et l'utilisation de l'analyse multivariée ont permis de prédire la géométrie des chantiers, allant bien au-delà de la simple prédiction qualitative par face de chantiers fournie par une approche traditionnelle de l'abaque de stabilité. Ces travaux constituent une étape importante vers un processus de conception et de planification des chantiers qui minimise les problèmes de stabilité, la dilution et la perte de minerai à travers le chantier. Étant donné qu'une géométrie de conception maximisant la récupération de minerai augmente le potentiel de dilution et vice versa, cette approche permet de quantifier le compromis économique et ainsi maximiser la rentabilité lors de l'exploitation du chantier. Cela marque une contribution importante pour la compréhension et l'optimisation de la performance des chantiers de type chambre ouverte. / Open stopes were popularised in underground mines around the 1980s due to the high yields they generate andtheir relatively low cost. The success of this mining method depends on the ability to design a stope that maximises profits while respecting the geometry during mining. In reality, overbreak (OB, unplanned volume of rock mined) and underbreak (UB, volume of planned rock left in place) are generated during the mining process which can have negative consequences on the stability of the stope and the profitability of the operation. To minimise the OB and UB, and their impact, empirical tools such as the Stability Chart were developed and improved to predict the volumes of OB per stope faces. Unfortunately, these tools have certain limitations: they integrate a limited number of variables (which does not cover all the possible causes of OB), UB is not considered, and the resolution of the predictions is limited (qualitative or average value per face). These limitations prevent the full integration of economic data into predictions and thus the optimisation of the mines stopes. The objective of this thesis is to develop a methodology for operating mines which enables the understanding of the spatial distribution and magnitude of OB and UB generated along the surface of the stope and to use this knowledge during stope design to predict the expected geometry to optimise its performance. A stope database was created for three case studies (two in Australia and one in Canada) at an octree resolution (georeferenced data measured at an approximately one cubic metre resolution) which includes geometric, geomechanical, geological, operational and performance variables. Univariate, bivariate and multivariate statistical methods (principal component analysis and partial least squares) were used to identify the critical variables for each site. Multivariate and machine learning models were subsequently used to predict the mined geometry (partial least squares and random forest) and OB and UB location (linear discriminant analysis). The models were compared to determine the best approach. Economic data was integrated to characterise the geotechnical (OB and UB) and economic performances of the expected geometry. The statistical analysis of the variables enables the identification of critical variables for each case studyregarding the OB (observed in areas where there is high blasting energy, where there is a large undercut and overcut, towards the middle of the faces and in the presence of major geological structure) and UB (observed near the edges of surfaces, where there is a large distance from the blasting, and where drill holes toe into the faces). The critical variables were used for each site to build predictive models. The results show that the magnitude of OB and UB can be predicted using a random forest model with a less than one metre error for 65% of the surface on average. These predictions are used to build the expected geometry of the stope. Considering the mining context, it is possible to excellently predict the geometry for 71% of the transversal stope faces and 51% of the longitudinal stope faces. The incorporation of probabilities also enables the estimation of the maximum magnitudes of OB and UB, their location and the economical estimation of the performance of the stopes. The octree resolution of the data and the use of multivariate analysis has enabled the prediction of the stope geometry, going well beyond the simple qualitative per stope face prediction provided by a traditional Stability Chart approach. This work is a significant step to advance stope design and the planning process, providing tools to minimise stability issues, dilution and loss of ore. As designing for higher ore recovery increases the potential for dilution and vice versa, this approach allows for the value realised from mining a stope to be maximised by quantifying this inherent economic trade-off. The enhanced resolution of both data and predictions has allowed for a more comprehensive evaluation of the predicted stope geometry and economic outcomes during the design phase. This marks a major contribution in the ability to design and plan the optimal stope
|
139 |
Modes de vibration dans le modèle de Skyrme avec un terme de masse modifiéDavies, Merlin 13 April 2018 (has links)
Le modèle de Skyrme, proposé il y a près de cinquante ans par T.H.R. Skyrme [1, 2, 3, 4], est d'abord passé presque inaperçu, à cette époque où la compréhension du zoo de particules créées par les accélérateurs se faisait plus pressante et retenait plus l'attention. Quelques vingt ans plus tard, avec l'acquisition d'une connaissance plus complète de la force nucléaire et des particules hadroniques, les physiciens tentèrent de répliquer les succès de l'électrodynamique quantique (EDQ) à la chromo dynamique quantique (CDQ), la théorie de champs relativiste de l'interaction forte. Dans ce nouveau contexte de recherche, Edward Witten montra que dans la limite Nc --> infini [15] (où Nc est le nombre de charge couleur) le lagrangien de la CDQ possède les mêmes symétries que le modèle de Skyrme. Ce fut une trouvaille importante en raison de la nécessité d 'avoir une théorie efficace de la CDQ à basse énergie et elle engendra la renaissance du modèle dans le milieu de la physique théorique. Aujourd'hui, le modèle peut prétendre à un succès relatif dans la prédiction de plusieurs propriétés physiques des nucléons (proton, neutron, Delta, etc ... ), c'est-à-dire à 30% des valeurs expérimentales ou mieux[5]. Toutefois, le modèle a ses lacunes. Plus le nombre baryonique (B) augmente, plus le modèle perd ses qualités de bien représenter la géométrie des noyaux atomiques. L'exemple classique est celui pour B = 2. La solution d'énergie minimale a la forme d'un tore, ce qui est loin de la forme attendu, soit de deux sphères légèrement liées ensemble (la forme présumée du deutéron). Cette hypothèse est motivée par l'observation que les nucléons semble conserver leurs individualités dans les noyaux. En plus, le modèle prédit une énergie de liaison d'environ 80 MeV pour le tore, ce qui est beaucoup trop élevée par rapport à celle du deutéron qui n'est que de 2.224 MeV. Qualitativement, il semble donc que la matière baryonique soit plus rigide que ce que le modèle de Skyrme sous-entend. Ces caractéristiques plutôt indésirables du modèle ont poussé les chercheurs à proposer des variations au modèle dans l'espoir de remédier à cette lacune. Dans le présent mémoire, nous allons justement tenter de déterminer à l'aide de l'étude des énergies vibratoires, comment un terme de masse proposé récemment par v. B. Kopeliovich, B. Piette, et W. J. Zakrzewski [8, 9] réussira à améliorer le modèle à l'égard des propriétés mentionnées ci-haut. Les énergies de vibration sont en quelque sorte une mesure de la rigidité des solitons solitoniques et leur comportement pourrait suggérer une approche visant à obtenir des noyaux où les nucléons préservent leurs identités.
|
140 |
Modelling of suspended solids in integrated urban wastewater systemsLedergerber, Julia Margrit 02 February 2024 (has links)
Les avantages de la gestion intégrée de l'eau sont connus depuis des années, mais ces approches sont devenues plus importantes que jamais. Cela est reconnu dans l'objectif 6 des 17 objectifs de développement durable des Nations Unies. En ciblant à la fois l'eau potable et l'assainissement, cet objectif demande une approche intégrée car il reconnaît leur interdépendance. Cette thèse vise à faire progresser le domaine de la modélisation intégrée de l'eau, et en particulier en ce qui concerne les matières en suspension. Les émissions globales de l'assainissement ont gagné en intérêt puisque les normes de qualité de l'eau sont étendues de la station de récupération des ressources de l'eau au réseau d'égout. La modélisation intégrée permet d'évaluer les interactions et d'estimer les émissions en plus des mesures de la qualité de l'eau (encore) rares. Les particules peuvent être considérées comme un indicateur de la qualité de l'eau couvrant la pollution particulaire, mais aussi les matières organiques, les nutriments et les substances telles que les micro-polluants hydrophobes. L'approche de modélisation choisie est conceptuelle, pour ses calculs rapides, et basée sur la distribution de la vitesse de décantation des particules, partout où la décantation et la remise en suspension sont les processus caractéristiques. L'approche est complétée par d'autres modèles pour couvrir le système du bassin versant jusqu'à la station de récupération des ressources de l'eau. Un modèle intégré nécessite de nombreuses données. Pour une collecte de données efficace, premièrement, une procédure est établie pour construire un modèle conceptuel d'égout à partir d'un modèle hydraulique détaillé. Deuxièmement, une méthodologie de conception expérimentale optimale est adaptée à l'environnement complexe des égouts pour une campagne de mesure de la qualité de l'eau. L'utilité de l'approche de la distribution de la vitesse de décantation des particules est ensuite démontrée en calibrant et en validant le modèle pour une site pilote. Une procédure est élaborée pour tenir compte de l'incertitude des paramètres et de la variabilité des données d'entrée an d'identifier des points de contrôle ables. La procédure est utilisée pour la réduction d'émission des particules, facilitée par le calcul rapide du modèle car plusieurs analyses de sensibilité sont demandées. Le dernier chapitre termine la thèse par l'évaluation pratique des stratégies visant à réduire les émissions globales. La thèse fait ainsi progresser le domaine de la modélisation intégrée des particules et fournit en même temps des procédures qui permettent de surmonter les obstacles généraux à la modélisation en mettant l'accent sur la collecte de données fiables et efficaces, la modélisation ainsi que l'optimisation. / The advantages of integrated water management have been known for decades, but are more than ever important. This is acknowledged in goal six of the 17 sustainable development goals of the United Nations. By targeting both clean water as well as sanitation, this goal is inherently asking for an integrated approach since it recognizes their interdependence. This dissertation aims at advancing the eld of integrated water systems modelling in general, and in particular with respect to suspended solids. Overall emissions from the integratedurban wastewater system have gained interest since water quality standards are increasing lyextended from the water resource recovery facility to the sewer system. Integrated modelling allows evaluating interactions and estimating overall emissions complementary to the not (yet) abundant water quality measurements. For this evaluation suspended solids can be seen asan indicator for the receiving water quality covering particulate pollution as such, but also undesired organic matter, nutrients and substances such as hydrophobic micropollutants. The modelling approach chosen is conceptual, due to its rapid calculations, and based on the particle settling velocity distribution wherever settling and resuspension are the characteristic processes of suspended solids. The approach is extended with complementary models to coverthe integrated system from the catchment down to the water resource recovery facility. The development of an integrated model however requires vast data sets. First, for efficient data collection a procedure is established to build a fast conceptual sewer model from its detailed hydraulic counter part. Second, an optimal experimental design methodology is adapted to the challenging sewer environment for the efficient planning of a water quality measurement campaign. The usability of the particle settling velocity approach is then shown by calibrating and validating the model for a case study. A procedure is developed to consider parameter uncertainty and input variability to identify reliable control handles. The procedure is appliedfor the abatement of total suspended solid, facilitated by the comparably low computational demand of the model, as the procedure asks for multiple global sensitivity analyses. The last chapter closes the dissertation with the practical application of evaluating different strategies to reduce the total suspended emissions to the receiving water. The dissertation thus advances the eld of integrated modelling for particulates and at the same time provides procedures which overcome barriers general to modelling focusing on reliable and efficient data collection,as well as optimization.
|
Page generated in 0.0643 seconds