Spelling suggestions: "subject:"modèles mathématiques"" "subject:"modèles athématiques""
401 |
Developing sustainable simulation software for biophotonicsBégin, Ludovick 13 December 2023 (has links)
L'objectif de ce mémoire est de développer des logiciels de simulation durables pour les chercheurs en biophotonique. En raison de l'absence de solutions logicielles adaptées aux applications biophotoniques, les chercheurs doivent consacrer beaucoup de temps soit à l'apprentissage de logiciels commerciaux complexes, souvent coûteux et difficiles à modifier, soit au développement de leur propre logiciel. Dans ce dernier cas, le produit est souvent difficile à entretenir ou à utiliser par d'autres chercheurs en raison de l'absence de bonnes pratiques de développement logiciel, comme les tests unitaires et la séparation des responsabilités, ce qui n'est pas prévu dans le programme d'études en biophotonique. En mettant l'accent sur la conception et l'architecture logicielle, ce travail présente comment des solutions de simulation extensibles et maintenables ont été développées en Python pour permettre de simuler facilement la propagation de la lumière dans les tissus et améliorer la qualité d'image d'un système d'imagerie. Un module PyTissueOptics est d'abord développé avec une librarie graphique 3D indépendante pour prendre en charge la propagation de la lumière selon la méthode de Monte Carlo dans des tissus et des environnements 3D complexes. Un module Polarization est ensuite développé pour simuler la propagation de la lumière polarisée dans les composants optiques et les tissus biréfringents. Ce module est ensuite utilisé pour générer des données synthétiques de tomographie à cohérence optique sensible à la polarisation (PS-OCT). Enfin, ces données synthétiques sont utilisées pour entraîner un nouveau modèle d'apprentissage profond, CLNet, afin de nettoyer les tomogrammes PS-OCT et d'obtenir une meilleure qualité d'image. / The goal of this memoir is to develop sustainable simulation software for biophotonics researchers. The lack of good and tailored software solutions for biophotonics applications results in researchers having to take a lot of time to either learn complex commercial software, which is also often expensive and hard to modify, or develop their own software. The latter often yields a product that is hard to maintain or use by other researchers because of a lack of good software development practices, like unit testing and separation of concerns, which is not included in the biophotonics curriculum. With a focus on software design and architecture, this work presents how extensible and maintainable simulation solutions were developed in Python to allow easy simulation of light propagation in tissues and improve the image quality of an imaging system. A PyTissueOptics module is first developed along with an independent 3D graphics framework to support Monte Carlo light propagation in complex 3D tissues and environments. A Polarization module is then developed to simulate polarized light propagation in optical components and birefringent tissues. This module is then used to generate synthetic data of polarization-sensitive optical coherence tomography (PS-OCT). Finally, this synthetic data is used to train a novel deep learning model, CLNet, to clean PS-OCT tomograms and yield an improved image quality.
|
402 |
Rendements à investir dans les compagnies bien géréesPicher, Emmanuelle 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016 / Nous étudions le facteur de la qualité de gestion dans la coupe transversale des rendements boursiers suivant Fama et French (1992). Une entreprise dont la gestion excédait la moyenne du marché d’un écart-type en début de période rapportait 2,32 % de rendement de moins que la moyenne annuellement pour la période 2004-2007, et 1,63 % de moins en 2007-2010. Ces rendements sont anormaux : la qualité de gestion ne réduisait pas le risque de variance des rendements de marché durant la crise financière survenue dans la période 2007-2010. Ainsi, une entreprise bien gérée réduit significativement son coût du capital sans réduire son risque. Les données proviennent de la construction d’une base de données sur la gestion des entreprises du S& P 500 contenant six indicateurs agrégés en un indice de la qualité de gestion. L’indice pondéré par régression demeure significatif dans un modèle à trois facteurs de Fama et French (1993). / A company with management quality lying one standard deviation from the average before the start of the period earned 2.32 % more than the market average annually during the period 2004-2007, and 1.63 % more in 2007-2010. The returns did not result from the risk of variation of market returns, since the firms with the worst management earned the best return with less risk during the financial crisis during the period 2007-2010. Therefore, without a clear explanation from the financial theory, a well-managed company significantly reduces its cost of equity. A new database on management of the companies of the S& P 500 was constructed, with data on six indicators aggregated in an index of management. The regression weighted index remains significant inside the three factor model of Fama and French (1993) and the factors are closely related to the index of management.
|
403 |
Modélisation par éléments finis de l'usinage des piéces en alliages d'aluminium AA 7175-T74Mechri, Oussama 28 June 2024 (has links)
Ce mémoire introduit une approche globale de modélisation de l’usinage des alliages d’aluminium à haute résistance (grade aéronautique). Un modèle Éléments Finis 2D de coupe orthogonale d’un alliage d’aluminium en formulation Lagrangienne permettant la formation d’un copeau, le calcul des efforts de coupe ainsi que la prédiction de la surface générée est présenté. Ce modèle a été obtenue en utilisant le logiciel commercial, ABAQUS / Explicit V6.13. La loi de comportement de Johnson-Cook (JC) avec endommagement a été utilisée pour décrire le comportement du matériau de la pièce à usiner. L’équation d’endommagement de JC a été utilisée pour tenir compte de la localisation de cisaillement lors de la formation du copeau segmenté. Les coefficients de la loi de comportement de JC sont identifiés par des tests mécaniques et des essais d'usinage spécifiques. Le modèle de frottement de Coulomb-Orowan a été utilisé pour caractériser les effets collant/glissant au niveau de l'interface outil-copeau, le coefficient de frottement et les flux de cisaillement ont été déterminés par des essais d'étalonnage et d’usinage, respectivement. Une étude de sensibilité a montré une précision raisonnable dans la géométrie du copeau et dans les efforts de coupe prédites en utilisant les propriétés des matériaux déterminées expérimentalement et le modèle de friction proposé. Mots-clés : usinage, alliages d’aluminium, élément Finis, formulation Lagrangienne, coupe orthogonale, loi de comportement de Johnson-Cook (JC), loi d’endommagement de JC, modèle de frottement de Coulomb-Orowan, copeau segmenté, efforts de coupe. / This study introduces a global solution for modelling machining process of high-strength aluminium alloy (aeronautical grade). A 2D finite element model, based on a Lagrangian approach, for orthogonal cutting of an aluminum alloy allowing the formation of a chip, the calculation of the cutting forces as well as generated surface is presented. The solution was achieved using a commercial software package, ABAQUS/Explicit V6.13. The Johnson-Cook (JC) equation with damage evolution is used to describe the workpiece material behavior. The JC damage equation was used to take into account for the shear localization during the segmented chip formation. The JC coefficients are identified by material tests and machining data. The JC coefficients are identified by material tests and machining data. Coulomb-Orowan friction model has been used to characterize the sliding/sticking effects on the tool-chip interface with the friction coefficient and shear flow stress determined by force calibration and machining data, respectively. A sensitivity analysis has shown a reasonable accuracy for predicted chip geometry and cutting forces using the experimentally determined material properties and the proposed friction model. Keywords: machining, aluminum alloy, finit element, Lagrangian approach, orthogonal cutting, Johnson-Cook (JC) equation, JC damage equation, Coulomb-Orowan friction model, segmented chip, cutting forces.
|
404 |
Study of adhesively bonded repairs in aircraft CFRP primary structuresKhechen, Aris 09 October 2018 (has links)
Afin de développer un protocole d’essai standardisé et des outils analytiques facilitant la conception de réparations collées en biseau pour des structures composites aéronautiques primaires, le présent mémoire se concentre sur la caractérisation et la modélisation des performances de joints collés en composite de type lisse-escalier soumis à un effort de traction uni-axiale. Dans un premier temps, deux matériaux composites tissés, une toile (PW) et un satin (8-HS) pré-imprégnés de type plastique à renfort de fibre de carbone ont été testés en traction uni-axiale à température ambiante sec (TAS) et à température élevée sec (TES). Les données issues de cette caractérisation ont permis la modélisation numérique des réparations. Dans un deuxième temps, des réparations de type lisse-escalier ont été fabriquées sur des stratifiés en utilisant les matériaux composites PW et 8-HS en suivant la même séquence de plis quasi-isotrope ([+45°/0°/-45°/90°]2s) pour le parent et pour la réparation. Le film adhésif utilisé est le Cytec FM300-2M. L’effet des conditions environnementales et de l’angle de biseau (3°, 5.5° et 7.5°) sur les performances des réparations a été étudié. Les résultats des essais de traction ont révélé que l’angle de biseau a un impact significatif sur le mode de rupture de la structure réparée. Alors que la rupture s’est produite dans le composite pour les réparations avec un angle de biseau de 3°, une rupture en cisaillement de type cohésive a été observée pour les réparations pour les biseaux à 5.5° et 7.5°. Ce changement de mode de rupture a été retrouvé pour les deux conditions environnementales (TAS et TES). Comparativement au stratifié intact, une baisse non-significative de la rigidité a été notée pour tous les angles de biseau. Toutefois, l’augmentation de l’angle de biseau a conduit à une baisse significative de la restitution de la contrainte à la rupture comparativement à celle du stratifié d’origine, indiquant l’importance de l’angle de biseau sur l’intégrité de la structure des réparations adhésives de type lisse-escalier. Les essais de tractions à TES suggèrent qu’il n’y a qu’une très faible diminution de la rigidité et de la contrainte à la rupture pour les réparations à TES comparativement à TAS. Finalement, des analyses par éléments finis 2D dans l’épaisseur ont été conduites en utilisant ABAQUS Standard et Explicit. Une analyse élastique a tout d’abord été menée afin de prédire les distributions des contraintes de pelage et de cisaillement normalisées au milieu de l’adhésif, le long de la ligne adhésive, pour trois différentes configurations géométriques de jointure (lisse-lisse, lisse-escalier, escalier-escalier). Contrairement aux distributions de contraintes uniformes observées le long de la ligne adhésive de la configuration lisse-lisse, de forts et fréquents pics de contraintes de pelage et de cisaillement ont été observés pour les deux autres configurations. Ces observations ont mené à conclure que la modélisation d’un joint de réparation collé en biseau doit être conduite avec précaution. Émettre l’hypothèse que la surface adhésive du stratifié patch est lisse (i.e.: configuration lisse-lisse) alors qu’elle est en fait de type lisse-escalier implique de ne pas prendre en compte les pics de contraintes causés par les irrégularités géométriques de la surface adhésive du stratifié. Cela peut mener à la surestimation de la contrainte à la rupture de la réparation. Pour finir, une analyse élastique-plastique a été conduite en utilisant les modèles de plasticité et d’endommagement par cisaillement déjà implémentés dans ABAQUS. Ces modèles de plasticité et d’endommagement ont été utilisés pour le film adhésif seulement. Le matériau composite a été supposé linéaire élastique jusqu’à la rupture. Le critère des déformations maximales a été utilisé pour prédire la rupture du premier pli dans le composite. Les prédictions obtenues avec le modèle et les résultats expérimentaux ont montré de très bonnes corrélations. / This master’s degree thesis focuses on testing and modeling the bonded scarf-stepped composite joint performance under uniaxial tensile loading as part of the effort to develop testing protocols and analytical tools for the design of scarf bonded repair for primary aeronautical composite structures. First, plain weave (PW) and 8-harness satin (8-HS) carbon fiber-reinforced plastic (CFRP) pre-preg composite materials were tested under uniaxial tensile loading at room temperature dry (RTD) and elevated temperature dry (ETD) conditions. The gathered characterization data was later used for the numerical modeling of the repairs. Furthermore, smoothed parent laminate bonding surface and stepped patch laminate bonding surface (scarf-stepped repairs were performed using both PW and 8-HS composite materials with matching quasi-isotropic ([+45°/0°/-45°/90°]2s) ply stacking sequence between the parent and the patch. The adhesive film that was used is the Cytec FM300-2M. The effects of environmental conditions and the influence of the scarf angle (i.e. 3˚, 5.5° and 7.5˚) on the performance of the bonded repairs were investigated. The tensile test results revealed that the scarf angle has a significant impact on the failure mode of the repaired composite part. While substrate failure occurred with a 3˚ scarf angle, cohesive shear failure was observed for the 5.5° and 7.5˚ angles. This change in failure mode is consistent both at RTD and ETD. When compared with the pristine laminate, an insignificant drop in stiffness was found regardless of the scarf angle. Although, increasing the scarf angle led to a significant drop in strength restitution in comparison with the pristine laminate. This indicates the importance of the scarf angle on the structural integrity of a scarf-step bonded repair. The tensile test results in ETD conditions suggest a slight decrease in stiffness and strength for both materials at ETD. Eventually, 2D through-thickness finiteelement analyses were also conducted using both ABAQUS Standard and Explicit. An elastic analysis was first performed to predict the distribution of normalized shear and peel stresses in the middle of the adhesive along the bondline for three different joint geometries (scarf-scarf, scarf-step and step-step). As opposed to the uniform stress distributions found along the bondline of the scarf-scarf configuration, high and frequent peaks of peal and shear stresses were found for both scarf-step and step-step configurations. These observations led to the conclusion that one must be particularly cautious when modeling a scarf joint bonded repair. Assuming that the patch laminate bonding surface is smoothed (i.e., scarf-scarf configuration) while it is actually stepped (i.e., scarf-step configuration) can lead to overestimating the overall repair strength since the high stress peaks caused by the geometric irregularities of the stepped patch laminate bonding surface would then be ignored. Furthermore, an elastic-plastic analysis was conducted using the already implemented plasticity and shear damage models in ABAQUS. These plasticity and damage models were used for the adhesive film only. The composite material was supposed to behave linear-elastically up to failure. The maximum strain criterion was used to predict the first ply failure in the composite. The predictions obtained with the model correlated very well with the experimental results.
|
405 |
Analyse de l'impact de la dépendance sur l'évaluation individuelle des réserves en assurances IARDTurcotte, Roxane 02 April 2024 (has links)
Dans ce mémoire, il sera question de la modélisation de réserve en assurances générales. Puisqu’une base de données provenant de l’industrie a été utilisée dans le cadre de ce projet, une attention particulière a été portée à des considérations pratiques. Encore aujourd’hui, les modèles appliqués en pratique sont souvent des modèles simples qui sont utilisés à cause de leur commodité. Par contre, de plus en plus de données sont disponibles et la possibilité d’en tirer profit est de plus en plus grande grâce à l’augmentation de la capacité computationnelle. Les méthodes classiques de provisionnement délaissent donc le potentiel de perfectionnement que permet le détail des données. Les modèles dits « individuels », dont il sera question dans ce projet, cherchent à expliquer la dynamique de l’évolution des sommes payées par réclamation. Ces modèles tirent parti des informations détaillées de chaque paiement pour modéliser la réserve du portefeuille. Il a été décidé de reprendre l’idée des facteurs de développement utilisés par Pigeon et al. (2013) qui sont inspirés de ceux de la méthode de Chain-Ladder. On considérera toutefois une loi multivariée construite par copule pour modéliser conjointement les variables de ce vecteur de développement plutôt qu’une loi normale multivariée asymétrique telle qu’utilisée dans l’article précédemment mentionné. On s’est également intéressé à la dépendance présente entre certaines composantes caractérisant la réclamation, comme le délai de déclaration (en années), le délai de premier paiement (en années) et le nombre de paiements.
|
406 |
Probabilistic design of wastewater treatment plantsTalebizadehsardari, Mansour 23 April 2018 (has links)
Dans cette étude, une méthode de conception probabiliste pour la conception d'usines de traitement des eaux usées (STEP) qui permet la quantification du degré de conformité aux normes de rejet en termes de probabilité a été proposée. La méthode de conception développée est une approche basée sur un modèle dans lequel les sources pertinentes d'incertitude sont exprimées en termes de fonctions de distribution de probabilité et leur effet combiné sur la distribution de la qualité de l'effluent sont quantifiés par simulation Monte Carlo. Pour ce faire, une série de conceptions en régime permanent avec différents niveaux de sécurité ont été générés en utilisant des règles de conception et la probabilité correspondante de non-conformité aux normes de rejet ont été calculés en utilisant des simulations dynamiques avec différentes réalisations de séries temporelles d'affluent et différentes valeurs pour les paramètres du modèle de station d'épuration. Pour générer différentes réalisations de séries temporelles d'affluent, un logiciel a été développé pour la génération de séries temporelles d'affluent tenant compte des conditions climatiques locales ainsi que les caractéristiques de base des réseaux d'égout connectés. En outre, différentes réalisations des paramètres du modèle de STEP ont été générés par l'échantillonnage des fonctions de distribution de probabilité et l'effet combiné de la variabilité de l'affluent et l'incertitude du modèle sur la distribution de la qualité des effluents a été calculé en exécutant un certain nombre de simulations Monte Carlo jusqu'à ce que la convergence de la distribution de la qualité des effluents a été atteinte. Une fois la convergence atteinte, la probabilité de non-respect d'une alternative de conception peut être calculée pour un certain niveau de qualité de l'effluent. La méthode de conception probabiliste peut aider les concepteurs à éviter l'application de facteurs de sécurité conservateurs qui pourraient entraîner un dimensionnement trop petit ou trop grand de stations d'épuration. En outre, le calcul de la probabilité de non-conformité comme un critère quantitatif peut aider les concepteurs et les décideurs à prendre une décision informée des risques en vue de la meilleure configuration de traitement, son dimensionnement, ainsi que le fonctionnement de l'usine pour la conception ou la mise à niveau des stations d'épuration. Mots-clés: usine de traitement des eaux usées, de conception dans l'incertitude, de la conception en fonction du risque, analyse de l'incertitude, probabilité de non-conformité. / In this study, a probabilistic design method for the design of wastewater treatment plants (WWTP) that enables the quantification of the degree of compliance to the effluent standards in terms of probability has been proposed. The developed design method is a model-based approach in which relevant sources of uncertainty are expressed in terms of probability distribution functions and their combined effect on the distribution of the effluent quality is quantified by Monte Carlo simulation. To do so, a set of steady-state designs with different levels of safety is first generated using a design guideline and then the corresponding probability of non-compliance (PONC) to the effluent standards is calculated using dynamic simulations under different realizations of influent time series and different values for the WWTP model parameters. To generate different realizations of the influent time series, a software tool was developed for synthetic generation of influent time series data considering the local climate conditions as well as basic characteristics of the connected sewershed. Moreover, different realizations of WWTP model parameters are generated by sampling from the probability distribution functions that are assigned to uncertain model parameters. The combined effect of influent variability and model uncertainty on the effluent distributions is calculated by running a certain number of Monte Carlo simulation runs until convergence of the effluent distribution is achieved. Once convergence is reached for the effluent distribution, the PONC for a design alternative can be calculated for a certain effluent standard. The probabilistic design method can help designers avoid the application of conservative safety factors that could result in over-or under-sizing of WWTPs. Moreover, calculating the probability of non-compliance as a quantitative criterion can help designers and decision makers make risk-informed decisions on the best treatment configuration, sizing, and plant operation during the design or upgrading of WWTPs. Keywords: Wastewater treatment plant, design under uncertainty, risk-informed design, uncertainty analysis, probability of non-compliance.
|
407 |
Modèle d'évaluation des performances d'une ligne de production d'une séquence de N produits distincts sur M machines avec (M-1) stocks tamponsHaddad, Samir 19 April 2018 (has links)
Dans ce mémoire on considère une ligne de production constituée de M machines et de (M-l) stocks tampons conçue pour traiter une séquence de N produits distincts. A chaque produit on associe un temps de mise en route et un temps de traitement sur chaque machine. Ces produits sont traités par lots de tailles connues. Les stocks tampons ont pour but de découpler les différentes machines dont la cadence varie d'un produit à l'autre. La capacité de chaque stock tampon est supposée connue. Un modèle de programmation a été utilisé pour déterminer la durée de traitement de la séquence. Un programme a été mis au point pour déduire les temps d'attente des produits de chaque lot sur chaque machine (famine, blocage et maintenance dans le cas de machines non fiables). Le modèle et programme développé permettent d'évaluer d'autres indicateurs de performances pour différents scénarii de production et de maintenance.
|
408 |
Network-based approaches for case-control studies diagnostic/investigationsNormand, Francis 13 December 2023 (has links)
Le présent document offre un survol de différentes méthodes employant une approche réseau afin d'identifier des anomalies au sein de réseaux cérébraux associés à un diagnostic dans le cadre d'études cas-témoins. Le cadre opérationnel employé compare les réseaux cérébraux d'individus portant un certain diagnostic associé à une condition du cerveau (cas) avec les réseaux cérébraux d'individus en "santé" (témoins). Chaque patient est représenté par un seul réseau cérébral. Les méthodes réseaux discutées peuvent opérer sur certaines propriétés observables dans les réseaux cérébraux. Le choix des propriétés à investiguer devrait être guidé par des hypothèses et des connaissances actuelles des moyens de communications dans le cerveau. À cet effet, une revue de quelques mesures possibles, et les raisons pour lesquelles celles-ci pourraient être pertinentes dans un contexte de réseaux cérébraux est donnée. Quatre méthodes seront présentées, soit le Permutation Network Framework (PNF), ANOVA, le contrast-subgraph et le Network-based statistic (NBS). Par ailleurs, une extension au NBS, appelée NBS-SNI (NBS-simultaneous node investigation) est proposée. Des résultats employant NBS et NBS-SNI appliqués à des données fonctionnelle associées à des études cas-témoins (ABIDE I (autisme), ADHD200 (trouble du déficit de l'attention et hyperactivité), une étude sur la schizophrénie et d'autres) seront présentés. En outre, les différences identifiées avec ces méthodes seront également employé avec NBS-predict afin de réaliser des prédictions (diagnostics) sur des réseaux cérébraux individuels. Entre autres, des performances de prédiction de 70% et 66% ont été obtenues sur l'entièreté des données provenant de ABIDE I et de l'étude ADHD200, respectivement. Les résultats obtenus sur les données ABIDE I ont été analysés plus en profondeur et comparés à ceux d'autres études. Les attributs employés contribuant le plus aux prédictions se révèlent sous forme de sous-réseaux plus fortement/faiblement connectés chez les individus atteints par la condition. Certaines caractéristiques retrouvées dans ces sous-réseaux semblent être cohérentes avec des résultats rapportés précédemment obtenus sur les mêmes données, ou portant sur le spectre l'autisme en général. Finalement, quelques opinions à propos de l'utilisation d'un formalisme réseaux en neuroscience sont offertes, ainsi que des directions et modifications possibles pour l'extension NBS-SNI dans le futur. / This document offers an overview of different methods employing a network-based approach to identify abnormalities in brain networks associated with a certain diagnostic in typical case-control studies. In these methods, networks associated to patients with a condition are compared against healthy control brain networks. Every patient is represented by a single brain network. The methods discussed operate on some property observed on these brain networks. The choice of a property to measure should be meaningful and related to the (thought to be) means of communication in the brain. A review of a few of these possible measurable properties such as centrality measures is included. Four known methods will be presented, namely, a Permutation Network Framework (PNF), the one-way ANOVA, contrast-subgraph and the Network-based statistic (NBS). In addition, a modification/extension to the NBS called the NBS-SNI (NBS-Simultaneous Node Investigation) will be proposed. Some results obtained using the NBS and the novel NBS-SNI methods on various functional datasets associated to case-control studies (such as ADHD200 (attention deficit hyperactivity disorder), ABIDE I (autism), a schizophrenia study and others) will be presented. Moreover, the differences identified between the two groups of brain networks (condition and control) will also be used to make predictions/diagnosis of individuals using NBS-predict (a prediction extension of NBS). For example, prediction accuracies of 70% and 66% were obtained on the complete ABIDE I and ADHD200 datasets, respectively. Also, the results obtained on the complete ABIDE I dataset were further investigated and compared with other work. The features, which manifest in the condition group as hyperconnected or hypoconnected subnetworks that contributed the most to the prediction performance yielded by NBS-predict were extracted. Some characteristics of these subnetworks seemed to be coherent with previously reported findings on the same dataset/condition. Finally, considerations about using network neuroscience in the context of case-control studies are given, along with future outlooks for the proposed NBS-SNI method.
|
409 |
Generalized Lorenz-Mie theory : application to scattering and resonances of photonic complexesGagnon, Denis 20 April 2018 (has links)
Les structures photoniques complexes permettent de façonner la propagation lumineuse à l’échelle de la longueur d’onde au moyen de processus de diffusion et d’interférence. Cette fonctionnalité à l’échelle nanoscopique ouvre la voie à de multiples applications, allant des communications optiques aux biosenseurs. Cette thèse porte principalement sur la modélisation numérique de structures photoniques complexes constituées d’arrangements bidimensionnels de cylindres diélectriques. Deux applications sont privilégiées, soit la conception de dispositifs basés sur des cristaux photoniques pour la manipulation de faisceaux, de même que la réalisation de sources lasers compactes basées sur des molécules photoniques. Ces structures optiques peuvent être analysées au moyen de la théorie de Lorenz-Mie généralisée, une méthode numérique permettant d’exploiter la symétrie cylindrique des diffuseurs sous-jacents. Cette dissertation débute par une description de la théorie de Lorenz-Mie généralisée, obtenue des équations de Maxwell de l’électromagnétisme. D’autres outils théoriques utiles sont également présentés, soit une nouvelle formulation des équations de Maxwell-Bloch pour la modélisation de milieux actifs appelée SALT (steady state ab initio laser theory). Une description sommaire des algorithmes d’optimisation dits métaheuristiques conclut le matériel introductif de la thèse. Nous présentons ensuite la conception et l’optimisation de dispositifs intégrés permettant la génération de faisceaux d’amplitude, de phase et de degré de polarisation contrôlés. Le problème d’optimisation combinatoire associé est solutionné numériquement au moyen de deux métaheuristiques, l’algorithme génétique et la recherche tabou. Une étude théorique des propriétés de micro-lasers basés sur des molécules photoniques – constituées d’un arrangement simple de cylindres actifs – est finalement présentée. En combinant la théorie de Lorenz-Mie et SALT, nous démontrons que les propriétés physiques de ces lasers, plus spécifiquement leur seuil, leur spectre et leur profil d’émission, peuvent être affectés de façon nontriviale par les paramètres du milieu actif sous-jacent. Cette conclusion est hors d’atteinte de l’approche établie qui consiste à calculer les étatsméta-stables de l’équation de Helmholtz et leur facteur de qualité. Une perspective sur la modélisation de milieux photoniques désordonnés conclut cette dissertation. / Complex photonic media mold the flow of light at the wavelength scale using multiple scattering and interference effects. This functionality at the nano-scale level paves the way for various applications, ranging from optical communications to biosensing. This thesis is mainly concerned with the numerical modeling of photonic complexes based on twodimensional arrays of cylindrical scatterers. Two applications are considered, namely the use of photonic-crystal-like devices for the design of integrated beam shaping elements, as well as active photonic molecules for the realization of compact laser sources. These photonic structures can be readily analyzed using the 2D Generalized Lorenz-Mie theory (2D-GLMT), a numerical scheme which exploits the symmetry of the underlying cylindrical structures. We begin this thesis by presenting the electromagnetic theory behind 2D-GLMT.Other useful frameworks are also presented, including a recently formulated stationary version of theMaxwell-Bloch equations called steady-state ab initio laser theory (SALT).Metaheuristics, optimization algorithms based on empirical rules for exploring large solution spaces, are also discussed. After laying down the theoretical content, we proceed to the design and optimization of beam shaping devices based on engineered photonic-crystal-like structures. The combinatorial optimization problem associated to beam shaping is tackled using the genetic algorithm (GA) as well as tabu search (TS). Our results show the possibility to design integrated beam shapers tailored for the control of the amplitude, phase and polarization profile of the output beam. A theoretical and numerical study of the lasing characteristics of photonic molecules – composed of a few coupled optically active cylinders – is also presented. Using a combination of 2D-GLMT and SALT, it is shown that the physical properties of photonic molecule lasers, specifically their threshold, spectrum and emission profile, can be significantly affected by the underlying gain medium parameters. These findings are out of reach of the established approach of computing the meta-stable states of the Helmholtz equation and their quality factor. This dissertation is concluded with a research outlook concerning themodeling of disordered photonicmedia.
|
410 |
Gestion de l'entreposage d'une entreprise agricole : cartographie, modélisation et optimisationMourdi, Khaoula 27 January 2024 (has links)
Ce mémoire discute du problème de la gestion de l'entreposage dans le deuxième plus grand entrepôt d'une compagnie québécoise œuvrant dans le domaine agricole. L'entreposage fait face à une saisonnalité de la demande concentrée durant 3 à 4 mois de chaque année. Cette concentration de la demande cause des pertes au niveau de l'efficacité des opérations de stockage de l'entrepôt qui devient surchargé. En addition, les produits sont entreposés dans des emballages différents et sont quantifiés dans des unités différentes, ce qui rend le problème de la gestion de l'entreposage plus complexe. Afin d'analyser la situation et de résoudre le problème, on commence par déterminer la capacité de cet entrepôt. Ensuite, on analyse les besoins en entreposage en palette pour finalement proposer et résoudre un problème d'assignation des produits aux espaces d'entreposage (Storage Location Assignment Problem SLAP). L'élaboration de ce travail commence par une présentation de l'entreprise ainsi qu'une présentation détaillée de la problématique. Nous avons par la suite présenté une revue de littérature des articles traitant du problème étudié. On effectue ensuite une analyse détaillée et complète de la capacité théorique de l'entrepôt en étude. Cette étape est suivie par une présentation des étapes de l'évaluation des besoins d'entreposage en palettes. Ensuite, on propose le modèle pour résoudre le problème du Storage Location Assigement Problem ; ce modèle minimise les pertes d'espaces dans les palettiers, le nombre de palettes cachées sur le plancher et le nombre de palettes non assignées. On étudie la performance du modèle sous l'effet du changement de la concentration des produits, de la configuration de l'entrepôt, des types de palettes et des types d'alvéoles. On achève ce travail par une conclusion, des recommandations et des orientations futures du problème. / This master thesis discusses the problem of storage management in the second largest warehouse of a Quebec company working in the agricultural industry. Warehousing faces a seasonality of demand concentrated during 3 to 4 months of each year. This concentration of demand causes losses in the efficiency of warehouse storage operations, which become overloaded. In addition, the products are stored in different packages and are quantified in different units, which makes the warehouse management problem more complex. In order to analyze the situation and solve the problem, we start by determining the capacity of this warehouse. Then, we analyze the inventory needs and we finally propose and solve a problem of Storage Location Assignment Problem (SLAP). We start with a presentation of our industrial partner and a detailed presentation of the problem. We then present a literature review of the articles dealing with the studied problem. Next, a detailed and comprehensive analysis of the theoretical capacity of the warehouse under study is performed. This step is followed by the inventory needs analysis where the process of the pallet storage needs assessment is presented. Next, a mathematical model is proposed to solve the Storage Location Assignment Problem (SLAP); this model minimizes the loss of pallet space in the warehouse racks, the number of hidden pallets on the floor and the number of unassigned pallets. We study the performance of the model under changing product demand concentration, warehouse configuration, pallet types and product types. We end with a conclusion and future directions for this problem.
|
Page generated in 0.1014 seconds