• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Modélisation de réclamations en assurance générale avec gradient boosting et dépendance

Power, Justine 20 December 2021 (has links)
En assurance générale, la prévision des réclamations est d'une importance capitale. Une modélisation précise des pertes futures permet aux assureurs d'offrir des prix compétitifs, de cibler les assurés les plus profitables et de conserver leur solidité financière. Le domaine de l'assurance étant en constante évolution, les actuaires doivent trouver des moyens de raffiner leurs modèles prédictifs. Dans ce mémoire, on propose un modèle hiérarchique qui améliore les modèles classiques sur deux aspects. D'abord, on considère la dépendance entre les occurrences de paiements sous différentes couvertures avec une distribution multinomiale, et entre les montants payés à l'aide de copules. Ensuite, on choisit XGBoost, une implémentation populaire du gradient boosting, pour effectuer des prévisions avec des variables explicatives, alors que la plupart des modèles actuariels utilisent les modèles linéaires généralisés. La méthode est illustrée sur un jeu de données de réclamations en assurance auto fourni par une grande compagnie d'assurance canadienne. Le nombre important d'observations et de variables explicatives justifient l'utilisation de XGBoost, qui est particulièrement efficace avec de gros jeux de données. La structure des données motive divers aspects du modèle lui procurant une flexibilité, notamment en permettant à la combinaison de couvertures payées pour une même réclamation d'influencer les relations de dépendance. Pour l'inférence sur les copules, on utilise les méthodes basées sur les rangs. Puisque la validité des estimateurs basés sur les rangs de résidus de XGBoost n'a pas été montrée dans la littérature, on étudie leur performance par simulation. On applique notre modèle sur des données test et en comparant les résultats avec ceux d'un modèle supposant l'indépendance, on remarque que notre modèle permet d'obtenir une meilleure segmentation des assurés, en plus de répliquer de manière plus adéquate la stochasticité globale des données. / In general insurance, predicting future claims is of prime importance. A precise claim modeling allows insurers to offer the best prices possible, to target the most profitable policies and to remain financially sound. As insurance evolves constantly, one of the main challenges for actuaries is to find ways to refine their models. The goal of this thesis is to propose a hierarchical claim model that improves classical methods on two levels. First, we consider dependence between occurrences of payment for different coverages with a multinomial distribution, and between paid amounts using copulas. Second, to perform prediction with covariates, we choose XGBoost, a popular implementation of gradient boosting, while most of the actuarial models in the literature use generalized linear models. We fit our model on an auto insurance dataset from a Canadian insurer. The use of XGBoost, that is particularly well suited for large datasets, is justified by the large number of observations and covariates available. The structure of our data motivates several components of our model that add flexibility, by allowing the combination of coverages paid on a claim to have an effect on the dependence relationships. We use rank-based methods for copula inference since they offer many benefits. The validity of the methods based on ranks of gradient boosting residuals has not been demonstrated, so we assess this with simulations. We show some applications of our model and compare it with an independence model. Results suggest that with the added dependence components of our model, we achieve a better segmentation of the insureds portfolio and replicate the global stochasticity of the data more accurately.
352

Developing sustainable simulation software for biophotonics

Bégin, Ludovick 19 March 2023 (has links)
L'objectif de ce mémoire est de développer des logiciels de simulation durables pour les chercheurs en biophotonique. En raison de l'absence de solutions logicielles adaptées aux applications biophotoniques, les chercheurs doivent consacrer beaucoup de temps soit à l'apprentissage de logiciels commerciaux complexes, souvent coûteux et difficiles à modifier, soit au développement de leur propre logiciel. Dans ce dernier cas, le produit est souvent difficile à entretenir ou à utiliser par d'autres chercheurs en raison de l'absence de bonnes pratiques de développement logiciel, comme les tests unitaires et la séparation des responsabilités, ce qui n'est pas prévu dans le programme d'études en biophotonique. En mettant l'accent sur la conception et l'architecture logicielle, ce travail présente comment des solutions de simulation extensibles et maintenables ont été développées en Python pour permettre de simuler facilement la propagation de la lumière dans les tissus et améliorer la qualité d'image d'un système d'imagerie. Un module PyTissueOptics est d'abord développé avec une librarie graphique 3D indépendante pour prendre en charge la propagation de la lumière selon la méthode de Monte Carlo dans des tissus et des environnements 3D complexes. Un module Polarization est ensuite développé pour simuler la propagation de la lumière polarisée dans les composants optiques et les tissus biréfringents. Ce module est ensuite utilisé pour générer des données synthétiques de tomographie à cohérence optique sensible à la polarisation (PS-OCT). Enfin, ces données synthétiques sont utilisées pour entraîner un nouveau modèle d'apprentissage profond, CLNet, afin de nettoyer les tomogrammes PS-OCT et d'obtenir une meilleure qualité d'image. / The goal of this memoir is to develop sustainable simulation software for biophotonics researchers. The lack of good and tailored software solutions for biophotonics applications results in researchers having to take a lot of time to either learn complex commercial software, which is also often expensive and hard to modify, or develop their own software. The latter often yields a product that is hard to maintain or use by other researchers because of a lack of good software development practices, like unit testing and separation of concerns, which is not included in the biophotonics curriculum. With a focus on software design and architecture, this work presents how extensible and maintainable simulation solutions were developed in Python to allow easy simulation of light propagation in tissues and improve the image quality of an imaging system. A PyTissueOptics module is first developed along with an independent 3D graphics framework to support Monte Carlo light propagation in complex 3D tissues and environments. A Polarization module is then developed to simulate polarized light propagation in optical components and birefringent tissues. This module is then used to generate synthetic data of polarization-sensitive optical coherence tomography (PS-OCT). Finally, this synthetic data is used to train a novel deep learning model, CLNet, to clean PS-OCT tomograms and yield an improved image quality.
353

Dynamique forme/lumière : exploration du processus de création de l'espace architectural par modèles maquettes/images

Biron, Karole 13 April 2018 (has links)
L’acte de création est un moment privilégié lors du processus de conception architecturale et artistique. Vu comme une exploration, il offre une grande liberté de réflexion et d’action. C’est entre autres le lieu et le temps de l’imagination, de l’expérimentation matérielle, du développement conceptuel, de la construction de ce qui sera perçu. C’est un moment d’effervescence où l’on manipule intuitivement autant que l’on nomme intellectuellement. Pour les arts de l’espace, de multiples facteurs sont à considérer dès le début du processus. Formes, couleurs, tailles, emplacements et nombre, en sont quelques exemples. Au-delà de chacun de ces paramètres, l’espace, scène de l’ensemble de leurs interactions, devient un objet de création en soi. La recherche s’intéresse particulièrement à la relation spatiale et perceptuelle entre la lumière et l’objet, deux éléments se complétant et se modifiant de multiples façons, dont le potentiel esthétique est évident. Elle propose de réinitialiser le processus de création, par des manipulations simples et directes avec la matière, à travers une expérimentation en maquettes et en images photographiques, deux médiums familiers des architectes. Ces interventions minimales présentent à la fois une grande richesse de relations spatiales et de nombreuses informations sur les ambiances lumineuses. La recherche tente de circonscrire un vocabulaire des principaux paramètres de l’objet et de la lumière, conduisant à l’élaboration d’une méthode d’analyse pouvant aider architectes et artistes dans leurs explorations. Des notions, principes et qualificatifs sur l’espace, la forme, la lumière et la perception, servent à construire les tableaux d’analyse appliqués aux images de l’expérimentation en maquettes et à mettre en relief les éléments les plus actifs visuellement. Ce processus vise principalement à stimuler l’imagination et la créativité en architecture. / The act of creation is a privileged moment at the time of its artistic and architectural process. It is, among other things, the time and place for imagination, for experimentation with matter, for conceptual development and for the construction of what is perceived. It is a moment of enthusiasm and effervescence when we instinctively manipulate as well as conceive intellectually. As for the «Art of space», multiple factors are to be considered from the origin of its process such as, shapes, colours, sizes and positioning. Beyond each of these parameters, space, scene of its multiple interactions, becomes a creation in itself. This research particularly leans on the spatial and perceptual relation between objects and light, two elements completing and modifying each other in various ways, whereas its esthetic potential is obvious. It suggests the resetting of the creative process by direct and simple manipulations with matter, through miniature tryouts and photographic images, two familiar media of architectural practice. These minimal interventions simultaneously present a richness in spatial relations as well as information on luminous surroundings. The research proposes the circumscription of a vocabulary of the main parameters linking objects with light, leading to the elaboration of a method of creation and analysis to assist architects and artists in their creative explorations. The theoretical framework releases notions, principles and terms related to space, form, light and perception, assisting in the construction of physical models to visualize and control aspects of the invention. An exploration of a series of parameters of objects and lighting complete the research in order to stimulate the imagination and creativity in architecture.
354

Méta-analyse du biais hypothétique dans l'évaluation des consentements à payer et répartition des marges dans la filière des oeufs

Atozou, Baoubadi 09 October 2018 (has links)
Cette thèse cherche d’une part à réévaluer à travers une méta-analyse, la compréhension du biais hypothétique en mettant en évidence l’impact des nouvelles techniques de calibration notamment la perception de la conséquence sur l’ampleur du biais hypothétique dans les études d’évaluation des consentements à payer (CAP) des biens publics et privés avec les méthodes déclaratives et d’autre part à examiner les pouvoirs de négociation des producteurs, des classificateurs et des détaillants dans la chaine de valeur des oeufs de spécialité au Canada. Elle est répartie en trois chapitres : Le premier chapitre a pour objectif (i) d’actualiser les résultats des méta-analyses du biais hypothétique (List et Gallet 2001, Little et Berrens 2004, Murphy et al. 2005) en prenant en compte les nouvelles techniques de calibration et les nouvelles études d’évaluations économiques des biens publics et privés ; et (ii) de proposer une nouvelle approche économétrique, le modèle de méta-régression hiérarchique à effets mixtes (MMRHEM) qui est potentiellement plus performante dans l’explication de la variance du facteur du biais hypothétique. En effet, la dernière méta-analyse d’envergure date de 2005. Or la littérature s’est grandement bonifiée depuis, d’où l’objet de ce chapitre. Les résultats montrent que les répondants surestiment de plus de deux fois leurs CAP avec les méthodes déclaratives. L’analyse empirique montre que les modèles de MRHEM sont plus performants que les modèles log-linéaire. Les résultats révèlent d’une manière générale que l’utilisation des techniques de calibration et des mécanismes incitatifs contribue à améliorer de manière significative la qualité des estimations des CAP avec des méthodes déclaratives. Cependant, les effets de ces facteurs diffèrent selon le type de bien. Suivant les résultats du premier chapitre, il ressort qu’il est nécessaire de traiter le bien privé différemment du bien public. Ce chapitre 2 examine à travers une méta-analyse l’impact des techniques de calibration et en particulier la perception de la conséquence sur le biais hypothétique d’une part dans les études d’évaluation des CAP pour des biens privés et d’autre part dans l’évaluation économique des biens environnementaux, écologiques, de conservation des écosystèmes, de services sociaux et d’autres biens publics. 44 études d’évaluation portant sur des biens privés et 43 études portant sur les biens publics ont été utilisées pour construire les bases de données respectives de 227 et 235 observations. Le ratio du CAP hypothétique et du CAP réel est en moyenne de 2.14 pour les biens privés et de 2.09 pour les biens publics et le ratio médian est respectivement 1.41 et 1.39. Les modèles économétriques MRHEM ont été estimés selon l’approche de maximum de vraisemblance et l’approche bayésienne d’échantillonnage de Gibbs. Les résultats suggèrent que les techniques de calibration : la correction de certitude, le cheap talk, l’honnêteté, et la perception de conséquence réduisent significativement le biais hypothétique. Dans le cas des biens publics, les résultats indiquent que plus la probabilité de perception de conséquence est élevée dans le design expérimental, plus la fiabilité des estimations des préférences des répondants avec des méthodes déclaratives est améliorée. La perception de conséquence est plus efficace avec les mécanismes de choix dichotomique et de référendum. Les résultats suggèrent également que l’évaluation économique des biens environnementaux conduit à un plus grand biais que dans l’évaluation des services publics. Pour les biens privés, les résultats révèlent que la correction de certitude est adéquate avec le mécanisme de choix dichotomique tandis que le cheap talk est plus adéquat avec les mécanismes d’enchère Vickrey, de choix dichotomique multiple pour réduire le biais hypothétique. Le chapitre 3 évalue les pouvoirs de négociation des producteurs, des classificateurs et des détaillants dans les mécanismes de fixation de prix tout au long de la chaine de valeur des oeufs de spécialité et d’en déterminer le maillon qui bénéficie le plus de la diversification des oeufs de table au Canada. Un modèle théorique de monopole bilatéral d’ajustement des prix est développé en intégrant les incertitudes des marchés. Le modèle a été estimé empiriquement en utilisant le test borné de cointégration du modèle autoregressive distributted lags (ARDL) et les modèles de panel hétérogènes non stationnaires (ARDL-Pool means groups, ARDL-means groups et ARDL-effets fixes) sur les données mensuelles de janvier 2009 à juin 2017 des oeufs de poule en liberté et des oeufs oméga 3 dans cinq provinces du Canada : Québec, Ontario, Alberta, Saskatchewan et Colombie-Britannique. Les résultats montrent que le pouvoir de négociation des détaillants est supérieur au pouvoir des producteurs dans chaque province et pour chacun des marchés. Les producteurs bénéficient moins de la production des oeufs de spécialité que les détaillants. / This thesis seeks, on the one hand, to reassess, through a meta-analysis, the body of knowledge on hypothetical bias in light the impact of mitigation techniques, notably the perceived consequence on the hypothetical bias in estimating the willingness to pay (WTP) for private and public goods with stated preference methods; and examining on the other hand, the bargaining power of producers, classifiers and retailers in the specialty egg value chain in Canada. It is divided into three chapters: The first chapter aims to (i) update the meta-analyzes of hypothetical bias (List and Gallet 2001, Little and Berrens 2004, Murphy et al., 2005) taking into account the new calibration techniques and the new economic valuation studies of public and private goods; and (ii) propose a new econometric approach, the Mixed Effects Hierarchical Meta-Regression Model (MRHEM) that is potentially more efficient in explaining the variance of hypothetical bias factor. In fact, the last major meta-analysis was in 2005. However, the literature has greatly improved since then, hence the purpose of this paper. The results show that respondents overestimate their CAPs more than twice with the declarative methods. Empirical analysis shows that MRHEM models perform better than log-linear models. The results generally reveal that the use of calibration techniques and incentive compatible mechanisms significantly improves the quality of WTP estimation with declarative methods. Nevertheless, the effects of these factors differ depending on the type of good. According to the first chapter’ results, it appears that it is necessary to treat the private good differently from the public good. This Chapter 2 examines through a meta-analysis the impact of calibration techniques and specially the perceived consequence on the hypothetical bias on the one hand, in valuation studies of private goods, and, on the other hand in the economic valuation of environmental, ecological, ecosystem conservation, social services and other public goods. 44 private goods valuation studies and 43 public goods studies were used to construct the respective databases of 227 and 235 observations. Results show an average ratio of hypothetical on real WTP of 2.14 for private goods and 2.09 for public goods, while the median ratio is 1.41 and 1.39, respectively. This differs from previous results where hypothetical bias was found to be smaller for private goods. The MRHEM econometric models were estimated using the maximum likelihood approach and the Bayes Gibbs sampling’ approach. Results indicate that certainty correction, cheap talk, honesty, and perceived consequence are effective at reducing hypothetical bias. In the case of public goods, the results show that the higher the probability of consequence perception in experimental design, the better the reliability of estimates of respondents' preferences with declarative methods. Moreover, taking into account consequentiality in dichotomous choice mechanisms as well as in referendum mechanisms reduces significantly the hypothetical bias in public good assessments. Results also indicate that environmental goods valuation leads to a higher bias than public services valuation. For private goods, the results highlight that the certainty correction technic is adequate with the dichotomous choice mechanism while the cheap talk technic is most adequate with Vickrey auction and multiple discrete choice mechanisms to reduce the hypothetical bias. Chapter 3 assesses the bargaining power of producers, classifiers and retailers in pricing mechanisms in the specialty egg value chain and identifies the link that benefits most from the diversification of table eggs. in Canada. A theoretical model of a bilateral monopoly price adjustment is developed by integrating market uncertainties. The model was empirically estimated using the cointegration test of the autoregressive distributed-lags model (ARDL) and the non-stationary heterogeneous panel models (ARDL-Pool means groups, ARDL-means groups and ARDL-fixed effects) on free range chicken and omega 3 eggs’ monthly data, from January 2009 to June 2017 of five Canadian provinces: Quebec, Ontario, Alberta, Saskatchewan and British Columbia. Results show that the bargaining power of retailers is greater than the power of producers in each province and for each market. Producers benefit less from specialty egg production than retailers.
355

Industrie 4.0 : ordonnancement intelligent d'une cellule robotisée de soudage

Kone, Aminata 18 January 2023 (has links)
Dans ce mémoire, nous concevons un plan d'ordonnancement de la production dans un contexte d'industrie 4.0. L'environnement de travail est un atelier de soudure doté de trois stations pour le chargement et le déchargement des pièces, d'un robot de transport, d'un robot positionneur, de deux robots soudeurs et de gabarits sur lesquels sont montées les pièces. Dans un souci de construction de modèles reflétant la réalité de l'usine de production, des caractéristiques et des contraintes ont été considérées. Il s'agit entre autres des caractéristiques liées au type et aux temps de changement de gabarit, des contraintes d'entreposage, de ressources matérielles limitées (machines) et de recirculation. Le problème considéré est un problème de job shop flexible dont l'objectif est de minimiser la durée totale des opérations. Différentes variantes de la méthode exacte basée sur la programmation linéaire mixte en nombres entiers sont présentées. Ces méthodes sont de deux catégories à savoir les méthodes en une étape de résolution et les méthodes en deux étapes de résolution. La comparaison de ces différentes méthodes proposées montre que les méthodes en une étape de résolution offrent les meilleures valeurs de la fonction objectif mais sont plus lents dans la résolution tandis que les méthodes en deux étapes de résolution sont plus rapides dans la résolution mais n'ont pas les meilleures valeurs de la fonction objectif. / In this master's thesis, we design a production scheduling plan in an Industry 4.0 context. The working environment is a welding shop with three stations for loading and unloading parts, a transport robot, a positioner robot, two welding robots and jigs on which parts are mounted. In order to build models that reflect the reality of the production plant, additional characteristics and constraints were considered. These include characteristics related to the type and duration of jig change, constraints of storage, limited material resources (machines) and recirculation. The problem considered is a flexible job shop problem with the objective to minimize the total execution time (the makespan). Different variants of the exact method based on mixed integer linear programming are presented. These methods are of two categories, namely the one-step and the two-step methods. The comparison of these different proposed methods shows that the one-step method yields the best objective function values but requires relatively long computing times while the two-step method is faster but does not give the best objective function values.
356

Modélisation du pressage à chaud des panneaux de fibres de bois (MDF) par la méthode des éléments finis

Vidal Bastías, Marcia 12 April 2018 (has links)
Cette étude porte sur le développement d’un modèle mathématique-physique permettant de modéliser le pressage à chaud des panneaux de fibres de bois (MDF) pour les procédés en lot et en continu. Le système final est composé de trois équations différentielles : une pour la conservation de gaz, une pour la conservation de la vapeur d’eau et une pour la conservation d’énergie. On a introduit un terme de diffusion de la vapeur d’eau qui n’était pas considéré auparavant. Les variables d’état prédites sont la température, la pression gazeuse et la teneur en humidité. Le système d’équations a été résolu par la méthode des éléments finis en employant le logiciel MEF++ développé au GIREF à l’Université Laval. Les conditions aux limites utilisées durant la simulation sont du type Neumann non linéaire ou du type Dirichlet selon le type de pressage simulé. Afin de valider les résultats numériques en 2-D et 3-D donnés par ce modèle, on les a comparés avec les données obtenues d’un procédé en lot au laboratoire et en continu dans une industrie. À cet effet, des panneaux MDF d’épinette noire (Picea mariana (Mill.) BPS) ont été fabriqués et des mesures de température ont été prises à l’aide des thermocouples à la surface et au centre de l’ébauche. La pression gazeuse a aussi été déterminée lors du pressage à chaud avec une sonde de pression introduite à l’intérieur de l’ébauche. De plus, pour évaluer la teneur en humidité, sept modèles de sorption ont été extrapolés et comparés aux valeurs expérimentales provenant de la littérature. Le modèle de Malmquist donne la meilleure correspondance pour les humidités relatives considérées et a donc été utilisé. Les résultats numériques indiquent que la température, la teneur en humidité et la pression gazeuse prédites sont en accord avec les résultats expérimentaux pour les deux types de pressage considérés sans utiliser un facteur d’ajustement. On a conclu que le modèle mathématique-physique et la méthode des éléments finis ont un grand potentiel pour résoudre ce type de problème et aider ainsi à maîtriser la qualité des produits et les pertes lors de la fabrication. Il est fortement recommandé d’approfondir la recherche sur les valeurs des paramètres physiques impliqués dans ce procédé. / This study describes a mathematical-physical model to predict temperature, gas pressure and moisture content during MDF hot pressing in batch and continuous processes. The final system is composed of three differential equations: gas conservation, water vapor conservation and energy conservation. This model introduced the moisture diffusion term which was not considered in the basis model. The system of equations was solved by the finite element method using the MEF++ software developed by the GIREF at Laval University. The boundary conditions used during simulation are of the Neumann or Dirichlet type depending on the process considered. In order to validate the numerical results in 2-D and 3-D, we compared them with experimental data obtained from the batch process in the pressing laboratory and from the continuous process in an industry. For this purpose, MDF panels of black spruce (Picea mariana (Mill.) BPS) were manufactured and temperature measurements made using thermocouples on the surface and the center of the mat. The gas pressure was also measured using a pressure probe located inside the mat. Moreover, in order to evaluate moisture content, seven sorption models were extrapolated and compared with experimental values from the literature. The Malmquist model gives the best correspondence for the relative humidities considered and was therefore used. The numerical results indicate that the predicted temperature, moisture content and gas pressure are in agreement with experimental results for the two processes considered without using an adjustment factor. We concluded that the mathematical-physical model and the finite element method have a great potential to solve this type of problem to control the quality of panels and the losses during manufacturing. It is strongly recommended to look further into research on the values of the physical parameters involved in this process.
357

Development and implementation of a computer-aided method for planning resident shifts in a hospital

Kreeft, Daniel 18 April 2018 (has links)
Ce mémoire propose une formulation pour le problème de confection d'horaire pour résidents, un problème peu étudiée dans la litérature. Les services hospitaliers mentionnés dans ce mémoire sont le service de pédiatrie du CHUL (Centre Hospitalier de l'Université Laval) et le service des urgences de l'Hôpital Enfant-Jésus à Québec. La contribution principale de ce mémoîre est la proposition d'un cadre d'analyse pour l’analyse de techniques manuelles utilisées dans des problèmes de confection d'horaires, souvent décrits comme des problèmes d'optimisation très complexes. Nous montrons qu'il est possible d'utiliser des techniques manuelles pour établir un ensemble réduit de contraintes sur lequel la recherche d’optimisation va se focaliser. Les techniques utilisées peuvent varier d’un horaire à l’autre et vont déterminer la qualité finale de l’horaire. La qualité d’un horaire est influencée par les choix qu’un planificateur fait dans l’utilisation de techniques spécifiques; cette technique reflète alors la perception du planificateur de la notion qualité de l’horaire. Le cadre d’analyse montre qu'un planificateur est capable de sélectionner un ensemble réduit de contraintes, lui permettant d’obtenir des horaires de très bonne qualité. Le fait que l'approche du planificateur est efficace devient clair lorsque ses horaires sont comparés aux solutions heuristiques. Pour ce faire, nous avons transposées les techniques manuelles en un algorithme afin de comparer les résultats avec les solutions manuelles. Mots clés: Confection d’horaires, Confection d’horaires pour résidents, Creation manuelle d’horaires, Heuristiques de confection d’horaires, Méthodes de recherche locale / This thesis provides a problem formulation for the resident scheduling problem, a problem on which very little research has been done. The hospital departments mentioned in this thesis are the paediatrics department of the CHUL (Centre Hospitalier de l’Université Laval) and the emergency department of the Hôpital Enfant-Jésus in Québec City. The main contribution of this thesis is the proposal of a framework for the analysis of manual techniques used in scheduling problems, often described as highly constrained optimisation problems. We show that it is possible to use manual scheduling techniques to establish a reduced set of constraints to focus the search on. The techniques used can differ from one schedule type to another and will determine the quality of the final solution. Since a scheduler manually makes the schedule, the techniques used reflect the scheduler’s notion of schedule quality. The framework shows that a scheduler is capable of selecting a reduced set of constraints, producing manual schedules that often are of very high quality. The fact that a scheduler’s approach is efficient becomes clear when his schedules are compared to heuristics solutions. We therefore translated the manual techniques into an algorithm so that the scheduler’s notion of schedule quality was used for the local search and show the results that were obtained. Key words: Timetable scheduling, Resident scheduling, Manual scheduling, Heuristic schedule generation, Local search methods
358

Modélisation électrophysiologique et biochimique d'un neurone : CA1 cellule de l'hippocampe

Osseni, Mazid Abiodoun 23 April 2018 (has links)
Ce mémoire présente une nouvelle approche pour la réalisation de modèles biophysiques de neurone. Dans un premier temps, nous avons développé un modèle électrique compartimental selon le formalisme de Hodgkin-Huxley avec le logiciel NEURON. En second lieu, nous avons procédé à la réalisation de la modélisation biochimique avec des systèmes d’équations différentielles représentant des réactions d’action de masse et des réactions enzymatiques. La modélisation biochimique se fait tant dans un modèle par compartiments avec des équations différentielles ordinaires que dans un modèle spatial avec des équations différentielles partielles. VCell nous a permis de réaliser ce type de modélisation. Le modèle hybride développé présente deux points de jonction entre les formalismes des modèles électrique et biochimique pris indépendemment. Au premier point de jonction, les courants calciques calculés avec les équations de type Hodgkin-Huxley sont convertis en concentration d’ions de calcium. Ce calcium est un messager secondaire pour de nombreuses voies de signalisation cellulaire. Une élévation de la concentration de calcium modifie la dynamique des réactions biochimiques. Le deuxième point de jonction est l’impact de l’activité de kinases sur les propriétés électriques de canaux ioniques. Par la phosphorylation, certaines kinases viennent moduler la réponse électrique du neurone. En intégrant tous ces effets biophysiques et biochimiques dans une même méthodologie de modélisation, nous pouvons modéliser des processus cellulaires complexes dans les neurones. Le cross-talk synaptique est un phénomène physiologique observé, qui consiste en une augmentation de l’excitabilité membranaire suite à l’interaction entre les signaux électrique et biochimique et une communication entre les épines dendritiques du neurone. Cette interaction représente un excellent cas d’étude pour développer et valider notre méthodologie. Cette méthodologie porte sur l’interaction entre le calcium, la MAPK et les canaux KV4.2. Le calcium vient activer la MAPK par l’intermédiaire de différentes molécules. La MAPK vient ensuite phosphoryler les canaux KV4.2 qui sont possiblement responsables d’une augmentation observée de l’excitabilité membranaire. / This master’s thesis presents a new modeling technique for biophysical models of individual neurons that integrates their electrical and biochemical behaviors. First of all, we developped an electrical compartmental model. This model is based on the Hodgkin-Huxley formalism and developped in NEURON, a modeling software tool for neuroscience. Then, we developped a biochemical model. This second model is a system of differential equations based on mass action reations and enzymatic reactions. We implemented two versions of this model, one as a compartmental model with ordinary differential equations (ODE) and the other as a spatial model with partial differential equations (PDE). We used the software tool VCell for the biochemical modeling. The hybrid model combining the electrical and biochemical behaviors has two connection points between the electrical and biochemical models. At the first junction, the calcium curents calculated by the Hodgkin-Huxley equations are converted into a concentration of calcium ions. This calcium is a secondary messenger for numerous cellular signaling pathways and a rise of the calcium concentration modifies the biochemical reaction dynamic. The second junction is the kinases activity on the ionic channel electrical properties. Through phosphorylation, the kinases modulate the electrical response of the neuron. By integrating all these biophysical and biochemical effects in the same methodology, we can build a complex cellular process models. The synaptic crosstalk is a physiological event which leads to a local increase of the membrane excitability that is due to the interaction between electrical and biochemical signals. This interaction represents an excellent case study for the development and the validation of our methodology. Our model includes the regulation of calcium, MAPK the channel KV4.2.
359

Gestion des eaux pluviales : qualité des eaux et contrôle en temps réel

Paré-Bourque, Marie 16 April 2018 (has links)
L'objectif de ce projet est d'intégrer le concept de gestion des eaux pluviales avec le contrôle en temps réel afin de réduire l'impact de ces eaux sur les cours d'eau urbains. Il s'agit d'effectuer la gestion des eaux pluviales d'un bassin versant typiquement urbain, en fonction des prévisions météorologiques, au niveau d'un bassin d'orage, muni d'une vanne à son exutoire, afin d'augmenter le temps de rétention des eaux et ainsi augmenter la sédimentation. Après modélisation de la qualité et quantité des eaux et l'élaboration de règles de contrôle, le contrôle en temps réel s'est avéré être une solution efficace afin d'augmenter la sédimentation des matières en suspension dans le bassin de rétention. Dans tous les cas étudiés, le bassin contrôlé offrait une efficacité de sédimentation supérieure à celle du bassin traditionnel contrôlé par un ouvrage statique, tel un orifice. Le contrôle en temps réel a démontré qu'il augmentait la sédimentation des particules fines, sur lesquelles la majorité des polluants s'adsorbent. La modélisation des matières en suspension, à l'entrée et à la sortie du bassin de rétention, a permis de démontrer l'efficacité de cette solution en quantifiant les charges à ces endroits. Dans tous les cas, la quantité de MES sédimentées était au moins 2 fois plus importante que la quantité sédimentée dans un bassin non-contrôlé. Dans les meilleurs cas, la quantité sédimentée a été de 10 à 25 fois plus importante avec le bassin contrôlé. Sur une période mensuelle, le bassin contrôlé a rejeté au maximum 14,78 kg des 650 kg de MES qui ont été lessivés dans tous les scénarios étudiés. Dans le cas de simulations estivales, des 3 000 kg de MES lessivés en moyenne par saison, pour tous les scénarios, un maximum de 16,59 kg a été rejeté au milieu récepteur. La solution proposée permet donc de réduire considérablement les charges en polluants rejetés, ce qui permet de croire que son intégration, dans la gestion des eaux pluviales, permettrait d'améliorer significativement la qualité des eaux des cours d'eau urbains.
360

The design of effective and robust supply chain networks

Klibi, Walid 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2009-2010 / Pour faire face aux risques associés aux aléas des opérations normales et aux périls qui menacent les ressources d'un réseau logistique, une méthodologie générique pour le design de réseaux logistiques efficaces et robustes en univers incertain est développée dans cette thèse. Cette méthodologie a pour objectif de proposer une structure de réseau qui assure, de façon durable, la création de valeur pour l'entreprise pour faire face aux aléas et se prémunir contre les risques de ruptures catastrophiques. La méthodologie s'appuie sur le cadre de prise de décision distribué de Schneeweiss et l'approche de modélisation mathématique qui y est associée intègre des éléments de programmation stochastique, d'analyse de risque et de programmation robuste. Trois types d'événements sont définis pour caractériser l'environnement des réseaux logistiques: des événements aléatoires (ex. la demande, les coûts et les taux de changes), des événements hasardeux (ex. les grèves, les discontinuités d'approvisionnement des fournisseurs et les catastrophes naturelles) et des événements profondément incertains (ex. les actes de sabotage, les attentats et les instabilités politiques). La méthodologie considère que l'environnement futur de l'entreprise est anticipé à l'aide de scénarios, générés partiellement par une méthode Monte-Carlo. Cette méthode fait partie de l'approche de solution et permet de générer des replications d'échantillons de petites tailles et de grands échantillons. Elle aide aussi à tenir compte de l'attitude au risque du décideur. L'approche générique de solution du modèle s'appuie sur ces échantillons de scénarios pour générer des designs alternatifs et sur une approche multicritère pour l'évaluation de ces designs. Afin de valider les concepts méthodologiques introduits dans cette thèse, le problème hiérarchique de localisation d'entrepôts et de transport est modélisé comme un programme stochastique avec recours. Premièrement, un modèle incluant une demande aléatoire est utilisé pour valider en partie la modélisation mathématique du problème et étudier, à travers plusieurs anticipations approximatives, la solvabilité du modèle de design. Une approche de solution heuristique est proposée pour ce modèle afin de résoudre des problèmes de taille réelle. Deuxièmement, un modèle incluant les aléas et les périls est utilisé pour valider l'analyse de risque, les stratégies de resilience et l'approche de solution générique. Plusieurs construits mathématiques sont ajoutés au modèle de base afin de refléter différentes stratégies de resilience et proposer un modèle de décision sous risque incluant l'attitude du décideur face aux événements extrêmes. Les nombreuses expérimentations effectuées, avec les données d'un cas réaliste, nous ont permis de tester les concepts proposés dans cette thèse et d'élaborer une méthode de réduction de complexité pour le modèle générique de design sans compromettre la qualité des solutions associées. Les résultats obtenus par ces expérimentations ont pu confirmer la supériorité des designs obtenus en appliquant la méthodologie proposée en termes d'efficacité et de robustesse par rapport à des solutions produites par des approches déterministes ou des modèles simplifiés proposés dans la littérature.

Page generated in 0.6566 seconds