• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 19
  • 1
  • Tagged with
  • 96
  • 96
  • 50
  • 30
  • 26
  • 22
  • 18
  • 12
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Développement d'outils de simulation numérique pour l'élastodynamique non linéaire : application à l'imagerie acoustique de défauts à l'aide de transducteur à cavité chaotique

Li, Yifeng 09 July 2009 (has links) (PDF)
Dans cette thèse nous proposons de développer un système d'imagerie ultrasonore innovante de micro- défauts basé sur l'utilisation conjointe de techniques d'acoustique non linéaire et du concept de "transducteur à cavité chaotique". Ce transducteur correspond à la combinaison d'une céramique piézoélectrique collée sur une cavité de forme chaotique et du principe de retournement temporel. La faisabilité et les performances de ce nouveau système sont explorées par des simulations numériques. Des paramètres optimaux d'utilisation pour une implémentation expérimentale sont proposés. Une grande partie des travaux menés dans le cadre de cette thèse se concentre sur le développement d'outils numériques permettant l'amélioration de telles techniques d'imagerie. Un schéma d'éléments finis de type Galerkin Discontinu (GD) est étendu à l'élastodynamique non linéaire. Un type de zone absorbante parfaitement adaptée, appelée "Nearly Perfectly Matched Layer" (NPML) a aussi été développé. Dans le cas de matériaux orthotropes, comme des problèmes de stabilité apparaissent, un mélange de NPML et de zone atténuante, dont on contrôle la proportion respective, est introduit afin de stabiliser les NPML. Une validation expérimentale du concept de "transducteur à cavité chaotique" pour la focalisation dans un milieu solide, réverbérant ou non, en utilisant une seule source est réalisée. Les méthodes de retournement temporel et de filtre inverse sont présentées et comparées. La démonstration expérimentale qu'un "transducteur à cavité chaotique" peut être utilisé conjointement avec les méthodes d'inversion d'impulsion afin de réaliser une image de non linéarités localisées est présentée
72

Conditionnement de processus markoviens

Marchand, Jean-Louis 25 June 2012 (has links) (PDF)
Le but de cette thèse est de décrire la loi conditionnelle d'un processus markovien multidimensionnel connaissant la valeur de certaines combinaisons linéaires de ses coordonnées à des instants donnés. La description recherchée consiste à mettre en évidence un processus de même type, facile à simuler, dont la loi est équivalente à la loi conditionnelle ciblée.La classe principalement étudiée est celle des processus à diffusion. Dans un premier temps, des techniques de grossissement de filtration (Jacod 1985) permettent de déterminer les paramètres de l'équation différentielle stochastique vérifiée par le processus conditionnel. Cependant, on s'aperçoit alors que la dérive n'est pas explicite, car celle-ci dépend des densités de transition du processus initial, inconnues en général. Ceci rend impossible,une simulation directe par exemple à l'aide d'un schéma d'Euler. Afin de pallier ce défaut, nous proposons une alternative, dans l'esprit de Delyon et Hu (2006). L'approche consiste à proposer une équation différentielle stochastique de paramètres explicites, dont la solution est de loi équivalente à la loi conditionnelle. Une application en collaboration avec Anne Cuzol et Etienne Mémin de l'INRIA, dans le cadre des écoulements fluides est également présentée. On applique la méthode proposée précédemment à un modèle stochastique inspiré des équations de Navier-Stokes. Enfin, la classe des processus markoviens à sauts est également abordée.
73

Localisation optimale des aires de coupe et du réseau routier lors de la planification des opérations forestières

Rousseau, Denyse. 23 February 2022 (has links)
Ce travail a pour but de présenter une méthode devant faciliter la prise de décisions au niveau de la planification des opérations forestières. Il constitue une approche partielle au développement d'un modèle dynamique d'aménagement forestier, projet mis sur pied par des professeurs de la Faculté de Foresterie et de Géodésie de l'Université Laval en 1973. La méthode de planification proposée tente d'apporter une solution aux problèmes de la localisation des aires de coupe et de l'établissement du réseau routier. Les principaux objectifs poursuivis sont les suivants : - optimisation du réseau routier en fonction de critères économiques, - regroupement des opérations annuelles, - minimisation des fluctuations annuelles relatives au volume récolté, à la superficie traitée et ä la construction de chemin. Les aires de coupe sont localisées de façon à ce que soit respectée la possibilité de coupe déterminée lors de la réalisation du plan d'aménagement. Les diverses contraintes ayant trait à la protection du territoire et à l'aménagement intégré des ressources forestières sont également prises en considération. Voici quelles sont les principales étapes de la méthode proposée : 1) localisation des peuplements pouvant faire l'objet d'intervention pendant la durée du plan d'exploitation et établissement d'un ordre de chaque type de traitement; 2) classification des unités de territoire suivant un ordre de priorité pour la construction de chemins; 3) simulation de réseaux routiers correspondant à diverses distances de débardage; chaque simulation implique les étapes suivantes : - tracé des chemins d'exploitation de façon à desservir les peuplements susceptibles d'être exploités; - choix des aires de traitement annuelles; - tracé définitif des chemins; - définition des classes de qualité de chemin en fonction du volume ligneux transporté; - localisation des jetées et allocation des unités de coupe aux jetées; - calcul des coûts reliés à la construction du réseau routier simulé. La prise de décision finale s'effectue par la comparaison des coûts résultant de chacune des options simulées.
74

Detailed occupancy prediction, occupancy-sensing control and advanced behavioural modelling within whole-building energy simulation

Bourgeois, Denis J. 11 April 2018 (has links)
Cette étude a pour but de combler l'écart entre l'état actuel de la simulation énergétique dans le domaine du bâtiment (i.e. hypothèses et modèles) et la connaissance empirique sur le comportement des usagers en matière de contrôle environnemental. L'application principale issue de cette thèse est un module de simulation autonome qui vise la modélisation à haute résolution et à haute fréquence des interactions personne-milieu: de l'occupation des locaux (i.e. l'affectation individuelle d'un environnement modélisé), du contrôle basé uniquement sur la présence ou l'absence des occupants (e.g. détecteurs de mouvement), jusqu'aux modèles comportementaux plus avancés (e.g. commutation manuelle des appareils d'éclairage, l'utilisation des fenêtres ouvrantes). L'intégration du module au sein du logiciel libre ESP-r, un programme qui permet de simuler l'ensemble des interactions bâtiment-systèmes-environnement, permet d'étudier à quel point les modèles d'interactions personne-milieu, issus des études en milieu réel, peuvent influencer les besoins énergétiques d'un bâtiment donné. Certains traits comportementaux, couramment associés aux modèles de contrôle manuel des systèmes d'éclairage, caractérisent également le comportement individuel au niveau des fenêtres ouvrantes; une conclusion issue d'une étude pilote en milieu réel sur le campus de l'Université Laval (Québec). Cette constatation suggère certains traits communs pouvant décrire le comportement des usagers en matière de contrôle environnemental. Le module développé permet également d'étudier le potentiel écoénergétique de stratégies innovatrices: l'application de stratégies de contrôle reposant sur l'adaptation thermique dans un contexte de climatisation hybride, et basées sur l'opération de fenêtres ouvrantes en tant que commutateurs entre climat naturel et climat artificiel. Les résultats préliminaires suggèrent que pour les climats nordiques ou méridionaux, ces approches permettent effectivement de réduire les besoins en climatisation, mais qu'en contre partie les besoins en chauffage augmentent considérablement en raison de l'utilisation des fenêtres en périodes plus tempérées. L'intérêt de la méthode est ici mis en évidence dans sa capacité à simuler globalement l'ensemble des conséquences énergétiques de l'interaction sociale avec l'environnement bâti. / This study sets out to bridge the gap between building energy simulation and empirical evidence on occupant behaviour. The major output is a self-contained simulation module that aims to control all occupant-related phenomena which can affect energy use in buildings. It provides high resolution and high frequency occupancy prediction (i.e. when occupants as individual agents occupy a modelled environment), occupant-sensing control (i.e. as driven by the mere presence of one or more occupants, such as occupancy-sensing lighting controls), as well as advanced behavioural models (i.e. active personal control, such as manual switching of lights, manual adjustments to window blinds, operable windows, personalized air-conditioning units). The module is integrated within the ESP-r free software, a whole-building energy simulation program. Simulation results clearly show that occupants-based phenomena exert a strong influence on simulated energy use, revealing a number of limitations in key assumptions in current energy simulation practice. Key behavioural traits, commonly associated to lighting behavioural patterns, also appear to be associated to personal control of operable windows, as demonstrated in a pilot field study in a Université Laval pavilion in Québec. This may suggest an abstract quality to certain behavioural concepts regarding different environmental controls. The study then focuses on the use of the developed work to investigate the energy saving potential of novel yet untried strategies: adaptive comfort control algorithms in hybrid environments, based on the use of operable windows as switching mechanisms between natural and artificial modes of environmental control. Results suggest that for both heating- and cooling-dominant climates, adaptive comfort control effectively reduces cooling requirements, yet operable window use during cooler conditions appear to increase heating requirements. The usefulness of the original method is here illustrated by providing a more complete view on energy use attributed to occupant behaviour.
75

Calcul rapide de forces et de déformations mécaniques non-linéaires et visco-élastiques pour la simulation de chirurgie

Schwartz, Jean-Marc 11 April 2018 (has links)
Ce travail présente une méthode de calcul rapide de déformations et de forces mécaniques destinée à la simulation d'applications chirurgicales. La simulation de chirurgie vise à offrir aux praticiens des outils leur permettant de pratiquer des entraînements intensifs et de pouvoir planifier avec précision certaines interventions. La conception de tels simulateurs nécessite de disposer de modèles géométriques et mécaniques précis des organes du corps humain, et d'algorithmes de calcul suffisamment rapides pour être capable d'utiliser ces modèles dans des conditions de temps réel. La plupart des simulateurs existants utilisent des modèles mécaniques extrêmement simples, basés sur les lois de l'élasticité linéaire. Or de nombreux résultats de biomécanique indiquent que les tissus biologiques se comportent selon des lois beaucoup plus complexes, incluant des effets non-linéaires et visco-élastiques importants. Pour cette raison, nous avons développé une méthode permettant le calcul rapide de déformations et de forces incluant des effets mécaniques non-linéaires et visco-élastiques. Cette méthode utilise la théorie des éléments finis et a été conçue comme une extension de l'algorithme dit des masses-tenseurs pour l'élasticité linéaire. Son principe consiste à pré-calculer un certain nombre de tenseurs dépendant des caractéristiques géométriques et mécaniques de chaque élément fini, qui sont ensuite combinés dans la phase de simulation proprement dite. Notre modèle non-linéaire ne présage d'aucune forme particulière de loi mécanique, de sorte que la méthode proposée est suffisamment générique pour s'appliquer à une grande variété de comportements et d'objets. Après la description de l'algorithme, de ses performances en terme de temps de calcul et de ses conditions de stabilité numérique, nous démontrons que cette méthode est capable de reproduire avec précision le comportement mécanique d'un tissu biologique mou. Ce travail s'inscrivant plus spécifiquement dans le cadre du développement d'un système de simulation de la cryochirurgie du foie, nous avons étudié expérimentalement les propriétés du foie lors de sa perforation par une aiguille à biopsie. Le modèle de masses-tenseurs non-linéaire et visco-élastique construit à l'aide des paramètres expérimentaux a pu reproduire avec une bonne précision les propriétés observées. / This work presents a method for the fast computation of mechanical deformations and forces for the simulation of surgical applications. Surgery simulation aims at providing physicians with tools allowing extensive training and precise planning of given interventions. The design of such simulation systems requires accurate geometrical and mechanical models of the organs of the human body, as well as fast computation algorithms suitable for real-time conditions. Most existing simulation systems use very simple mechanical models, based on the laws of linear elasticity. Numerous biomechanical results yet indicate that biological tissues exhibit much more complex behaviour, including important non-linear and visco-elastic effects. For this reason, we developed a method allowing the fast computation of mechanical deformations and forces including non-linear and visco-elastic effects. This method uses finite element theory and has been constructed as an extension of the so-called tensor-mass algorithm for linear elasticity. It consists in pre-computing a set of tensors depending on the geometrical and mechanical properties of each finite element, which are later combined in the simulation part itself. Our non-linear model does not assume any particular form of mechanical law, so that the proposed method is generic enough to be applied to a wide variety of behaviours and objects. Following the description of the algorithm, of its performances in terms of computation time, and of its numerical stability conditions, we show that this method allows to reproduce the mechanical behaviour of a biological soft tissue with good precision. As this project is part of a broader effort aiming more specifically at developing a simulation system for liver cryosurgery, we experimentally characterized the properties of liver in perforation by a biopsy needle. The non-linear and visco-elastic tensor-mass model constructed from experimental parameters succeeded in accurately reproducing the observed properties.
76

Optimisation stochastique des systèmes multi-réservoirs par l'agrégation de scénarios et la programmation dynamique approximative

Zéphyr, Luckny 23 April 2018 (has links)
Les problèmes de gestion des réservoirs sont stochastiques principalement à cause de l’incertitude sur les apports naturels. Ceci entraine des modèles d’optimisation de grande taille pouvant être difficilement traitables numériquement. La première partie de cette thèse réexamine la méthode d’agrégation de scénarios proposée par Rockafellar et Wets (1991). L’objectif consiste à améliorer la vitesse de convergence de l’algorithme du progressive hedgging sur lequel repose la méthode. L’approche traditionnelle consiste à utiliser une valeur fixe pour ce paramètre ou à l’ajuster selon une trajectoire choisie a priori : croissante ou décroissante. Une approche dynamique est proposée pour mettre à jour le paramètre en fonction d’information sur la convergence globale fournie par les solutions à chaque itération. Il s’agit donc d’une approche a posteriori. La thèse aborde aussi la gestion des réservoirs par la programmation dynamique stochastique. Celle-ci se prête bien à ces problèmes de gestion à cause de la nature séquentielle de leurs décisions opérationnelles. Cependant, les applications sont limitées à un nombre restreint de réservoirs. La complexité du problème peut augmenter exponentiellement avec le nombre de variables d’état, particulièrement quand l’approche classique est utilisée, i.e. en discrétisant l’espace des états de « manière uniforme ». La thèse propose une approche d’approximation sur une grille irrégulière basée sur une décomposition simpliciale de l’espace des états. La fonction de valeur est évaluée aux sommets de ces simplexes et interpolée ailleurs. À l’aide de bornes sur la vraie fonction, la grille est raffinée tout en contrôlant l’erreur d’approximation commise. En outre, dans un contexte décision-information spécifique, une hypothèse « uni-bassin », souvent utilisée par les hydrologues, est exploitée pour développer des formes analytiques pour l’espérance de la fonction de valeur. Bien que la méthode proposée ne résolve pas le problème de complexité non polynomiale de la programmation dynamique, les résultats d’une étude de cas industrielle montrent qu’il n’est pas forcément nécessaire d’utiliser une grille très dense pour approximer la fonction de valeur avec une précision acceptable. Une bonne approximation pourrait être obtenue en évaluant cette fonction uniquement en quelques points de grille choisis adéquatement. / Reservoir operation problems are in essence stochastic because of the uncertain nature of natural inflows. This leads to very large optimization models that may be difficult to handle numerically. The first part of this thesis revisits the scenario aggregation method proposed by Rochafellar and Wets (1991). Our objective is to improve the convergence of the progressive hedging algorithm on which the method is based. This algorithm is based on an augmented Lagrangian with a penalty parameter that plays an important role in its convergence. The classical approach consists in using a fixed value for the parameter or in adjusting it according a trajectory chosen a priori: decreasing or increasing. This thesis presents a dynamic approach to update the parameter based on information on the global convergence provided by the solutions at each iteration. Therefore, it is an a posteriori scheme. The thesis also addresses reservoir problems via stochastic dynamic programming. This scheme is widely used for such problems because of the sequential nature of the operational decisions of reservoir management. However, dynamic programing is limited to a small number of reservoirs. The complexity may increase exponentially with the dimension of the state variables, especially when the classical approach is used, i.e. by discretizing the state space into a "regular grid". This thesis proposes an approximation scheme over an irregular grid based on simplicial decomposition of the state space. The value function is evaluated over the vertices of these simplices and interpolated elsewhere. Using bounds on the true function, the grid is refined while controlling the approximation error. Furthermore, in a specific information-decision context, a "uni-bassin" assumption often used by hydrologists is exploited to develop analytical forms for the expectation of the value function. Though the proposed method does not eliminate the non-polynomial complexity of dynamic programming, the results of an industrial case study show that it is not absolutely necessary to use a very dense grid to appropriately approximate the value function. Good approximation may be obtained by evaluating this function at few appropriately selected grid points.
77

Localisation optimale des aires de coupe et du réseau routier lors de la planification des opérations forestières

Rousseau, Denyse. 23 February 2022 (has links)
Ce travail a pour but de présenter une méthode devant faciliter la prise de décisions au niveau de la planification des opérations forestières. Il constitue une approche partielle au développement d'un modèle dynamique d'aménagement forestier, projet mis sur pied par des professeurs de la Faculté de Foresterie et de Géodésie de l'Université Laval en 1973. La méthode de planification proposée tente d'apporter une solution aux problèmes de la localisation des aires de coupe et de l'établissement du réseau routier. Les principaux objectifs poursuivis sont les suivants : - optimisation du réseau routier en fonction de critères économiques, - regroupement des opérations annuelles, - minimisation des fluctuations annuelles relatives au volume récolté, à la superficie traitée et ä la construction de chemin. Les aires de coupe sont localisées de façon à ce que soit respectée la possibilité de coupe déterminée lors de la réalisation du plan d'aménagement. Les diverses contraintes ayant trait à la protection du territoire et à l'aménagement intégré des ressources forestières sont également prises en considération. Voici quelles sont les principales étapes de la méthode proposée : 1) localisation des peuplements pouvant faire l'objet d'intervention pendant la durée du plan d'exploitation et établissement d'un ordre de chaque type de traitement; 2) classification des unités de territoire suivant un ordre de priorité pour la construction de chemins; 3) simulation de réseaux routiers correspondant à diverses distances de débardage; chaque simulation implique les étapes suivantes : - tracé des chemins d'exploitation de façon à desservir les peuplements susceptibles d'être exploités; - choix des aires de traitement annuelles; - tracé définitif des chemins; - définition des classes de qualité de chemin en fonction du volume ligneux transporté; - localisation des jetées et allocation des unités de coupe aux jetées; - calcul des coûts reliés à la construction du réseau routier simulé. La prise de décision finale s'effectue par la comparaison des coûts résultant de chacune des options simulées.
78

Optimization of water distribution systems

Cantu Funes, Roberto 07 June 2024 (has links)
Les systèmes de distribution d'eau (SDE) efficaces sont cruciaux pour les sociétés modernes. Leur fonctionnement nécessite d'importantes quantités d'énergie, avec un impact financier significatif pour les fournisseurs d'eau, généralement les gouvernements. De plus, la conception et la maintenance de ces installations atteignent souvent des millions de dollars. Les méthodes actuelles pour résoudre ces problèmes sont souvent excessivement simplifiées ou ne peuvent résoudre que des réseaux schématiques de petite taille. Cette thèse comprend quatre projets de recherche abordant différentes étapes d'optimisation dans les SDE. Tout d'abord, nous étudions le problème de la planification des pompes pour les SDE, comprenant des pompes fournissant le débit et la pression nécessaires au réseau d'eau pour satisfaire les demandes des consommateurs. En plus de planifier le fonctionnement des pompes sur un horizon temporel donné, plusieurs contraintes liées aux propriétés hydrauliques sont prises en compte, certaines pour la première fois dans la littérature. L'objectif est de fournir un plan de pompage de coût minimum qui satisfait toutes les demandes et respecte de nombreuses contraintes opérationnelles et hydrauliques. Nous proposons une formulation non linéaire et non convexe ainsi qu'une heuristique performante, qui vissent la minimisation des coûts énergétiques. Le comportement hydraulique physique est assuré via un logiciel de simulation hydraulique. Notre méthode a significativement amélioré, jusqu'à 17%, les meilleures solutions pour plusieurs instances de référence, en obtenant des solutions plus rapidement que les méthodes de la littérature. Nos solutions réduisent également la consommation d'énergie pendant les périodes de pointe, lorsque le réseau électrique est le plus sollicité. La deuxième étude touche l'optimisation de la qualité de l'eau dans les systèmes de distribution d'eau. Ici, nous abordons le problème de la planification des pompes contraint par la qualité de l'eau, où en plus de planifier le fonctionnement des pompes et la maintenance du comportement hydraulique, nous devons garantir une qualité d'eau adéquate en gérant l'injection de chlore dans le système sur un horizon temporel d'une journée, avec une injection variable de chlore dans les sources d'eau, les réservoirs et les nœuds d'injection. Cette étude introduit un nouvel ensemble de contraintes pour assurer la continuité de la qualité de l'eau, ce qui permet au plan de fonctionner sur un horizon temporel étendu. Ce travail propose un algorithme génétique de tri non dominé (NSGA-II) pour aborder une adaptation d'un réseau de grande taille issu de la littérature sur le problème de planification des pompes, avec des restrictions ajoutées pour la qualité de l'eau. Cette méthode a significativement amélioré les meilleures solutions de planification des pompes pour le réseau de Florianópolis, au Brésil, jusqu'à 3,74%, tout en assurant une gestion efficace de la qualité de l'eau. La troisième étude porte sur la conception et la maintenance des SDE. En particulier, le problème de conception du réseau de distribution d'eau, qui détermine le meilleur ensemble de conduites pour fournir de l'eau depuis les sources jusqu'aux consommateurs. La formulation générale du problème de conception optimale est très difficile à résoudre : elle nécessite de garder une pression minimale d'eau et de satisfaire les demandes de tous les nœuds tout en respectant des contraintes hydrauliques non linéaires. Cela nécessite des heuristiques complexes ou des simplifications qui réduisent la viabilité des solutions. Nous proposons une heuristique de recherche de voisinage parallèle, axée sur la minimisation des coûts de construction en exploitant deux opérateurs performants et plusieurs critères de réduction de l'espace des solutions. Notre méthode est testée sur plusieurs réseaux de référence, pour lesquelles nous avons obtenu les meilleures solutions de la littérature, tout en réduisant le nombre de simulations hydrauliques requises, offrant un meilleur compromis entre coût et performance. Enfin, notre quatrième recherche aborde la fiabilité lors de la conception de réseaux de distribution d'eau. Cette étude compare deux fonctions de résilience bien connues, qui servent de mesure substitutive de la fiabilité du réseau. Ce problème vise à déterminer le meilleur ensemble de conduites pour fournir la demande en eau avec une pression adéquate tout en minimisant les coûts de construction et en maximisant la fiabilité du réseau. Ensuite, un algorithme génétique multi-objectif est utilisé pour obtenir les fronts de Pareto coût-fiabilité pour chaque fonction. Les résultats des trois réseaux de référence sont ensuite soumis à une analyse comparative à l'aide de quatre tests distincts de fiabilité du réseau, couvrant des scénarios liés à la rupture de conduites, à l'augmentation de la demande, au débit en cas d'incendie et au vieillissement des conduites. En particulier, le test de fiabilité en cas de vieillissement des conduites intègre une fonction de régression conçue pour estimer la dégradation annuelle du coefficient de rugosité de la formule Hazen-Williams pour calculer les pertes de charge. De plus, cette recherche propose également une étude approfondie sur la prise de décision robuste visant à utiliser efficacement les résultats des tests de fiabilité afin de sélectionner une conception fiable pour un réseau de distribution d'eau. Les algorithmes développés dans cette thèse et les solutions que nous obtenons pour ces problèmes difficiles et pertinents sont non seulement importants du point de vue pratique, mais contribuent également à la littérature dans les domaines de l'optimisation et de la distribution d'eau. Les résultats obtenus avec cette thèse ont le potentiel de générer des économies de milliers de dollars pour les municipalités à court terme et de contribuer au développement durable à long terme. / Efficient Water Distribution Systems (WDS) are crucial for modern society. Their operation requires large amounts of energy with significant financial impact for the utility providers, typically governments. Moreover, the design and maintenance of these facilities often reach the scale of millions of dollars. Existing solution methods for these problems are often over-simplified or can only solve very small schematic networks. This thesis comprises four research projects addressing different optimization stages arising in WDS problems. First, we study the pumping scheduling problem for WDS, consisting of pumps providing the flow and pressure for the water network to satisfy consumers' demands. Besides scheduling the operation of pumps over a planning horizon, several constraints regarding hydraulic properties are considered, some for the first time in the literature. The goal is to provide a pumping plan of minimum cost that satisfies all demands and respects many operational and hydraulic constraints. We propose a nonlinear and non-convex formulation and a high-performance heuristic, focusing on minimizing the energy cost. Our method significantly improved the best solutions for several benchmark instances by up to 17%, obtaining solutions faster than the methods from the literature. Our solutions also reduce the energy consumed during peak periods, when the electrical grid is most strained. The second study delves into the water quality optimization of water distribution systems. Here, we address the quality-constrained pump scheduling problem, where besides scheduling the operation of pumps and the maintenance of the hydraulic behavior, we must ensure adequate water quality by managing the injection of chlorine through the system over a one-day planning horizon with variable chlorine injection at reservoirs, tanks, and booster nodes. This study introduces a new set of tank-quality continuity constraints that allow schedules to work over a long rolling horizon. This work proposes a Non-dominated Sorting Genetic Algorithm II to address a quality-constrained adaptation of a real big-size benchmark network from the pumping scheduling problem literature. This method significantly improved the best pumping scheduling solutions for the Florianópolis network by up to 3.74% while ensuring efficient water quality management. The third study addresses the design and maintenance of WDS. In particular, the water distribution network design problem determines the best set of pipes to supply water from the reservoirs to the consumers. The general formulation of the optimal cost design problem is very difficult to solve: it requires maintaining minimum water pressure and fulfilling the demand of all nodes while satisfying nonlinear hydraulic constraints. This leads to complex heuristics or simplifications that reduce the viability of the solutions. We propose a simple parallel neighborhood search heuristic, which focuses on minimizing the construction cost by exploiting two high-performance operators and multiple solution-space reduction criteria. Our method is tested on several benchmark instances, matching the best solutions from the literature while improving the number of hydraulic simulations required, providing a high-performance trade-off between cost and performance. Finally, our fourth research addresses the reliable water distribution network design problem. This study compares two well-known resilience functions, which work as a surrogate measure of network reliability. This problem seeks to determine the best set of pipes to supply the water demand with adequate pressure that minimizes the construction cost and maximizes the network reliability. Subsequently, a multi-objective genetic algorithm is employed to derive the cost-resilience Pareto-fronts for each function. The results from three benchmark networks are then subjected to a comparative analysis using four distinct network reliability tests, encompassing scenarios related to pipe failure, demand increase, fire flow, and pipe aging. In particular, the pipe aging reliability test incorporates a regression function designed to estimate the annual degradation of the Hazen-Williams roughness coefficient. Moreover, this research also provides a comprehensive study on robust decision-making to effectively utilize the results from the reliability tests in order to select a dependable design for a water distribution network. The algorithms developed in this thesis and the solutions we obtain for these difficult and relevant problems are not only important from a practical standpoint but also contribute to the literature of both optimization and water distribution fields. The results obtained with this thesis have the potential to save several thousands of dollars for municipalities in the short term and to contribute to sustainable development in the long term.
79

Déterminants du profit d'une firme suite à l'innovation d'un antibiotique

Caron, Pierre-Alexandre 23 April 2018 (has links)
Dans un contexte où la résistance bactérienne est directement liée à l’efficacité de traitement des antibiotiques, ce mémoire compare les déterminants du profit d’une firme suite à l’innovation d’un antibiotique d’un premier cas où la firme possède un réservoir d’efficacité de traitement différent de ses concurrents et d’un second cas où le réservoir d’efficacité est conjointement exploité par la firme innovatrice et ses concurrents. Dans le premier cas, la firme attribue une valeur implicite positive à son propre réservoir d’efficacité et une valeur implicite négative au réservoir concurrent. Dans le second cas, la firme innovatrice doit accorder une valeur implicite positive au réservoir partagé. Elle doit par contre escompter davantage les revenus futurs de l’exploitation de ce réservoir commun comparativement au premier cas où elle possède son propre réservoir.
80

Enhancing stakeholders' participation : a semantic, spatial and temporal contextualization perspective

Marzouki, Amal 27 March 2023 (has links)
La participation des parties prenantes (PPP) vise à impliquer celles-ci dans les processus de prise de décision concernant des projets affectant leurs communautés. Traditionnellement, les processus de participation des parties prenantes (PPPP) se maintenaient à travers des assemblées et des forums de discussion physiques permettant de rassembler les parties prenantes, de collecter et d'analyser leurs opinions pour aider les décideurs dans leur prise de décision. Ces dernières années, l'évolution des technologies de l'information (TI) et leur prolifération dans la société ont donné lieu au concept émergent de la participation électronique ou la e-Participation. Il s'agit de nouvelles formes de participation basées sur les technologies de l'information tel que les blogs, les plateformes participatives et les réseaux sociaux. La PPP est une notion en constante évolution et a reçu une attention considérable de la part des praticiens et des chercheurs dans différents domaines et disciplines. Cependant, peu de recherches se sont intéressées à la compréhension multidisciplinaire des PPPP et de la valeur que revêtent les données collectées à travers ces PPPP. Cette thèse contribue à la littérature de la PPP en offrant une meilleure compréhension globale du concept de la PP, de ses enjeux multidisciplinaires et de la valeur que revête les données collectées à travers les PPPP. Cette thèse est structurée en deux articles et un chapitre. Le premier article de cette thèse vise à offrir une meilleure compréhension des enjeux multidisciplinaires auxquels les PPPP font face. À l'appui d'une revue systématique de la littérature analysant 191 articles de recherche, cet article met en exergue que les PPP font face à des enjeux : « administratifs », « éthiques », « politiques », « légaux », « technologiques », « sociaux des parties prenantes », « économiques », « socio-économiques » et « d'efficience et d'efficacité ». De plus, l'article démontre que les PPPP œuvrent à l'intérieur de quatre principales dimensions qui sont « la gouvernance », « l'application », « les parties prenantes » et « la société » et que ces dimensions sont interreliées et sont influencées les unes par les autres. Dans ce contexte, l'évolution vers des PPP qui sont plus efficaces et plus résilientes envers ces enjeux requerrait une prise de conscience de ces dimensions d'enjeux et des efforts de collaboration multidisciplinaire entre la recherche et la pratique. Le deuxième article se concentre sur l'enjeu spécifique du « contexte de vie des parties prenantes » et rend compte de la manière dont les parties prenantes expriment, de façon implicite ou explicite, leurs contextes de vie dans leurs commentaires de participation. Par une analyse qualitative des données de participation provenant de quatre études de cas dans deux pays différents, cet article identifie un ensemble de patrons, appelés aussi « patterns », sémantiques, spatiaux et temporels permettant l'identification du contexte de vie des parties prenantes à partir des données des PPPP. L'identification et la compréhension des patrons que les parties prenantes expriment dans leurs commentaires pour représenter leurs contextes de vie visent à renforcer l'influence des parties prenantes sur les décisions découlant des PPP dans lesquelles ces dernières étaient impliquées. De plus, l'article propose un modèle conceptuel démontrant l'importance pour les décideurs de capturer et d'analyser les patrons sémantique, spatial et temporel dans les données des PPPP afin de favoriser une prise de décision cohérente et réactive aux contextes de vie des parties prenantes. Finalement, l'article souligne le rôle que jouent les technologies de l'information pour l'identification de ces patrons. Le troisième chapitre offre une meilleure compréhension de l'identification automatique des dimensions sémantique, spatiale et temporelle du contexte de vie des parties prenantes dans les PPP. En se basant sur une analyse théorique, ce chapitre utilise la théorie des affordances et la théorie du réalisme critique pour offrir une conceptualisation des affordances et des fonctionnalités technologiques correspondantes qui sont nécessaires pour l'identification automatique des patterns sémantiques, spatiaux et temporels dans les futures technologies participatives. / Stakeholders participation (SP) aims to involve stakeholders in decision-making processes regarding projects affecting their communities. Traditionally, stakeholders' participation processes (SPPs) were maintained through meetings and physical discussion forums to bring together stakeholders and collect their opinions to help decision-makers in taking their decisions. In recent years, the evolution of information technologies (IT) and their proliferation in society have given rise to the emerging concept of electronic participation or e-Participation. These are new forms of participation based on information technologies such as blogs, participatory platforms and social networks. SP is an ever-evolving concept and has received considerable attention from researchers in different fields and disciplines. However, little research has focused on the multidisciplinary understanding of SPPs and the value of the data collected through these SPPs. This thesis contributes to the SPPs literature by offering a better global understanding of the concept of SP, its multidisciplinary issues and the value of the data collected through SPPs. This thesis is structured in two articles and one chapter. The first article of this thesis aims to provide a better understanding of the multidisciplinary issues that SPPs face. Based on a systematic literature review of 191 research papers, this article aims to review, categorize, and offer a better understanding of the different issues that stakeholders' participation processes (SPPs) can have. This paper has two main contributions. First, it presents a typology of issues that is organized in nine categories: economic, efficiency and effectiveness, ethical, legislative, political, administration, socioeconomic, stakeholders and social, and technology. Second, it proposes a conceptual model of SPPs dimensions of issues. The conceptual model demonstrates that SPPs work within four main dimensions which are "governance", "application", "stakeholders" and "society" and that these dimensions are interrelated and are influenced by each other. The second article focuses on the specific issue of the "stakeholders' living context identification" and attempts to account for how stakeholders implicitly identify their living contexts in their participation comments. Through a qualitative analysis of participation data from four case studies in two different countries, this article identifies a set of semantic, spatial and temporal patterns allowing the contextualization of data collected through SPPs. Moreover, a conceptual model for the identification of the living contexts in SPPs data is proposed. This conceptual model emphasizes the importance for decision-makers to capture and understand semantic, spatial and temporal patterns in SPPs data in order to ensure a decision-making that is consistent and responsive to stakeholders' living contexts. Finally, the article highlights the role that information technology plays in identifying these patterns. The third chapter attempts to provide a better understanding of the automatic identification of the semantic, spatial and temporal dimensions of the living contexts of stakeholders in SPPs. Based on a theoretical analysis, this chapter uses the theory of affordances and the theory of critical realism to offer a conceptualization of affordances and their corresponding information technology functionalities that are necessary for the automatic identification of semantic, spatial and temporal patterns in future participation tools.

Page generated in 0.1335 seconds