• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 589
  • 185
  • 3
  • Tagged with
  • 779
  • 779
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 64
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

Analysis of flexibus and bus integration

Naderizand, Bahareh 09 May 2023 (has links)
Titre de l'écran-titre (visionné le 1er mai 2023) / Le Hub Location Problem (HLP), comme son nom l'indique, traite de la localisation d'un groupe d'installations de concentration et de la conception du réseau afin de fournir la manière la plus efficace d'acheminer le trafic à travers le réseau. Le Hub Arc Location Problem (HALP) intègre les considérations relatives à la localisation des pivots et à la conception du réseau en un seul problème. L'objectif du HALP est de localiser un ensemble d'arcs de pivots de manière à ce que le coût global du flux soit aussi bas que possible. Le projet Flixbus développé par le RTC vise à fournir de meilleurs services porte-à-porte dans les zones suburbaines de Québec. Actuellement, ce système fonctionne séparément du réseau de bus et transporte les passagers des origines aux destinations finales, comme un service de taxi. Dans notre étude, nous examinons la performance de ce système pour fournir un meilleur transport local. De plus, nous proposons un réseau intégré composé d'autobus réguliers et de Flexibus. Ce système vise à transporter de manière simple et rapide les passagers de leur lieu de résidence vers le réseau de bus principal et ensuite vers leurs destinations finales. Nous avons développé un modèle mathématique Hub and Flexibus Public Transit System (HFPTS) traitant de l'intégration des autobus et de Flexibus afin de prendre en compte à la fois le coût et la commodité du transport. Nous avons étudié les intégrations potentielles du Flexibus et des autobus sous forme de quatre scénarios dans notre zone d'étude de cas. Les résultats des calculs ont montré que l'intégration de ces deux systèmes améliore la situation actuelle tant en termes de coût que de niveau de service. / Hub Location Problem (HLP), as the name suggests, deals with locating a group of hub facilities and the design of the network to provide the most efficient way to route the traffic through the network. Hub Arc Location Problem (HALP) integrate hub location and network design considerations into a single problem. The objective of the HALP is to locate a set of hub arcs in a way that the overall flow cost is as low as possible. The Flexibus project seeks to provide better door-to-door services in Quebec's suburban areas. Currently, this system works separately from the bus network and takes passengers from the origins to the final destinations, like a taxi service. In our study, we investigate the performance of this system in providing a better local transportation. Furthermore, we propose an integrated network of regular buses and Flexibus. This system aims to rapidly and simply transport passengers from their locations to the main bus network (as a hub-arc network) and then to their final destinations. We developed a mathematical model Hub and Flexibus Public Transit System (HFPTS) dealing with the bus and Flexibus integration to consider both transportation cost and convenience. We surveyed potential Flexibus and bus integrations as four scenarios in our case study area. Computational results showed that integrating these two systems improves the current situation both in terms of cost and service level.
542

Développement et implémentation d'un nouveau modèle constitutif d'interface avancé pour l'application dans les problèmes d'interaction sol-structure

Saberi, Miad 24 April 2018 (has links)
Le comportement des interfaces entre les sols granulaires et les matériaux de construction structuraux a un impact important sur la réponse monotonique et cyclique de nombreux systèmes d'interaction sol-structure (SSI) tels que les structures de soutènement, les canalisations enterrées, les fondations superficielles et certains barrages en remblai. L'interface, en tant que milieu de transition, peut présenter différents comportements complexes sous des conditions de chargements variées, y compris la localisation des contraintes et des déformations, le glissement et la séparation, l’écrouissage / écrouissage négatif, la dilatance, la contraction accumulative, la dégradation des contraintes et la rupture des particules. Comprendre la mécanique et la modélisation de ces zones d'interface est une étape importante pour une conception et une analyse sûres et efficaces des problèmes d’interaction sol-structure. Cette thèse de doctorat comporte trois phases majeures: le développement de nouveaux modèles de comportement d'interface avancés ; l’implémentation du modèle de comportement d'interface développé dans un code d'éléments finis d’usage général; et, par conséquent, l'application du modèle de comportement d'interface implémenté à l'analyse numérique de la réponse d’un barrage en enrochement avec masque en béton soumis à des mouvements sismiques du sol. Phase de développement du modèle : Des modèles de comportement d'interface avancés pratiques et efficaces ont été développés dans le cadre de la plasticité à deux surfaces et de la mécanique des sols à l'état critique (CSSM) et ils sont compatibles avec le concept de paramètres d'état. Le développement du modèle utilise une formulation unifiée pour simuler le comportement monotonique et cyclique des interfaces sol granulaire (sableux et graveleux)-structure pour une large gamme de masses volumiques de sol et sous différentes contraintes normales et cheminements de contraintes, en utilisant un seul ensemble de paramètres d'étalonnage. Le modèle considère la rupture des particules sous cisaillement et est capable de simuler le comportement d'interface complexe comme la transformation de phase, l’écrouissage et l’écrouissage négatif, la dégradation des contraintes, la contraction accumulative cyclique, la stabilisation de la contraction cyclique et la dépendance aux cheminements de contraintes. Le modèle d'interface nécessite huit paramètres d'étalonnage pour simuler le comportement de l'interface sol graveleux- structure, neuf paramètres pour simuler le comportement pratique des interfaces sol granulaire (sableux et graveleux)-structure et onze paramètres d'étalonnage pour les interfaces sol granulaire-structure en tenant compte de la rupture des particules. Tous les paramètres du modèle ont une signification physique et peuvent être facilement déterminés en utilisant des essais de cisaillement d'interface standard. Les capacités du modèle ont été validées à l'aide de données expérimentales extraites de la littérature. Phase d’implémentation du modèle : Le modèle de comportement d'interface développé a été implémenté dans un code d'éléments finis (FE) d’usage général (ABAQUS) sous forme d'un élément d'interface solide à couche mince. Le schéma d'intégration numérique utilisé dans la phase d’implémentation a été examiné par la simulation de différents problèmes de valeurs limites, y compris l’essai de cisaillement à un seul élément, l’essai de cisaillement par blocs coulissants et l'essai d'arrachement pour différentes valeurs de pas de temps. Phase d'application du modèle : Dans cette phase, les réponses statiques et sismiques des barrages en enrochement avec masque en béton (CFRD) ont été examinées en considérant l'effet de l'interaction dalle du masque - couche d’amortissement à l'interface. Les effets des différents éléments, tels que l'approche de la modélisation de l'interface, le niveau d'eau dans réservoir et la rugosité de l'interface sur la réponse de la dalle en béton dans les CFRDs ont été évalués sous des conditions statiques et dynamiques. Mots-clés: Interface sol granulaire-structure, géo-structures, modèle de comportement, développement de modèles, implémentation de modèles, simulation numérique, chargement monotonique et cyclique, barrages en enrochement avec masque en béton. / The behavior of interfaces between granular soils and structural construction materials has an important impact on the monotonic and cyclic response of many soil-structure interaction (SSI) systems such as retaining structures, buried pipelines, shallow and deep foundations, and some embankment dams. The interface as a transition medium may experience different complex behavior under different loading conditions, including stress and strain localization, sliding and separation, stress hardening/softening, stress dilatancy, accumulative contraction, stress degradation and particle breakage. Understanding the mechanics and modeling of these interface zones is an important step towards a safe and effective design and analysis of SSI problems. This doctoral thesis has three major phases: the development of new and efficient advanced interface constitutive models; the implementation of the developed interface constitutive model in a general-purpose finite element code; and consequently the application of the implemented interface constitutive model in the numerical response analysis of concrete-faced rockfill dam under earthquake ground motion. Model Development Phase: Practical and efficient advanced interface constitutive models were developed in the framework of two-surface plasticity and critical state soil mechanics (CSSM) and compatible with the concept of state parameters. The model development uses a unified formulation to simulate both monotonic and cyclic behavior of granular (sandy and gravelly) soil-structure interfaces over a wide range of soil densities and under different normal stresses and stress paths, using a single set of calibration parameters. The model considers particle breakage under shear cycles and is capable of simulating the complex interface behavior such as phase transformation, stress hardening and softening, stress degradation, cyclic accumulative contraction, cyclic contraction stabilization and stress path dependency under different loading conditions. The interface model requires eight calibration parameters to simulate gravelly soil-structure interface behavior, nine parameters to simulate the practical behavior of granular (sandy and gravel) soil-structure interfaces, and eleven calibration parameters for granular soil-structure interfaces considering particle breakage. All model parameters have physical meaning and can be readily determined using standard interface shear tests. The model capabilities were validated using experimental data collected from the literature. Model Implementation Phase: The developed interface constitutive model was implemented into a general-purpose finite element (FE) code (ABAQUS) in the form of a solid thin-layer interface element. The numerical integration scheme employed in the implementation phase was examined through simulation of different boundary value problems, including single element shear test, slide block shear test and shaft pullout test under different time step sizes. Model Application Phase: In this phase, the static and seismic responses of concrete-faced rockfill dams (CFRD) were examined considering the effect of the concrete face slab-cushion layer interaction at the interface. The effects of different elements, such as interface modeling approach, reservoir water level and interface roughness, on the response of the concrete face slab in CFRDs were evaluated under both static and dynamic conditions due to earthquake ground motion. Keywords: granular soil-structure interface, geo-structures, constitutive modeling, model development, model implementation, numerical simulation, monotonic and cyclic loading, concrete-faced rockfill dams
543

Modélisation et optimisation d'un mur solaire avec vitrage dans un bâtiment résidentiel

Do, Mai Thi 19 April 2018 (has links)
L'efficacité énergétique des bâtiments occupe une place de plus en plus importante dans la société. Afin de réduire la consommation énergétique des bâtiments, le mur solaire avec vitrage a été élaboré. Ce système est composé d'un vitrage placé devant un mur massif d'une grande absorptivité créant une cavité entre les deux. Le présent travail est divisé en deux parties revoyant chacune à un article scientifique. L'objectif principal de cette étude sera d'optimiser le mur solaire avec vitrage, afin de minimiser la charge de chauffage et de climatisation dans un bâtiment. Pour atteindre cet objectif, un modèle numérique a été réalisé dans le logiciel MATLAB™ permettant de simuler le comportement thermique du système et de déterminer la charge de chauffage et de climatisation requise pour maintenir les conditions intérieures confortables dans un bâtiment résidentiel. Le modèle numérique est validé grâce à des logiciels de simulation de bâtiments et des résultats obtenus dans un article scientifique. Une fois le modèle validé, des études paramétriques ont été faites afin d'étudier l'influence de différents paramètres du système sur la performance de celui-ci et de trouver les valeurs optimales. L'étude considère une période d'un an et utilise des données météorologiques pour la ville de Québec (Canada). Une optimisation des paramètres géométriques à l'aide de routines d'optimisation de MATLAB™ a été faite. Un design optimal du mur solaire avec vitrage est également proposé.
544

Three essays on exchange rate pass-throughs and pricing to market / 3 essays on exchange rate pass-throughs and pricing to market

Ammar, Nasreddine 16 October 2019 (has links)
Dans cette thèse, nous étudions comment les firmes ajustent leurs prix dans différents marchés pour répondre aux variations du taux de change (report de taux de change). En règle générale, l’incidence des mouvements de change sur les prix dépend des caractéristiques de chaque marché telles que la nature de la concurrence et l’élasticité de la demande. Le report de taux de change (RTC) et la tarification en fonction du marché sont analysés dans trois chapitres en utilisant les théories du commerce international et de l’organisation industrielle. Le RTC est complet lorsque les variations du taux de change sont pleinement transmises aux prix à l’exportation. Le RTC est incomplet lorsque les variations de change ne se répercutent pas intégralement sur les prix à l’exportation. Un RTC est pervers si le prix varie plus proportionnellement que le taux de change. Le premier chapitre examine la relation entre la durée de conservation des produits alimentaires et les RTC. Plusieurs produits agroalimentaires ont la caractéristique d’être vendus rapidement ou transformés en produits moins périssables, stockés et commercialisés dans des périodes ultérieures. Cette relation verticale entre produits frais et produits transformés a une incidence sur les RTC. Notre modèle prend en considération la capacité de traitement et de stockage. Nos résultats montrent que le degré de périssabilité du produit transformé diminue les RTC au prix des produits frais et transformés avant l’accumulation des stocks, et les augmente au cours de l’accumulation des stocks. Dans ce chapitre, nous constatons aussi une relation négative entre la persistance de l’appréciation du taux de change et l’accumulation des stocks. Nous y montrons également que des RTC pervers peuvent émerger à court terme si les coûts des intrants échangés couvrent une part significative des coûts totaux, même si les RTC à long terme sont toujours incomplets. Le deuxième chapitre analyse les RTC aux prix à l’exportation en présence de la production conjointe. Plusieurs produits agricoles partagent certains intrants et sont produits dans des proportions fixes (par exemple les épaules de porc et les reins de porc ou les pattes de poulet et la poitrine de poulet). Ainsi, l’augmentation de la production d’un produit s’accompagne d’une augmentation de la production d’autres produits. Il s’ensuit que le RTC au prix d’un produit est directement lié aux RTC aux autres produits joints. En conséquence, certains RTC peuvent être pervers, surtout lorsque les consommateurs du pays d’origine et des pays étrangers ont des préférences non identiques ou que les produits joints partagent des proportions d’intrants asymétriques. Aussi dans ce chapitre, nous montrons que le degré de substitution entre les produits renforce les RTC pervers. Enfin, nous montrons que les firmes ont tendance à faire des ajustements de prix plus petits quand il y a moins de produits conjoints. Le dernier chapitre généralise les fonctions de coût de production et de transformation du modèle du premier chapitre et suppose que les fonctions coûts peuvent prendre des formes non linéaires. Dépendamment du degré de convexité de ces fonctions, la technologie de production et de transformation peut être caractérisée par des économies ou déséconomies de taille. Les RTC aux prix à l’exportation sont souvent incomplets, mais des répercussions perverses peuvent découler de différentes hypothèses concernant les coûts marginaux de production et de transformation. / This thesis outlines how firms adjust their prices in different markets in response to exchange rate variations (exchange rate pass-through). Generally, these price adjustments depend on each market’s characteristics such as the degree of competition, demand elasticities, and product characteristics (pricing to market). We investigate the exchange rate pass-through (ERPT) and pricing to market (PTM) in three chapters employing concepts from international trade theory and industrial-organization (I/O) approach. The ERPT is complete when the export price just offsets the variation in the exporting country’s currency. The ERPT is incomplete when the change in the exchange rate is not completely transmitted to the export price. The ERPT is perverse when the export price varies more proportionally than the exchange rate. In the first chapter, we examine the relationship between the shelf life of food products, the processing technology, and the ERPTs. Several food products have the characteristic of being sold quickly or being converted to less perishable products, stored and marketed in subsequent periods. Such coupling between fresh and processed products impacts on how their prices evolve in response to exchange rate shocks. Our model considers the capacity of processing and storage. Our results show that the rise in the perishability of the processed product decreases the short-run ERPTs for the fresh and processed product prices before the inventory accumulation and increases the short-run ERPTs during the inventory building. Moreover, we find a negative relationship between the persistence of the exchange rate appreciation and the inventory accumulation. We also show that perverse short-run ERPTs can emerge if the trade cost accounts for a significant proportion of the total costs even if the long-run pass-throughs are always incomplete. In the second chapter, we analyze the ERPTs for export prices in the presence of jointness in production. Several agricultural products share some inputs and are produced in fixed proportions (e.g., pork shoulders and pork loins or chicken legs and chicken breast). Thus, the increase in the production of one product is accompanied by increases in the production of other products. It follows that the ERPT of one product is directly linked to the ERPT of jointly produced products. As a result, some ERPTs may be perverse, especially when consumers in the home and foreign countries have non-identical heterogeneous preferences or the joint products are produced in asymmetric proportions. We also show that the degree of substitutability between products enhances the perverse ERPTs. Finally, we show that the firm tends to make smaller price adjustments when there are fewer joint products. In the last chapter, we develop a static version of the model developed that allows production and processing costs to take nonlinear forms. The latter lead to economies or diseconomies of scale depending on their convexity properties. The ERPTs of export prices are often incomplete but perverse ERPTs can be observed under different assumptions regarding marginal production and processing costs.
545

Essais 1-G sur fondations superficielles : simulateur sismique et lois de similitudes

Rioux, Marc-Denis 20 April 2018 (has links)
Un cadre théorique et technique est développé afin de permettre la réalisation d'essais à la table vibrante visant l'étude du comportement de fondations superficielles reposant sur sol pulvérulent sec. Une revue exhaustive de la littérature est réalisée et permet de dégager les principales problématiques ainsi que de faire le point sur l'état des connaissances dans le domaine. Est ensuite développée une théorie de modélisation dimensionnelle spécifiquement appliquée à l'étude des sols en condition 1-g devant permettre de prédire adéquatement le comportement d'une structure réelle en fonction du comportement d'une structure de petite taille au laboratoire. Cette approche est basée sur les recommandations de plusieurs auteurs et sur le modèle de la mécanique d'état critique. L'aspect technique du projet comprend le développement d'un système de confinement pour des échantillons de sols de grandes dimensions. Le système permet d'obtenir des conditions de déformations de type champs libre pour un cas de déformation plane. Ces conditions sont obtenues via l'utilisation d'un mécanisme novateur de dissipation d'énergie, spécifiquement développé dans le cadre de ce projet de recherche. L'analyse structurale complète de la boîte est réalisée et présentée en détails. Un sable naturel de la région de Montréal, un sable à mortier, est étudié au laboratoire de l'Université Laval. Ce sable doit pouvoir servir de support à la fondation lors des essais à la table vibrante. L'objectif est de permettre de dégager les propriétés mécaniques du sol afin de recourir à la théorie de la modélisation ce qui permettra d'assurer une concordance entre le comportement du modèle en laboratoire et la structure réelle. Finalement, une analyse numérique est réalisée afin d'évaluer l'impact des frontières rigides sur le comportement en rotation des fondations superficielles. L'objectif est d'évaluer la distance minimale devant être respectée en fonction de la pression de contact entre la semelle et le sol afin de permettre de maximiser les dimensions de la fondation utilisée au laboratoire lors des essais 1-g.
546

Point predictions for objectively known distributions

Pierrot, Thibaud 19 April 2018 (has links)
L’objectif de ce mémoire est de mieux comprendre comment les agents résument une distribution de probabilité en un point. Nous proposons une approche expérimentale permettant d’observer la relation entre les prédictions des agents pour la réalisation future d’une variable aléatoire et la distribution de probabilité objective de cette variable. Pour ce faire, nous avons créé et conduit une experience durant laquelle nous montrons à nos sujets différentes distributions de probabilités pour des variables aléatoires. Leur tâche est de résumer ces distributions en une prédiction pour la réalisation suivante de la variable aléatoire considérée. Nous analysons les données receuillies lors de cette experience afin de verifier la pertinence de celles-ci. Nous montrons que la base de données produite contient des informations pertinentes concernant le lien entre prediction et distribution de probabilité. Par la suite, nous tentons d’établir une relation dirècte entre les prédictions rapportées et les percentiles des distributions de probabilité. Nous trouvons que 32% de nos sujets rapportent une prédiction contenue dans l’intervalle de percentile [40 ; 68] pour au moins 50% des distributions. Toutefois, cette relation semble avoir un pouvoir explicatif relativement faible. Mots clefs : Prédiction - Distribution de Probabilité - Croyances - Prise de Décision Face au Risque - Règles de Score Propres - Methode Expérimentale / The objective of this thesis is to better understand how people summarize their subjective distributions when asked for point predictions. We propose an experimental approach to investigate the relationship between point predictions reported by agents for the realization of a random variable and its objectively known probability distribution. We designed and conducted an experiment in which we were showing to our subjects the distributions for a random variable and asked them to report a point summarizing their beliefs for the next realization. We conduct a descriptive analysis to verify whether the data we collected in our experiment are pertinent. We then investigate whether percentiles of the distribution could be an explanation for our subjects’ point predictions. We find that the distributions have an influence on the predictions and that 32% of the subjects report predictions corresponding to a percentile included in the range [40; 68] for more than 50% of the distributions. Consequently, we can see that the database must contain relevant information as to how the subjects summarize distributions into point predictions but percentiles only seem to be a weak explanatory factor for the relationship between distributions and point predictions. Keywords: Point predictions - Probability distribution - Beliefs - Decision making under risk - Proper Scoring Rules - Experimental method
547

Iterative restricted space search : a solving approach based on hybridization

Pécora, José Eduardo Junior 13 April 2018 (has links)
Face à la complexité qui caractérise les problèmes d'optimisation de grande taille l'exploration complète de l'espace des solutions devient rapidement un objectif inaccessible. En effet, à mesure que la taille des problèmes augmente, des méthodes de solution de plus en plus sophistiquées sont exigées afin d'assurer un certain niveau d 'efficacité. Ceci a amené une grande partie de la communauté scientifique vers le développement d'outils spécifiques pour la résolution de problèmes de grande taille tels que les méthodes hybrides. Cependant, malgré les efforts consentis dans le développement d'approches hybrides, la majorité des travaux se sont concentrés sur l'adaptation de deux ou plusieurs méthodes spécifiques, en compensant les points faibles des unes par les points forts des autres ou bien en les adaptant afin de collaborer ensemble. Au meilleur de notre connaissance, aucun travail à date n'à été effectué pour développer un cadre conceptuel pour la résolution efficace de problèmes d'optimisation de grande taille, qui soit à la fois flexible, basé sur l'échange d'information et indépendant des méthodes qui le composent. L'objectif de cette thèse est d'explorer cette avenue de recherche en proposant un cadre conceptuel pour les méthodes hybrides, intitulé la recherche itérative de l'espace restreint, ±Iterative Restricted Space Search (IRSS)>>, dont, la principale idée est la définition et l'exploration successives de régions restreintes de l'espace de solutions. Ces régions, qui contiennent de bonnes solutions et qui sont assez petites pour être complètement explorées, sont appelées espaces restreints "Restricted Spaces (RS)". Ainsi, l'IRSS est une approche de solution générique, basée sur l'interaction de deux phases algorithmiques ayant des objectifs complémentaires. La première phase consiste à identifier une région restreinte intéressante et la deuxième phase consiste à l'explorer. Le schéma hybride de l'approche de solution permet d'alterner entre les deux phases pour un nombre fixe d'itérations ou jusqu'à l'atteinte d'une certaine limite de temps. Les concepts clés associées au développement de ce cadre conceptuel et leur validation seront introduits et validés graduellement dans cette thèse. Ils sont présentés de manière à permettre au lecteur de comprendre les problèmes que nous avons rencontrés en cours de développement et comment les solutions ont été conçues et implémentées. À cette fin, la thèse a été divisée en quatre parties. La première est consacrée à la synthèse de l'état de l'art dans le domaine de recherche sur les méthodes hybrides. Elle présente les principales approches hybrides développées et leurs applications. Une brève description des approches utilisant le concept de restriction d'espace est aussi présentée dans cette partie. La deuxième partie présente les concepts clés de ce cadre conceptuel. Il s'agit du processus d'identification des régions restreintes et des deux phases de recherche. Ces concepts sont mis en oeuvre dans un schéma hybride heuristique et méthode exacte. L'approche a été appliquée à un problème d'ordonnancement avec deux niveaux de décision, relié au contexte des pâtes et papier: "Pulp Production Scheduling Problem". La troisième partie a permit d'approfondir les concepts développés et ajuster les limitations identifiées dans la deuxième partie, en proposant une recherche itérative appliquée pour l'exploration de RS de grande taille et une structure en arbre binaire pour l'exploration de plusieurs RS. Cette structure a l'avantage d'éviter l'exploration d 'un espace déjà exploré précédemment tout en assurant une diversification naturelle à la méthode. Cette extension de la méthode a été testée sur un problème de localisation et d'allocation en utilisant un schéma d'hybridation heuristique-exact de manière itérative. La quatrième partie généralise les concepts préalablement développés et conçoit un cadre général qui est flexible, indépendant des méthodes utilisées et basé sur un échange d'informations entre les phases. Ce cadre a l'avantage d'être général et pourrait être appliqué à une large gamme de problèmes.
548

Influence de la formulation d'évapotranspiration potentielle sur la transposabilité temporelle et le comportement du modèle SWAT

Maranda, Benoit 20 April 2018 (has links)
Le choix d’une formulation d’évapotranspiration potentielle (FETP) en modélisation hydrologique n’est pas une tâche évidente. Les hydrologues optent souvent pour une formulation leur étant familière ou pour une déjà disponible dans le modèle utilisé. Ce mémoire examine l’influence de la FETP sur la transposabilité temporelle ainsi que le comportement du modèle SWAT appliqué à un bassin versant canadien soumis à une importante crue printanière. Dans cette optique, 20 FETP sont testées en plus des trois FETP déjà incluses dans SWAT. L’étude consiste en une analyse de sensibilité de Sobol et une calibration SCE-UA sur quatre périodes ayant des caractéristiques climatiques contrastées. Les résultats ont montré que la FETP influence la transposabilité temporelle de SWAT autant que son comportement en termes de sensibilité paramétrique et de jeux de paramètre optimaux. Ces résultats soulignent l’importance de choisir une FETP appropriée aux objectifs de modélisation.
549

Time-dependent routing : models, algorithms, and the value of information

Jaballah, Rabie 20 April 2022 (has links)
Le problème de tournées de véhicules (Vehicle routing problem - VRP), introduit il y a plus de 60 ans, demeure au cœur des systèmes de transport. Après des décennies de développement, le VRP, par son ensemble très riche de variantes, représente l'un des problèmes les plus étudiés dans la littérature. Pourtant, en raison du manque de données, deux hypothèses importantes font que le VRP ne s'adapte pas efficacement au trafic et à la congestion, deux éléments importants pour modéliser de façon réelle des problèmes pratiques. Une première hypothèse considère que la vitesse de déplacement est constante dans le temps. La seconde, considère que chaque paire de nœuds (clients) n'est reliée que par un arc, ignorant le réseau routier implicite (sous-jacent). La congestion de la circulation est l'un des plus grands défis des systèmes de transport. Ces systèmes étant directement affectés par la congestion, l'ensemble de la chaîne d'approvisionnement doit s'adapter à ce facteur, ce qui n'est pas simple. La croissance continue du fret au cours des dernières années aggrave encore la situation et une attention renouvelée à la mobilité, à l'environnement et à la logistique urbaine a mis en lumière ces questions. Récemment, les avancées technologiques en communication et en acquisition de données en temps réel ont permis de collecter plusieurs informations sur les véhicules telles que leur localisation, leur accélération, leur vitesse, leur décélération, etc. Ainsi, nous pouvons remettre en question la façon dont nous définissons, modélisons et résolvons les problèmes de transport. Ceci nous permet de surmonter les deux hypothèses mentionnées en intégrant non seulement les informations relatives à la congestion, mais aussi en considérant l'ensemble du réseau routier. Dans cette thèse nous considérons l'ensemble du réseau routier sous-jacent, ce qui signifie que nous avons les nœuds clients mais également tous les nœuds intermédiaires qui constituent ce réseau. Ensuite, nous modélisons le temps de trajet de chaque route individuellement au cours de la journée. En divisant une journée en petits intervalles, jusqu'à une précision de l'ordre de la seconde, nous prenons en considération des informations précises sur le trafic. Il en résulte un nouveau problème appelé le problème de tournées de véhicules à plus court chemin avec dépendance du temps (Time-dependant shortest path vehicle routing problem - TD-SPVRP), dans lequel nous combinons le problème du plus court chemin avec dépendance du temps et le VRP avec dépendance du temps, créant ainsi un problème plus général et très complexe. Le TD-SPVRP est plus proche des conditions réelles et il constitue le sujet du chapitre 2 où nous le formulons comme un modèle de programmation linéaire en nombres entiers mixtes et concevons une heuristique rapide et efficace pour le résoudre. Nous testons le modèle ainsi que l'heuristique sur des instances générées à partir de données réelles de circulation sur le réseau routier de la ville de Québec, Canada. Les résultats montrent que l'heuristique fournit des solutions de haute qualité avec un écart moyen de 5,66% par rapport aux bornes inférieures déterminées par le modèle. Cependant, le modèle mathématique ne parvient pas à trouver aucune solution pour les instances de données réelles. Pour pouvoir résoudre ce problème complexe, une grande attention a été portée à la performance de l'implantation des algorithmes proposés afin d'améliorer leur rapidité en termes de temps d'exécution. Le problème reste très compliqué, surtout lorsque nous considérons une grande partie du réseau routier sous-jacent avec des données de trafic très précises. Pour cela, nous avons utilisé différentes techniques pour optimiser l'effort de calcul afin de résoudre le problème en évaluant l'impact engendré sur la précision tout en évitant la perte de précieuses informations. Nous avons développé deux types d'agrégation de données couvrant deux niveaux d'information différents. Premièrement, nous avons manipulé la structure du réseau en réduisant sa taille, et deuxièmement en contrôlant le niveau d'agrégation temporel pour générer les données de trafic et pour déterminer la vitesse d'un véhicule à tout moment. Pour la structure du réseau, nous avons utilisé différentes techniques de réduction de graphe pour en réduire la taille. Nous avons étudié la valeur et le compromis de l'information spatiale. Les solutions générées en utilisant le graphe réduit sont analysées dans le Chapitre 3 pour évaluer la qualité et la perte d'information dû à la réduction. Cette analyse démontre également que la transformation classique du TD-SPVRP en un problème de tournées dépendant du temps (Time-dependant VRP - TD-VRP) équivalent résulte en un graphe plus grand qui nécessite un temps de traitement important ce qui a un impact sur la qualité de la solution. Notre développement montre que la résolution du TD-SPVRP nécessite en moyenne 1445 secondes tandis que la résolution du TD-VRP associé nécessite 41 181 secondes. Garder un haut niveau de précision et réussir à réduire la taille du graphe est possible. En particulier, deux procédures de réduction ont été développées, la réduction des nœuds et la réduction des arcs parallèles. Les deux techniques réduisent la taille du graphe. La réduction des nœuds conduit à une amélioration de 1,11%, la réduction des arcs parallèles donne un écart de 2,57% signifiant la présence d'une distorsion dans le graphe réduit. En ce qui concerne les informations sur le trafic, nous avons analysé les compromis entre une grande quantité de données très précises et un plus petit volume de données agrégées avec une perte potentielle d'information. Ceci est fait en analysant la précision des données agrégées sous différents modèles de détermination des temps de parcours. Ces approches sont présentées dans le Chapitre 4. Au niveau de la prévision des temps de parcours, il est important que chaque segment routier ait des observations de vitesse pour chaque intervalle de temps considéré, ce que nous appelons le niveau de couverture du réseau. Notre analyse indique qu'une couverture complète du réseau routier à tout moment de la journée est nécessaire pour atteindre un niveau de précision élevé. Le recours à une agrégation élevée (de grands intervalles de temps) permet de réduire la taille du problème et d'obtenir une meilleure couverture des données, mais au prix d'une perte d'information. Les modèles analysés, LTM (link travel mode) et FSM (flow speed model), partagent les mêmes performances lorsqu'on utilise un grand intervalle de temps (120, 300 et 600 secondes), donc un niveau d'agrégation plus élevé, avec un écart moyen absolu de 5,5% par rapport aux temps de parcours observés. Cependant, avec une courte période (1, 10, 30 et 60 secondes), FSM fonctionne mieux que LTM. Pour un intervalle d'une seconde, FSM donne un écart absolu moyen de 6,70%, tandis que LTM fournit un écart de 11,17%. Ce chapitre détermine ainsi sous quelles conditions les modèles d'estimation de temps de parcours fonctionnent bien et procurent des estimations fidèles des temps de parcours réalisés. Cette thèse est structurée de la manière suivante. À la suite d'une introduction générale dans laquelle nous présentons le cadre conceptuel de la thèse et son organisation, le Chapitre 1 présente une revue de la littérature pour les deux problèmes fondamentaux étudiés, le problème de plus court chemin (Shortest path problem - SPP) et le VRP et leurs variantes développées au cours des années. Le Chapitre 2 introduit une nouvelle variante du VRP, le TD-SPVRP. Le Chapitre 3 présente les différentes techniques développées pour réduire la taille du réseau en manipulant les informations spatiales du réseau routier. L'impact de ces réductions est évalué et analysé sur des instances réelles en utilisant plusieurs heuristiques. Le Chapitre 4 traite l'impact de l'agrégation des données temporelle et des modèles d'évaluation des temps de parcours. Le dernier chapitre constitue une conclusion et ouvre des perspectives de recherche relatives à nos travaux. / The vehicle routing problem (VRP), introduced more than 60 years ago, is at the core of transportation systems. With decades of development, the VRP is one of the most studied problems in the literature, with a very rich set of variants. Yet, primarily due to the lack of data, two critical assumptions make the VRP fail to adapt effectively to traffic and congestion. The first assumption considers that the travel speed is constant over time ; the second, that each pair of customers is connected by an arc, ignoring the underlying street network. Traffic congestion is one of the biggest challenges in transportation systems. As traffic directly affects transportation activities, the whole supply chain needs to adjust to this factor. The continuous growth of freight in recent years worsens the situation, and a renewed focus on mobility, environment, and city logistics has shed light on these issues. Recently, advances in communications and real-time data acquisition technologies have made it possible to collect vehicle data such as their location, acceleration, driving speed, deceleration, etc. With the availability of this data, one can question the way we define, model, and solve transportation problems. This allows us to overcome the two issues indicated before and integrate congestion information and the whole underlying street network. We start by considering the whole underlying street network, which means we have customer nodes and intermediate nodes that constitute the street network. Then, we model the travel time of each street during the day. By dividing the day into small intervals, up to a precision of a second, we consider precise traffic information. This results in a new problem called the time-dependent shortest path vehicle routing problem (TD-SPVRP), in which we combine the time-dependent shortest path problem (TD-SPP) and the time-dependent VRP (TD-VRP), creating a more general and very challenging problem. The TD-SPVRP is closer to what can be found in real-world conditions, and it constitutes the topic of Chapter 2, where we formulate it as a mixed-integer linear programming model and design a fast and efficient heuristic algorithm to solve this problem. We test it on instances generated from actual traffic data from the road network in Québec City, Canada. Results show that the heuristic provides high-quality solutions with an average gap of only 5.66%, while the mathematical model fails to find a solution for any real instance. To solve the challenging problem, we emphasize the importance of a high-performance implementation to improve the speed and the execution time of the algorithms. Still, the problem is huge especially when we work on a large area of the underlying street network alongside very precise traffic data. To this end, we use different techniques to optimize the computational effort to solve the problem while assessing the impact on the precision to avoid the loss of valuable information. Two types of data aggregation are developed, covering two different levels of information. First, we manipulated the structure of the network by reducing its size, and second by controlling the time aggregation level to generate the traffic data, thus the data used to determine the speed of a vehicle at any time. For the network structure, we used different reduction techniques of the road graph to reduce its size. We studied the value and the trade-off of spatial information. Solutions generated using the reduced graph are analyzed in Chapter 3 to evaluate the quality and the loss of information from the reduction. We show that the transformation of the TD-SPVRP into an equivalent TD-VRP results in a large graph that requires significant preprocessing time, which impacts the solution quality. Our development shows that solving the TD-SPVRP is about 40 times faster than solving the related TD-VRP. Keeping a high level of precision and successfully reducing the size of the graph is possible. In particular, we develop two reduction procedures, node reduction and parallel arc reduction. Both techniques reduce the size of the graph, with different results. While the node reduction leads to improved reduction in the gap of 1.11%, the parallel arc reduction gives a gap of 2.57% indicating a distortion in the reduced graph. We analyzed the compromises regarding the traffic information, between a massive amount of very precise data or a smaller volume of aggregated data with some potential information loss. This is done while analyzing the precision of the aggregated data under different travel time models, and these developments appear in Chapter 4. Our analysis indicates that a full coverage of the street network at any time of the day is required to achieve a high level of coverage. Using high aggregation will result in a smaller problem with better data coverage but at the cost of a loss of information. We analyzed two travel time estimation models, the link travel model (LTM) and the flow speed model (FSM). They both shared the same performance when working with large intervals of time (120, 300, and 600 seconds), thus a higher level of aggregation, with an absolute average gap of 5.5% to the observed route travel time. With short periods (1, 10, 30, and 60 seconds), FSM performs better than LTM. For 1 second interval, FSM gives an average absolute gap of 6.70%, while LTM provides a gap of 11.17%. This thesis is structured as follows. After a general introduction in which we present the conceptual framework of the thesis and its organization, Chapter 1 presents the literature review for the two main problems of our development, the shortest path problem (SPP) and the VRP, and their time-dependent variants developed over the years. Chapter 2 introduces a new VRP variant, the TD-SPVRP. Chapter 3 presents the different techniques developed to reduce the size of the network by manipulating spatial information of the road network. The impact of these reductions is evaluated and analyzed on real data instances using multiple heuristics. Chapter 4 covers the impact of time aggregation data and travel time models when computing travel times on the precision of their estimations against observed travel times. The conclusion follows in the last chapter and presents some research perspectives for our works.
550

Développement d'algorithmes dynamiques et stochastiques pour le problème de transport de patients dans les hôpitaux

Torkhani, Mohamed Zied 28 March 2022 (has links)
Ce mémoire traite un problème de transport de personnes dans un contexte hospitalier, connu sous le nom du problème de brancardier. L'objectif est de construire des itinéraires qui répondent aux demandes de transports émergentes entre les différents services d'un grand centre hospitalier en temps réel, en minimisant le temps total de retard pondéré. Ce problème est traité comme un problème de cueillettes et de livraisons multitrajets qui considère des fenêtres de temps souples, une flotte hétérogène de véhicules et des contraintes liées à la capacité. Les requêtes de transport de patients sont imprévisibles et dynamiques. Elles sont révélées lorsqu'un patient nécessite un service de transport pour des raisons médicales. Ce travail présente trois approches de résolution du problème de transport de patients, à noter une première approche statique, une deuxième dynamique et une troisième stochastique. De plus, une stratégie d'attente et deux stratégies de relocalisation de véhicules ont été développées. Les approches sont évaluées sur des données réelles d'un grand hôpital, le Policlinico Sant'Orsola-Malpighi de la mairie de Bologne en Italie. / The following study presents the problem of transportation of patients in the medical field. Demand in this context is unpredictable and revealed dynamically. The objective is to develop an algorithm capable of constructing efficient and effective routes in real time while minimizing the total weighted lateness. This problem is considered as a multitrip pickup and delivery problem with soft time windows, heterogeneous fleet, and capacity constraints. This work presents a detailed description of the discussed problem and proposes three approaches to solve it: a static approach, a dynamic approach and a stochastic one. Moreover, it presents a waiting and two relocalisation strategies. These approaches have all been tested and evaluated using real data collected from the medical campus of Policlinico Sant'Orsola-Malpighi of the town Hall of Bologne in Italy.

Page generated in 0.0784 seconds