• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 19
  • 1
  • Tagged with
  • 96
  • 96
  • 50
  • 30
  • 26
  • 22
  • 18
  • 12
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
52

Comparaison de méthodes d'imputation de données manquantes dans un contexte de modèles d'apprentissage statistique

Bouchard, Simon 14 June 2023 (has links)
Titre de l'écran-titre (visionné le 6 juin 2023) / Le sujet de ce mémoire concerne l'utilisation de données incomplètes qui sont utilisées à des fins d'apprentissage statistique, dans un contexte où une méthode de traitement des données manquantes a été appliquée aux données. La problématique motivant ce travail est la prédiction de l'abandon scolaire chez les étudiants collégiaux. La caractéristique principale de la non-réponse au sein de ces données est que les étudiants ayant le statut d'immigrant ont une non-réponse quasi complète pour certaines variables. À partir d'une étude de simulation répliquant le comportement des données collégiales, différentes méthodes d'imputation sont utilisées sur des jeux de données ayant différentes configurations de non-réponse. Ces données imputées sont ensuite utilisées pour entraîner des modèles d'apprentissage statistique afin d'en évaluer les performances. À partir des résultats de cette étude de simulation, les combinaisons de méthodes d'imputation et de modèles d'apprentissage statistique ayant le mieux performé au niveau des prédictions sont appliquées aux données collégiales afin de déterminer quelles méthodes d'imputation permettent d'obtenir les meilleures performances prédictives. / This thesis deals with the use of incomplete data, to which a missing data treatment has been applied, in a statistical learning problem. The issue motivating this project is the prediction of school dropout among college students. The main characteristic of non-response in these data is that students with immigrant status have non-response for almost all the variables. Based on a simulation study replicating the behavior of college data, different imputation methods are applied on datasets with different nonresponse patterns. The imputed data are then used to train statistical learning models and to evaluate their performance. Based on the results of the simulation study, the best-performing combinations of imputation methods and statistical learning models are applied to college data.
53

Conceptualisation des fonctions exécutives : prolifération, organisation et mesure

Packwood, Sonia 18 April 2018 (has links)
Malgré les nombreuses recherches sur le sujet, le concept des Fonctions Executives (FEs) demeure vague et difficilement opérationnalisable. La présente thèse utilise une approche multi-perspective afin d'améliorer leur conceptualisation. Plus précisément, elle étudie la prolifération, l'organisation et la mesure des FEs. La prolifération des FEs est mesurée à travers une revue de 60 études qui identifient 68 FEs. Une analyse sémantique latente (ASL) ainsi qu'une analyse de classification hiérarchique (ACH) permettent de réduire cet ensemble à 18 FEs en diminuant le chevauchement conceptuel et psychométrique entre les FEs. Une analyse factorielle est utilisée pour vérifier l'organisation et la mesure des FEs. Celle-ci examine la relation entre trois FEs (i.e., inhibition, Mémoire de Travail [MdT] et planification) à l'aide de neuf tâches neuropsychologiques classiques et d'une simulation de la cognition dynamique (CD). Cette simulation reproduit une situation réelle de prise de décision complexe et dynamique. Une analyse factorielle confirmatoire est effectuée sur la performance de 121 participants âgés entre 18 et 50 ans ayant complété les 10 tâches. Les résultats supportent l'hypothèse d'un modèle unitaire des FEs et de la relation significative entre ce concept et celui de la CD à travers lequel un ensemble de FEs peuvent être mesurées simultanément.
54

Conception et mise en œuvre de multichronia, un cadre conceptuel de simulation visuelle interactive

Rioux, François 16 April 2018 (has links)
Cette thèse présente Multichronia, un cadre conceptuel de simulation interactive fournissant une représentation visuelle du cheminement d'un utilisateur dans l'exploration des simulations d'un système complexe. En complément aux méthodes formelles d'analyse, Multichronia vise à aider ses utilisateurs à comprendre un système sous étude en fournissant quatre boucles interactives. La boucle d'exploration de l'espace des paramètres permet à un utilisateur de modifier des paramètres de simulation afin de tester des hypothèses. La boucle d'exploration de l'espace des simulations lui permet de manipuler les données correspondant à des instances de simulation. Notamment, elle rend disponible des opérations de sélection et d'alignement via une interface graphique. La boucle d'exploration de l'espace des données lui permet de transformer les flots de données. Finalement, la boucle d'exploration de l'espace visuel lui permet d'afficher des données et de manipuler leur aspect visuel. Afin de représenter le cheminement d'un utilisateur dans son exploration de l'espace des paramètres, une interface graphique a été développée. Il s'agit de Varbre multichro-nique, une vue formelle donnant une représentation informative de l'état de l'analyse d'un problème ainsi que la possibilité d'exécuter une foule d'opérations interactives. D'autre part, le cadre conceptuel Multichronia forme un pipeline de données générique allant d'un simulateur jusqu'à un logiciel d'analyse. Un modèle conceptuel peut être extrait de ce pipeline de même que le flux de données correspondant. Dans cette thèse, il a été spécialisé avec la technologie XML. Cette dernière permet entre autres de définir une méthodologie de conception du modèle de données associé à un simulateur. La mise en oeuvre de Multichronia a permis de vérifier la validité des concepts proposés. L'architecture logicielle adoptée est un cadre d'application, de sorte que de nouveaux simulateurs puissent être facilement exploités. Deux applications concrètes ont été implantées, soit la simulation tactique et stratégique de l'attaque de convois militaires. Des modifications mineures aux simulateurs ont été nécessaires afin qu'ils rencontrent certains critères établis dans cette thèse. Somme toute, ces applications ont montré que Multichronia peut être déployé pour des applications quelconques.
55

Influence du vieillissement sur le contrôle visuo-locomoteur utilisé pour contourner un piéton approchant avec différents patrons de marche

Fiset, Félix 30 August 2022 (has links)
L'objectif de ce mémoire est de mieux comprendre les informations utilisées par de jeunes adultes et des personnes âgées en santé relativement aux mouvements locomoteurs d'une autre personne pour la contourner dans un environnement représentatif de la marche en communauté. Pour ce faire, deux projets ont été réalisés dans un environnement virtuel représentant un centre commercial. Dans le premier projet (chapitre 2), dix jeunes adultes avaient comme consigne de se diriger vers un café situé devant eux et de contourner au besoin un piéton virtuel approchant avec différents patrons de marche : mouvements locomoteurs normaux; aucun mouvement des bras ; aucun mouvement des jambes ; aucun mouvement des bras et des jambes. Dans le deuxième projet (chapitre 3), 14 jeunes adultes et 14 personnes âgées ont été recrutés afin de réaliser une tâche similaire à la première étude, mais cette fois-ci, avec un piéton virtuel ayant une trajectoire de marche initialement imprévisible. La trajectoire de marche, le dégagement minimal, la vitesse de marche, les stratégies de réorientation du corps et les stratégies visuelles ont été étudiés. Des analyses non paramétriques de données longitudinales ont été utilisées pour comparer les variables entre les âges et les conditions. L'absence de mouvements des bras et des jambes d'un piéton se traduisait par une stratégie de contournement plus conservatrice tant chez les jeunes que chez les personnes âgées en augmentant les distances maintenues avec le piéton. Les personnes âgées avaient besoin de plus de temps pour traiter l'information, ce qui résultait en une déviation de trajectoire plus tardive et une attention visuelle davantage dirigée sur le piéton. Ces changements liés au vieillissement pourraient se traduire par un risque accru de chutes chez les populations âgées présentant des troubles d'équilibre et contribuer à limiter la marche dans la communauté. / The objective of this master's thesis was to better understand the information used by healthy young and older adults during circumvention depending on the locomotor movements of another pedestrian within an environment representative of community walking. To do this, two projects were carried out in a virtual environment representing a shopping mall. In the first project (Chapter 2), ten young adults were instructed to walk towards a coffee shop located in front of them and to circumvent an approaching virtual pedestrian with different locomotor movements: Normal locomotor movement; No arm movement; No leg movement; No arm and leg movement. In the second project (Chapter 3), 14 young adults and 14 older adults were recruited to perform a task similar to the first study, but this time with a virtual pedestrian approaching with an initially unpredictable trajectory. Walking trajectory, minimum clearance, walking speed, body reorientation strategies and gaze behaviour were studied. Non parametric Analyses of Longitudinal Data were used to compare variables across the age groups and conditions. The absence of arm and leg movements from a pedestrian resulted in a more cautious strategy for both young and older adults by increasing the distances maintained with the pedestrian. The older adults needed more time to process visual information, which resulted in a later trajectory deviation and more visual attention directed to the pedestrian. These age-related changes could result in an increased risk of falls in older adult populations with reduced balance and mobility and contribute to limiting community ambulation.
56

Estimation non-paramétrique d'anticipations subjectives de variables aléatoires continues : une application au jeu de confiance

Bissonnette, Luc 12 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Ce mémoire propose une méthode non-paramétrique pour estimer la distribution des anticipations subjectives face à la réalisation d'une variable aléatoire continue. Cette méthode d'estimation, utilisant des splines cubiques, permet d'obtenir une estimation de la fonction de distribution sans supposer qu'elle appartient à une famille de fonctions paramétriques. Afin d'illustrer une application possible de cette méthode, un modèle structurel a été estimé dans le but de séparer le rôle des anticipations et des préférences sociales dans une décision en contexte de laboratoire. La décision étudiée est celle d'envoyer ou de garder sa dotation initiale dans un jeu de confiance, inspiré du protocole présenté par Berg et al. (1995). Cette décision étant souvent interprétée comme une mesure de confiance, il a semblé intéressant de vérifier si les anticipations face au comportement des individus motivent effectivement la décision des participants. À la lueur des estimations réalisées, il semblerait que, bien que les anticipations subjectives jouent un rôle dans la décision d'envoyer ou de garder sa dotation initiale, il s'agit d'un rôle secondaire. Le principal facteur motivant cette décision serait plutôt lié aux préférences sociales des individus, ce qui remet en doute sa pertinence comme mesure de confiance.
57

Modélisation en centrifugeuse pour l'étude du comportement d'un barrage en enrochement avec un noyau mince

Soud, Ibrahim 24 April 2018 (has links)
Cette thèse contribue au domaine de la modélisation en centrifugeuse géotechnique des barrages en enrochement. Étant donné que les essais œdométriques sont généralement utilisés pour estimer les déformations verticales de la partie centrale des barrages en enrochement, une étude comparative a été réalisée entre les déformations verticales des modèles en centrifugeuses d’assemblages de particules de roche avec des pentes non supportées (2D) et les déformations verticales observées au cours des essais œdométriques (1D). Les deux types d’essais ont été effectués sur des assemblages de particules de roche avec la même granulométrie, tout en tenant compte de l’effet de la compacité. La comparaison a montré que pour une densité relative donnée, les modèles en centrifugeuses ont subi des déformations verticales plus élevées que celles des spécimens œdométriques et que le rapport entre les déformations verticales des sommets des modèles et celles obtenues lors des essais œdométriques diminue quand la densité relative augmente. De plus, une autre série d’essais en centrifugation a été réalisée sur des modèles de barrages en enrochement avec des noyaux centraux minces pour simuler le comportement typique de ce type de barrages pendant la construction et le remplissage du réservoir, tout en explorant les effets de la granulométrie et d’échelle sur la réponse de ces modèles. Ces modèles ont différentes granulométries alors qu’ils ont la même densité relative. Tout au long des essais, la rigidité de réponse a été plus élevée quand le coefficient d’uniformité des granulométries des modèles augmente pour la même taille maximale des particules et quand la taille maximale des particules diminue pour des granulométries parallèles. La taille des particules dans les grandes structures en enrochement telles que les barrages en enrochement empêche les essais de laboratoire sur ces matériaux et par conséquent, la prédiction du comportement sur le terrain nécessite le développement d’une méthode d’analyse afin d’extrapoler les résultats des essais de laboratoire tout en prenant les effets d’échelle et de la granulométrie en compte. Une méthode d’analyse est adoptée dans ce travail afin d’extrapoler les résultats des essais en centrifugeuses menés sur les modèles, déjà mentionnés, des barrages en enrochement avec des noyaux centraux minces, ce qui a permis la prédiction des déformations verticales de différentes zones du barrage de la Romaine 2. Cette méthode d’analyse est basée sur les effets d’échelle sur l’aptitude à la fragmentation des matériaux granulaires et il tient compte des résultats expérimentaux passés relatifs à cette question. Les valeurs prédites des déformations verticales de différentes zones du barrage de la Romaine 2 étaient dans le même ordre des valeurs des mesures in situ pendant la construction et le premier remplissage. / This thesis contributes to the domain of geotechnical centrifuge modeling of rockfill dams. Given that odometer testing is usually used to estimate the vertical deformations of the central part of rockfill dams, a comparative study was performed between the vertical deformations of centrifuge models of rock particle assemblages with unsupported slopes (2D) and the vertical deformations observed during oedometer tests (1D). Both types of testing were conducted on rock particle assemblages with the same gradation while considering the effect of compactness. The comparison showed that for a given relative density, the centrifuge models experienced higher vertical deformations than those of the oedometer specimens and the ratio between the vertical deformation of the top of the models and that obtained during the oedometer tests decreases as relative density increases. Furthermore, another series of centrifuge tests was conducted on models of rockfill dams with thin central cores to simulate the typical behavior of such type of dams during construction and reservoir impoundment while exploring the effects of gradation and size scale on the response of these models. These models have different gradations while they have the same relative density. Throughout the tests, the response stiffness was higher as uniformity coefficient of the models’ gradations increases for the same maximum particle size and as maximum particle size decreases for parallel gradations. Particle size in large rockfill structures such as rockfill dams prevent laboratory testing of these materials and consequently, the prediction of field behaviour requires the development of an analysis method in order to extrapolate the laboratory testing results while taking the effects of size scale and gradation in consideration. An analysis method is adopted in this work in order to extrapolate the results of the centrifuge tests conducted on the already mentioned models of rockfill dams with central thin cores, which allowed the prediction of vertical deformations of different zones of the Romaine 2 dam. This analysis method is based on size scale effects on the crushability of granular materials and it considers past experimental findings relating to this issue. The predicted values of vertical deformations of different zones of the Romaine 2 dam were in the same order of the field measurement values during construction and reservoir impoundment.
58

Contribution aux analyses de la stabilité structurale des excavations minières souterraines de géométries complexes par modélisation DFN

Durham, Christopher 27 November 2023 (has links)
Titre de l'écran-titre (visionné le 20 novembre 2023) / Dans des conditions de faible contrainte, l'absence de confinement peut causer des chutes de blocs, un type d'instabilité critique des excavations souterraines. Il est essentiel de considérer à la fois le réseau de fractures du massif rocheux et la géométrie de l'ouverture dans les analyses de stabilité. Toutefois, les outils actuels d'analyse de stabilité des instabilités structurales se limitent à des représentations simplifiées de la géométrie des excavations et ne prennent pas en compte les caractéristiques géométriques détaillées ni la distribution spatiale des discontinuités. De ce fait, ces outils ne sont donc pas intégrés aux processus de conception des excavations minières. Ce mémoire développe une approche numérique améliorée pour l'évaluation des aléas de chutes de blocs tétraédriques formés à la surface des ouvertures minières souterraines. Elle considère la complexité du régime structural en implémentant la modélisation de fractures, mieux connu sous le nom de Discrete Fracture Network (DFN). L'approche développée utilise comme intrant une surface triangulée détaillée de l'excavation souterraine avec des dimensions et inclinaisons variables. Elle permet d'intégrer les résultats de l'analyse aux outils de conception assisté par ordinateur (CAO) minière utilisés dans l'industrie. Une analyse détaillée a montré que la simplification excessive de la géométrie de l'excavation peut entraîner une évaluation inadéquate de la formation des blocs rocheux. Une analyse plus approfondie a également permis d'identifier des blocs allongés non critiques pour la stabilité et des blocs potentiellement instables partiellement formés due à un pont rocheux intact à l'apex. La méthodologie développée a été appliquée avec succès à un cas d'étude de chute de bloc au toit d'une excavation minière souterraine de géométrie complexe en contexte minier en opération. / Geological discontinuities have a large impact on the rock mass behavior in underground excavations. Under low-stress conditions, structurally controlled wedge failure is one of the most critical types of rock instability. The stability analysis must integrate both the rock mass fracture network and the geometry of the opening. However, current wedge stability analysis tools do not typically examine the detailed geometrical characteristics of the rock discontinuities and are limited to simplified representations of excavation geometry, not allowing analysis of excavation surfaces with complex geometries. Consequently, these analysis tools are not integrated into the excavation design processes in the mining industry. This thesis reports on the development of a comprehensive and more rational numerical approach to assess wedge formation around underground mine openings. The approach considers the structural rock mass complexity using Discrete Fracture Network (DFN) modelling and the detailed 3D underground excavation profile obtained from surveying. The approach allows for integrating the analysis results into the Computer-Aided Design (CAD) mine design tools used in the industry. A detailed investigation of the 3D profile and shape of the excavation indicated that an oversimplification of the excavation geometry in the stability analysis can result in an inadequate assessment of wedge formation. Further analyses have allowed us to identify elongated wedges that may not be critical from a stability perspective and wedges that were not entirely formed in the DFN model but may still be critical for the stability of the excavation. The developed methodology was successfully applied to estimate wedges' formation around an underground mine excavation.
59

Fiscalité, programmes sociaux et incitation au travail - une comparaison Québec - Ontario

Blancquaert, Arnaud 23 April 2018 (has links)
Ce mémoire présente un portrait de la situation des taux marginaux effectifs d’imposition (TMEI) et des taux d’imposition à la participation (TIP) sur le revenu de travail au Québec et en Ontario. Il vise une meilleure compréhension de l’impact de la fiscalité et des transferts sociaux sur le comportement des agents, entre autres choses sur le marché du travail. À l’aide d’un modèle de microsimulation comptable reproduisant les systèmes d’impôts et de transferts au Québec et en Ontario, nous mesurons les TMEI et les TIP qui résultent de l’interaction des mécanismes de perception et de redistribution et présentons la répartition des TMEI et des TIP au sein des populations québécoise et ontarienne. Nous produisons en outre une répartition contre-factuelle des TMEI et des TIP en soumettant les ménages québécois au système d’imposition et de transferts sociaux de l’Ontario.
60

Analysis of flexibus and bus integration

Naderizand, Bahareh 09 May 2023 (has links)
Titre de l'écran-titre (visionné le 1er mai 2023) / Le Hub Location Problem (HLP), comme son nom l'indique, traite de la localisation d'un groupe d'installations de concentration et de la conception du réseau afin de fournir la manière la plus efficace d'acheminer le trafic à travers le réseau. Le Hub Arc Location Problem (HALP) intègre les considérations relatives à la localisation des pivots et à la conception du réseau en un seul problème. L'objectif du HALP est de localiser un ensemble d'arcs de pivots de manière à ce que le coût global du flux soit aussi bas que possible. Le projet Flixbus développé par le RTC vise à fournir de meilleurs services porte-à-porte dans les zones suburbaines de Québec. Actuellement, ce système fonctionne séparément du réseau de bus et transporte les passagers des origines aux destinations finales, comme un service de taxi. Dans notre étude, nous examinons la performance de ce système pour fournir un meilleur transport local. De plus, nous proposons un réseau intégré composé d'autobus réguliers et de Flexibus. Ce système vise à transporter de manière simple et rapide les passagers de leur lieu de résidence vers le réseau de bus principal et ensuite vers leurs destinations finales. Nous avons développé un modèle mathématique Hub and Flexibus Public Transit System (HFPTS) traitant de l'intégration des autobus et de Flexibus afin de prendre en compte à la fois le coût et la commodité du transport. Nous avons étudié les intégrations potentielles du Flexibus et des autobus sous forme de quatre scénarios dans notre zone d'étude de cas. Les résultats des calculs ont montré que l'intégration de ces deux systèmes améliore la situation actuelle tant en termes de coût que de niveau de service. / Hub Location Problem (HLP), as the name suggests, deals with locating a group of hub facilities and the design of the network to provide the most efficient way to route the traffic through the network. Hub Arc Location Problem (HALP) integrate hub location and network design considerations into a single problem. The objective of the HALP is to locate a set of hub arcs in a way that the overall flow cost is as low as possible. The Flexibus project seeks to provide better door-to-door services in Quebec's suburban areas. Currently, this system works separately from the bus network and takes passengers from the origins to the final destinations, like a taxi service. In our study, we investigate the performance of this system in providing a better local transportation. Furthermore, we propose an integrated network of regular buses and Flexibus. This system aims to rapidly and simply transport passengers from their locations to the main bus network (as a hub-arc network) and then to their final destinations. We developed a mathematical model Hub and Flexibus Public Transit System (HFPTS) dealing with the bus and Flexibus integration to consider both transportation cost and convenience. We surveyed potential Flexibus and bus integrations as four scenarios in our case study area. Computational results showed that integrating these two systems improves the current situation both in terms of cost and service level.

Page generated in 0.1915 seconds