• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Modélisation d'un écosystème agricole tritrophique : la carotte cultivée, le charançon de la carotte (Listronotus oregonensis) et Anaphes victus, un parasitoïde des oeufs

Rhéaume, Ann-Julie 17 April 2018 (has links)
L'accumulation de degrés-jours requise pour l'émergence printanière du charançon de la carotte a été calculée à partir de données sur les captures effectuées à la ferme expérimentale d'Agriculture et Agroalimentaire Canada à Sainte-Clotilde et s'étalant sur 25 ans. Il a été déterminé que 199, 319 et 561 degré-jours doivent être accumulés afin que l'émergence soit complétée à 5%, 50% et 95%, respectivement. La température de base de mouvement de l'insecte (3.43 ± 0.18 °C), utilisée comme température de base pour le calcul des degrés-jours, a été déterminée en laboratoire.Par la suite, un modèle de simulation numérique a été conçu à l'aide du logiciel MATLAB afin de suivre l'évolution de la population des charançons de la carotte sur toute une saison de croissance. La ponte, le développement physiologique des différents stades phénologiques ainsi que la mortalité de l'insecte ont été modélisés. De plus, afin de prendre en considération l'effet du stade de la carotte sur la ponte du charançon ainsi que l'effet d'Anaphes victus sur sa mortalité, les développements de ces deux organismes ont été intégrés au modèle.
552

Simplification automatique de modèle et étude du régime permanent

Garneau, Cyril 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2009-2010 / Les modèles mathématiques servant à simuler le comportement de stations d'épurations représentent un outil puissant pour concevoir une nouvelle installation ou prédire le comportement d'une station d'épuration déjà existante. Cependant, ces modèles ne fournissent aucune information sur un système particulier sans un algorithme pour les résoudre. Il existe actuellement un grand nombre d'algorithmes d'intégration capables de calculer la solution d'un modèle avec précision. Cependant, les temps de calcul en jeux représentent toujours l'un des obstacles à une utilisation extensive des modèles. Deux approches permettent de réduire les temps de calcul, à savoir l'utilisation de matériel informatique plus puissant ou le développement de logiciels et algorithmes plus performants. L'objectif principal de ce mémoire est de proposer une troisième voie, soit la simplification automatique d'un modèle sur la base de ses valeurs propres. Le jacobien, une approximation locale du modèle, est utilisé comme base de l'étude des valeurs propres. Une méthode d'homotopie est ensuite utilisée pour maintenir le lien entre les valeurs propres et les variables d'état d'un jacobien simplifié à sa seule diagonale aux valeurs propres du jacobien entier. Puisque les valeurs propres représentent une approximation valable de la dynamique des variables d'état d'un modèle, il est possible de trier ces variables d'état sur la base de leurs valeurs propres associées. Les variables d'état présentant une dynamique très rapide par rapport à l'échelle de temps d'intérêt seront alors considérées comme étant toujours à l'équilibre, ce qui permet de négliger leur dynamique transitoire et donc d'accélérer la résolution du modèle. Cette simplification est réalisée à l'intérieur d'un algorithme d'intégration de type Diagonal Implicite de Runge-Kutta capable de résoudre des systèmes d'équations différentielles et algébriques. Ce mémoire s'attaque également à un cas particulier de la simulation, soit le calcul du régime permanent. Ce calcul peut être réalisé par des algorithmes performants ne recherchant que les valeurs des variables d'état mettant à zéro les équations différentielles. Ces algorithmes sont cependant peu fiables puisque toute solution mathématique est jugée valide, peu importe la réalité physique. La solution proposée est l'injection de connaissance sous forme de bornes aux valeurs que peuvent prendre les variables d'état. Des équations algébriques implicites sont construites automatiquement sur ces bornes pour forcer la convergence dans l'intervalle voulu.
553

Essais 1-G sur fondations superficielles : simulateur sismique et lois de similitudes

Rioux, Marc-Denis 20 April 2018 (has links)
Un cadre théorique et technique est développé afin de permettre la réalisation d'essais à la table vibrante visant l'étude du comportement de fondations superficielles reposant sur sol pulvérulent sec. Une revue exhaustive de la littérature est réalisée et permet de dégager les principales problématiques ainsi que de faire le point sur l'état des connaissances dans le domaine. Est ensuite développée une théorie de modélisation dimensionnelle spécifiquement appliquée à l'étude des sols en condition 1-g devant permettre de prédire adéquatement le comportement d'une structure réelle en fonction du comportement d'une structure de petite taille au laboratoire. Cette approche est basée sur les recommandations de plusieurs auteurs et sur le modèle de la mécanique d'état critique. L'aspect technique du projet comprend le développement d'un système de confinement pour des échantillons de sols de grandes dimensions. Le système permet d'obtenir des conditions de déformations de type champs libre pour un cas de déformation plane. Ces conditions sont obtenues via l'utilisation d'un mécanisme novateur de dissipation d'énergie, spécifiquement développé dans le cadre de ce projet de recherche. L'analyse structurale complète de la boîte est réalisée et présentée en détails. Un sable naturel de la région de Montréal, un sable à mortier, est étudié au laboratoire de l'Université Laval. Ce sable doit pouvoir servir de support à la fondation lors des essais à la table vibrante. L'objectif est de permettre de dégager les propriétés mécaniques du sol afin de recourir à la théorie de la modélisation ce qui permettra d'assurer une concordance entre le comportement du modèle en laboratoire et la structure réelle. Finalement, une analyse numérique est réalisée afin d'évaluer l'impact des frontières rigides sur le comportement en rotation des fondations superficielles. L'objectif est d'évaluer la distance minimale devant être respectée en fonction de la pression de contact entre la semelle et le sol afin de permettre de maximiser les dimensions de la fondation utilisée au laboratoire lors des essais 1-g.
554

Point predictions for objectively known distributions

Pierrot, Thibaud 19 April 2018 (has links)
L’objectif de ce mémoire est de mieux comprendre comment les agents résument une distribution de probabilité en un point. Nous proposons une approche expérimentale permettant d’observer la relation entre les prédictions des agents pour la réalisation future d’une variable aléatoire et la distribution de probabilité objective de cette variable. Pour ce faire, nous avons créé et conduit une experience durant laquelle nous montrons à nos sujets différentes distributions de probabilités pour des variables aléatoires. Leur tâche est de résumer ces distributions en une prédiction pour la réalisation suivante de la variable aléatoire considérée. Nous analysons les données receuillies lors de cette experience afin de verifier la pertinence de celles-ci. Nous montrons que la base de données produite contient des informations pertinentes concernant le lien entre prediction et distribution de probabilité. Par la suite, nous tentons d’établir une relation dirècte entre les prédictions rapportées et les percentiles des distributions de probabilité. Nous trouvons que 32% de nos sujets rapportent une prédiction contenue dans l’intervalle de percentile [40 ; 68] pour au moins 50% des distributions. Toutefois, cette relation semble avoir un pouvoir explicatif relativement faible. Mots clefs : Prédiction - Distribution de Probabilité - Croyances - Prise de Décision Face au Risque - Règles de Score Propres - Methode Expérimentale / The objective of this thesis is to better understand how people summarize their subjective distributions when asked for point predictions. We propose an experimental approach to investigate the relationship between point predictions reported by agents for the realization of a random variable and its objectively known probability distribution. We designed and conducted an experiment in which we were showing to our subjects the distributions for a random variable and asked them to report a point summarizing their beliefs for the next realization. We conduct a descriptive analysis to verify whether the data we collected in our experiment are pertinent. We then investigate whether percentiles of the distribution could be an explanation for our subjects’ point predictions. We find that the distributions have an influence on the predictions and that 32% of the subjects report predictions corresponding to a percentile included in the range [40; 68] for more than 50% of the distributions. Consequently, we can see that the database must contain relevant information as to how the subjects summarize distributions into point predictions but percentiles only seem to be a weak explanatory factor for the relationship between distributions and point predictions. Keywords: Point predictions - Probability distribution - Beliefs - Decision making under risk - Proper Scoring Rules - Experimental method
555

Iterative restricted space search : a solving approach based on hybridization

Pécora, José Eduardo Junior 13 April 2018 (has links)
Face à la complexité qui caractérise les problèmes d'optimisation de grande taille l'exploration complète de l'espace des solutions devient rapidement un objectif inaccessible. En effet, à mesure que la taille des problèmes augmente, des méthodes de solution de plus en plus sophistiquées sont exigées afin d'assurer un certain niveau d 'efficacité. Ceci a amené une grande partie de la communauté scientifique vers le développement d'outils spécifiques pour la résolution de problèmes de grande taille tels que les méthodes hybrides. Cependant, malgré les efforts consentis dans le développement d'approches hybrides, la majorité des travaux se sont concentrés sur l'adaptation de deux ou plusieurs méthodes spécifiques, en compensant les points faibles des unes par les points forts des autres ou bien en les adaptant afin de collaborer ensemble. Au meilleur de notre connaissance, aucun travail à date n'à été effectué pour développer un cadre conceptuel pour la résolution efficace de problèmes d'optimisation de grande taille, qui soit à la fois flexible, basé sur l'échange d'information et indépendant des méthodes qui le composent. L'objectif de cette thèse est d'explorer cette avenue de recherche en proposant un cadre conceptuel pour les méthodes hybrides, intitulé la recherche itérative de l'espace restreint, ±Iterative Restricted Space Search (IRSS)>>, dont, la principale idée est la définition et l'exploration successives de régions restreintes de l'espace de solutions. Ces régions, qui contiennent de bonnes solutions et qui sont assez petites pour être complètement explorées, sont appelées espaces restreints "Restricted Spaces (RS)". Ainsi, l'IRSS est une approche de solution générique, basée sur l'interaction de deux phases algorithmiques ayant des objectifs complémentaires. La première phase consiste à identifier une région restreinte intéressante et la deuxième phase consiste à l'explorer. Le schéma hybride de l'approche de solution permet d'alterner entre les deux phases pour un nombre fixe d'itérations ou jusqu'à l'atteinte d'une certaine limite de temps. Les concepts clés associées au développement de ce cadre conceptuel et leur validation seront introduits et validés graduellement dans cette thèse. Ils sont présentés de manière à permettre au lecteur de comprendre les problèmes que nous avons rencontrés en cours de développement et comment les solutions ont été conçues et implémentées. À cette fin, la thèse a été divisée en quatre parties. La première est consacrée à la synthèse de l'état de l'art dans le domaine de recherche sur les méthodes hybrides. Elle présente les principales approches hybrides développées et leurs applications. Une brève description des approches utilisant le concept de restriction d'espace est aussi présentée dans cette partie. La deuxième partie présente les concepts clés de ce cadre conceptuel. Il s'agit du processus d'identification des régions restreintes et des deux phases de recherche. Ces concepts sont mis en oeuvre dans un schéma hybride heuristique et méthode exacte. L'approche a été appliquée à un problème d'ordonnancement avec deux niveaux de décision, relié au contexte des pâtes et papier: "Pulp Production Scheduling Problem". La troisième partie a permit d'approfondir les concepts développés et ajuster les limitations identifiées dans la deuxième partie, en proposant une recherche itérative appliquée pour l'exploration de RS de grande taille et une structure en arbre binaire pour l'exploration de plusieurs RS. Cette structure a l'avantage d'éviter l'exploration d 'un espace déjà exploré précédemment tout en assurant une diversification naturelle à la méthode. Cette extension de la méthode a été testée sur un problème de localisation et d'allocation en utilisant un schéma d'hybridation heuristique-exact de manière itérative. La quatrième partie généralise les concepts préalablement développés et conçoit un cadre général qui est flexible, indépendant des méthodes utilisées et basé sur un échange d'informations entre les phases. Ce cadre a l'avantage d'être général et pourrait être appliqué à une large gamme de problèmes.
556

Influence de la formulation d'évapotranspiration potentielle sur la transposabilité temporelle et le comportement du modèle SWAT

Maranda, Benoit 20 April 2018 (has links)
Le choix d’une formulation d’évapotranspiration potentielle (FETP) en modélisation hydrologique n’est pas une tâche évidente. Les hydrologues optent souvent pour une formulation leur étant familière ou pour une déjà disponible dans le modèle utilisé. Ce mémoire examine l’influence de la FETP sur la transposabilité temporelle ainsi que le comportement du modèle SWAT appliqué à un bassin versant canadien soumis à une importante crue printanière. Dans cette optique, 20 FETP sont testées en plus des trois FETP déjà incluses dans SWAT. L’étude consiste en une analyse de sensibilité de Sobol et une calibration SCE-UA sur quatre périodes ayant des caractéristiques climatiques contrastées. Les résultats ont montré que la FETP influence la transposabilité temporelle de SWAT autant que son comportement en termes de sensibilité paramétrique et de jeux de paramètre optimaux. Ces résultats soulignent l’importance de choisir une FETP appropriée aux objectifs de modélisation.
557

Time-dependent routing : models, algorithms, and the value of information

Jaballah, Rabie 20 April 2022 (has links)
Le problème de tournées de véhicules (Vehicle routing problem - VRP), introduit il y a plus de 60 ans, demeure au cœur des systèmes de transport. Après des décennies de développement, le VRP, par son ensemble très riche de variantes, représente l'un des problèmes les plus étudiés dans la littérature. Pourtant, en raison du manque de données, deux hypothèses importantes font que le VRP ne s'adapte pas efficacement au trafic et à la congestion, deux éléments importants pour modéliser de façon réelle des problèmes pratiques. Une première hypothèse considère que la vitesse de déplacement est constante dans le temps. La seconde, considère que chaque paire de nœuds (clients) n'est reliée que par un arc, ignorant le réseau routier implicite (sous-jacent). La congestion de la circulation est l'un des plus grands défis des systèmes de transport. Ces systèmes étant directement affectés par la congestion, l'ensemble de la chaîne d'approvisionnement doit s'adapter à ce facteur, ce qui n'est pas simple. La croissance continue du fret au cours des dernières années aggrave encore la situation et une attention renouvelée à la mobilité, à l'environnement et à la logistique urbaine a mis en lumière ces questions. Récemment, les avancées technologiques en communication et en acquisition de données en temps réel ont permis de collecter plusieurs informations sur les véhicules telles que leur localisation, leur accélération, leur vitesse, leur décélération, etc. Ainsi, nous pouvons remettre en question la façon dont nous définissons, modélisons et résolvons les problèmes de transport. Ceci nous permet de surmonter les deux hypothèses mentionnées en intégrant non seulement les informations relatives à la congestion, mais aussi en considérant l'ensemble du réseau routier. Dans cette thèse nous considérons l'ensemble du réseau routier sous-jacent, ce qui signifie que nous avons les nœuds clients mais également tous les nœuds intermédiaires qui constituent ce réseau. Ensuite, nous modélisons le temps de trajet de chaque route individuellement au cours de la journée. En divisant une journée en petits intervalles, jusqu'à une précision de l'ordre de la seconde, nous prenons en considération des informations précises sur le trafic. Il en résulte un nouveau problème appelé le problème de tournées de véhicules à plus court chemin avec dépendance du temps (Time-dependant shortest path vehicle routing problem - TD-SPVRP), dans lequel nous combinons le problème du plus court chemin avec dépendance du temps et le VRP avec dépendance du temps, créant ainsi un problème plus général et très complexe. Le TD-SPVRP est plus proche des conditions réelles et il constitue le sujet du chapitre 2 où nous le formulons comme un modèle de programmation linéaire en nombres entiers mixtes et concevons une heuristique rapide et efficace pour le résoudre. Nous testons le modèle ainsi que l'heuristique sur des instances générées à partir de données réelles de circulation sur le réseau routier de la ville de Québec, Canada. Les résultats montrent que l'heuristique fournit des solutions de haute qualité avec un écart moyen de 5,66% par rapport aux bornes inférieures déterminées par le modèle. Cependant, le modèle mathématique ne parvient pas à trouver aucune solution pour les instances de données réelles. Pour pouvoir résoudre ce problème complexe, une grande attention a été portée à la performance de l'implantation des algorithmes proposés afin d'améliorer leur rapidité en termes de temps d'exécution. Le problème reste très compliqué, surtout lorsque nous considérons une grande partie du réseau routier sous-jacent avec des données de trafic très précises. Pour cela, nous avons utilisé différentes techniques pour optimiser l'effort de calcul afin de résoudre le problème en évaluant l'impact engendré sur la précision tout en évitant la perte de précieuses informations. Nous avons développé deux types d'agrégation de données couvrant deux niveaux d'information différents. Premièrement, nous avons manipulé la structure du réseau en réduisant sa taille, et deuxièmement en contrôlant le niveau d'agrégation temporel pour générer les données de trafic et pour déterminer la vitesse d'un véhicule à tout moment. Pour la structure du réseau, nous avons utilisé différentes techniques de réduction de graphe pour en réduire la taille. Nous avons étudié la valeur et le compromis de l'information spatiale. Les solutions générées en utilisant le graphe réduit sont analysées dans le Chapitre 3 pour évaluer la qualité et la perte d'information dû à la réduction. Cette analyse démontre également que la transformation classique du TD-SPVRP en un problème de tournées dépendant du temps (Time-dependant VRP - TD-VRP) équivalent résulte en un graphe plus grand qui nécessite un temps de traitement important ce qui a un impact sur la qualité de la solution. Notre développement montre que la résolution du TD-SPVRP nécessite en moyenne 1445 secondes tandis que la résolution du TD-VRP associé nécessite 41 181 secondes. Garder un haut niveau de précision et réussir à réduire la taille du graphe est possible. En particulier, deux procédures de réduction ont été développées, la réduction des nœuds et la réduction des arcs parallèles. Les deux techniques réduisent la taille du graphe. La réduction des nœuds conduit à une amélioration de 1,11%, la réduction des arcs parallèles donne un écart de 2,57% signifiant la présence d'une distorsion dans le graphe réduit. En ce qui concerne les informations sur le trafic, nous avons analysé les compromis entre une grande quantité de données très précises et un plus petit volume de données agrégées avec une perte potentielle d'information. Ceci est fait en analysant la précision des données agrégées sous différents modèles de détermination des temps de parcours. Ces approches sont présentées dans le Chapitre 4. Au niveau de la prévision des temps de parcours, il est important que chaque segment routier ait des observations de vitesse pour chaque intervalle de temps considéré, ce que nous appelons le niveau de couverture du réseau. Notre analyse indique qu'une couverture complète du réseau routier à tout moment de la journée est nécessaire pour atteindre un niveau de précision élevé. Le recours à une agrégation élevée (de grands intervalles de temps) permet de réduire la taille du problème et d'obtenir une meilleure couverture des données, mais au prix d'une perte d'information. Les modèles analysés, LTM (link travel mode) et FSM (flow speed model), partagent les mêmes performances lorsqu'on utilise un grand intervalle de temps (120, 300 et 600 secondes), donc un niveau d'agrégation plus élevé, avec un écart moyen absolu de 5,5% par rapport aux temps de parcours observés. Cependant, avec une courte période (1, 10, 30 et 60 secondes), FSM fonctionne mieux que LTM. Pour un intervalle d'une seconde, FSM donne un écart absolu moyen de 6,70%, tandis que LTM fournit un écart de 11,17%. Ce chapitre détermine ainsi sous quelles conditions les modèles d'estimation de temps de parcours fonctionnent bien et procurent des estimations fidèles des temps de parcours réalisés. Cette thèse est structurée de la manière suivante. À la suite d'une introduction générale dans laquelle nous présentons le cadre conceptuel de la thèse et son organisation, le Chapitre 1 présente une revue de la littérature pour les deux problèmes fondamentaux étudiés, le problème de plus court chemin (Shortest path problem - SPP) et le VRP et leurs variantes développées au cours des années. Le Chapitre 2 introduit une nouvelle variante du VRP, le TD-SPVRP. Le Chapitre 3 présente les différentes techniques développées pour réduire la taille du réseau en manipulant les informations spatiales du réseau routier. L'impact de ces réductions est évalué et analysé sur des instances réelles en utilisant plusieurs heuristiques. Le Chapitre 4 traite l'impact de l'agrégation des données temporelle et des modèles d'évaluation des temps de parcours. Le dernier chapitre constitue une conclusion et ouvre des perspectives de recherche relatives à nos travaux. / The vehicle routing problem (VRP), introduced more than 60 years ago, is at the core of transportation systems. With decades of development, the VRP is one of the most studied problems in the literature, with a very rich set of variants. Yet, primarily due to the lack of data, two critical assumptions make the VRP fail to adapt effectively to traffic and congestion. The first assumption considers that the travel speed is constant over time ; the second, that each pair of customers is connected by an arc, ignoring the underlying street network. Traffic congestion is one of the biggest challenges in transportation systems. As traffic directly affects transportation activities, the whole supply chain needs to adjust to this factor. The continuous growth of freight in recent years worsens the situation, and a renewed focus on mobility, environment, and city logistics has shed light on these issues. Recently, advances in communications and real-time data acquisition technologies have made it possible to collect vehicle data such as their location, acceleration, driving speed, deceleration, etc. With the availability of this data, one can question the way we define, model, and solve transportation problems. This allows us to overcome the two issues indicated before and integrate congestion information and the whole underlying street network. We start by considering the whole underlying street network, which means we have customer nodes and intermediate nodes that constitute the street network. Then, we model the travel time of each street during the day. By dividing the day into small intervals, up to a precision of a second, we consider precise traffic information. This results in a new problem called the time-dependent shortest path vehicle routing problem (TD-SPVRP), in which we combine the time-dependent shortest path problem (TD-SPP) and the time-dependent VRP (TD-VRP), creating a more general and very challenging problem. The TD-SPVRP is closer to what can be found in real-world conditions, and it constitutes the topic of Chapter 2, where we formulate it as a mixed-integer linear programming model and design a fast and efficient heuristic algorithm to solve this problem. We test it on instances generated from actual traffic data from the road network in Québec City, Canada. Results show that the heuristic provides high-quality solutions with an average gap of only 5.66%, while the mathematical model fails to find a solution for any real instance. To solve the challenging problem, we emphasize the importance of a high-performance implementation to improve the speed and the execution time of the algorithms. Still, the problem is huge especially when we work on a large area of the underlying street network alongside very precise traffic data. To this end, we use different techniques to optimize the computational effort to solve the problem while assessing the impact on the precision to avoid the loss of valuable information. Two types of data aggregation are developed, covering two different levels of information. First, we manipulated the structure of the network by reducing its size, and second by controlling the time aggregation level to generate the traffic data, thus the data used to determine the speed of a vehicle at any time. For the network structure, we used different reduction techniques of the road graph to reduce its size. We studied the value and the trade-off of spatial information. Solutions generated using the reduced graph are analyzed in Chapter 3 to evaluate the quality and the loss of information from the reduction. We show that the transformation of the TD-SPVRP into an equivalent TD-VRP results in a large graph that requires significant preprocessing time, which impacts the solution quality. Our development shows that solving the TD-SPVRP is about 40 times faster than solving the related TD-VRP. Keeping a high level of precision and successfully reducing the size of the graph is possible. In particular, we develop two reduction procedures, node reduction and parallel arc reduction. Both techniques reduce the size of the graph, with different results. While the node reduction leads to improved reduction in the gap of 1.11%, the parallel arc reduction gives a gap of 2.57% indicating a distortion in the reduced graph. We analyzed the compromises regarding the traffic information, between a massive amount of very precise data or a smaller volume of aggregated data with some potential information loss. This is done while analyzing the precision of the aggregated data under different travel time models, and these developments appear in Chapter 4. Our analysis indicates that a full coverage of the street network at any time of the day is required to achieve a high level of coverage. Using high aggregation will result in a smaller problem with better data coverage but at the cost of a loss of information. We analyzed two travel time estimation models, the link travel model (LTM) and the flow speed model (FSM). They both shared the same performance when working with large intervals of time (120, 300, and 600 seconds), thus a higher level of aggregation, with an absolute average gap of 5.5% to the observed route travel time. With short periods (1, 10, 30, and 60 seconds), FSM performs better than LTM. For 1 second interval, FSM gives an average absolute gap of 6.70%, while LTM provides a gap of 11.17%. This thesis is structured as follows. After a general introduction in which we present the conceptual framework of the thesis and its organization, Chapter 1 presents the literature review for the two main problems of our development, the shortest path problem (SPP) and the VRP, and their time-dependent variants developed over the years. Chapter 2 introduces a new VRP variant, the TD-SPVRP. Chapter 3 presents the different techniques developed to reduce the size of the network by manipulating spatial information of the road network. The impact of these reductions is evaluated and analyzed on real data instances using multiple heuristics. Chapter 4 covers the impact of time aggregation data and travel time models when computing travel times on the precision of their estimations against observed travel times. The conclusion follows in the last chapter and presents some research perspectives for our works.
558

Développement d'algorithmes dynamiques et stochastiques pour le problème de transport de patients dans les hôpitaux

Torkhani, Mohamed Zied 28 March 2022 (has links)
Ce mémoire traite un problème de transport de personnes dans un contexte hospitalier, connu sous le nom du problème de brancardier. L'objectif est de construire des itinéraires qui répondent aux demandes de transports émergentes entre les différents services d'un grand centre hospitalier en temps réel, en minimisant le temps total de retard pondéré. Ce problème est traité comme un problème de cueillettes et de livraisons multitrajets qui considère des fenêtres de temps souples, une flotte hétérogène de véhicules et des contraintes liées à la capacité. Les requêtes de transport de patients sont imprévisibles et dynamiques. Elles sont révélées lorsqu'un patient nécessite un service de transport pour des raisons médicales. Ce travail présente trois approches de résolution du problème de transport de patients, à noter une première approche statique, une deuxième dynamique et une troisième stochastique. De plus, une stratégie d'attente et deux stratégies de relocalisation de véhicules ont été développées. Les approches sont évaluées sur des données réelles d'un grand hôpital, le Policlinico Sant'Orsola-Malpighi de la mairie de Bologne en Italie. / The following study presents the problem of transportation of patients in the medical field. Demand in this context is unpredictable and revealed dynamically. The objective is to develop an algorithm capable of constructing efficient and effective routes in real time while minimizing the total weighted lateness. This problem is considered as a multitrip pickup and delivery problem with soft time windows, heterogeneous fleet, and capacity constraints. This work presents a detailed description of the discussed problem and proposes three approaches to solve it: a static approach, a dynamic approach and a stochastic one. Moreover, it presents a waiting and two relocalisation strategies. These approaches have all been tested and evaluated using real data collected from the medical campus of Policlinico Sant'Orsola-Malpighi of the town Hall of Bologne in Italy.
559

Personalizing business networks

Poulin, Marc 16 April 2018 (has links)
Depuis quelques décennies, plusieurs compagnies manufacturières font face à la compétition intense due à l'importation. Même en adoptant de nouvelles technologies et processus, les économies en main-d'oeuvre dans les pays émergeants, sont difficiles, sinon impossibles à rivaliser. Une piste prometteuse pour la compétitivité est d'offrir des produits et services personnalisés. La première contribution de la thèse est un modèle de personnalisation à huit niveaux. Dans ce modèle, les manufacturiers offrent aux marchés une combinaison d'options des produits, des délais de livraison, des niveaux de service et des prix. Des manufacturiers voulant présenter des offres personnalisées doivent en analyser l'implication sur leurs processus d'affaires. La deuxième contribution de la thèse indique les impacts que chaque type d'offre personnalisée engendre aux processus clefs d'affaires, soit le marketing, la production ou l'approvisionnement. Une fois que les stratégies de personnalisation sont déterminées, le défi est de planifier les besoins en ressources pour supporter les offres personnalisées. La dernière contribution est une méthodologie qui s'adresse à cette problématique. La méthodologie consiste en un heuristique à deux niveaux appuyés sur la simulation du type Monte-Carlo. Le niveau supérieur considère la chaîne de valeurs en entier et des variables au niveau du réseau sont déterminées. Le niveau inférieur configure les ressources pour chaque centre du réseau. Ceci est accompli en simulant simultanément, des plans de production qui satisfont des profils de demande stochastique. L'approche est incorporée dans un logiciel expérimental qui permet à l'utilisateur de modéliser un réseau de centres, leurs offres personnalisées et leurs marchés, afin de trouver une solution dans un temps rapide. La méthodologie est illustrée par un cas dans l'industrie de fabrication de bâtons de golf et les offres permettent de refléter la complexité de la personnalisation.
560

Application de l'analyse modale à la dynamique des systèmes pour améliorer la performance des firmes

Diallo, Amadou 24 March 2024 (has links)
« Thèse présentée à l'École des gradués de l'Université Laval pour l'obtention du grade de philosophiæ doctor (Ph. D.) » / « Ayant mis en évidence les faiblesses analytiques de la dynamique des systèmes, notre recherche se préoccupera d'abord de modifier le modèle de dynamique des système pour pouvoir exploiter les outils puissants du Contrôle Automatique. Comme nous le verrons, cette modification consistera à procéder à une approximation linéaire du modèle initial de dynamique des systèmes qui est non linéaire. Dans cet effort, nous éviterons la méthode de transformation utilisée par les tenants du Contrôle Automatique (Appiah et Coyle 1983, Mohpatra et Sharma 1983) ; elle nous éloigne de ce qui est le langage par excellence de la dynamique des systèmes: DYNAMO; et surtout, elle est impuissante devant les modèles de grande taille. Nous partirons des principes de linéarisation, pour y procéder directement avec DYNAMO (on y arriverait avec n'importe quelle version de DYNAMO) sans recourir comme N. B. Forrester à un logiciel supplémentaire, DYNASTAT ou autre. Après avoir mis au point un instrument de linéarisation, la thèse montrera comment les gestionnaires peuvent recourir à l'analyse modale pour comprendre la nature et l'ampleur des forces dynamiques présentes au sein de leur entreprise. Pour cela, elle s'appuyera sur la correspondance existant entre la stabilité intrinsèque d'un système et les valeurs propres de son modèle linéaire. En troisième lieu, la thèse fournira une procédure de modification des forces dynamiques pour stabiliser et ajuster les divers secteurs de l'entreprise. La stabilisation consiste à identifier et changer les politiques qui causent l'instabilité. L'ajustement n'intervient qu'après la stabilisation; il consiste à identifier et à renforcer les politiques qui augmentent la stabilité. Basée sur les valeurs propres et l'analyse de leur sensibilité, cette procédure se révélera être un excellent moyen de mettre en évidence les effets réels des politiques suivies dans l'entreprise et d'évaluer l'opportunité de renforcer, atténuer ou éliminer ces politiques par des mesures appropriées. Enfin, elle donne une méthode d'implantation, dans le réel, des suggestions issues de l'analyse modale. L'application sera faite sur le modèle bien connu de Lyneis. Cela permettra d'identifier les sous-systèmes constitutifs du modèle global: leur nature, leur taille et leur mode d'interaction. Le degré d'intégration des différents secteurs de l'entreprise telle que modélisée par Lyneis apparaîtra avec plus de netteté. Nous nous servirons de la procédure développée dans cette thèse pour dégager les mesures et transformations nécessaires à la stabilisation accrue de chaque secteur. Il en résultera une meilleure performance. »--Pages 10-12

Page generated in 0.0556 seconds