• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 602
  • 191
  • 4
  • Tagged with
  • 799
  • 799
  • 491
  • 237
  • 106
  • 101
  • 98
  • 91
  • 90
  • 85
  • 79
  • 66
  • 62
  • 60
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Numerical study of the Ingestion phenomenon in a turbine Rim Seal : cFD Validation and Real Engine Assessment

Boutet-Blais, Guillaume 20 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Ce mémoire de maîtrise porte sur la modélisation numérique de la problématique d'ingestion de gaz chauds dans la cavité rotor-stator du premier étage d'une turbine à gaz moderne. Dans le contexte de développement d'une aviation plus écologique, ce sujet mérite une attention marquée car des gains importants en ce qui a trait à l'efficacité globale du moteur peuvent être atteints par de meilleurs designs de joints rotor-stator limitant l'ingestion. La modélisation physique des phénomènes affectant l'ingestion devient alors essentielle afin de développer une meilleure compréhension des écoulements et mécanismes en présence. C'est dans cette optique que Pratt & Whitney Canada a mandaté le Laboratoire de Mécanique des Fluides Numérique (LMFN) de l'Université Laval afin de conduire une étude approfondie du phénomène d'ingestion. Ce mémoire a donc pour objectif principal de décrire le développement, l'application et la validation de certaines techniques de simulation numérique visant à caractériser qualitativement et quantitativement le phénomène d'ingestion observé à travers le joint et dans la cavité du groupe rotor-stator d'une turbine à gaz. Une investigation des limites de fiabilité d'une telle modélisation numérique dans un contexte réel d'opération du moteur est également présentée. La paramétrisation adéquate du problème et la validité d'extrapoler des résultats numériques d'ingestion obtenus aux conditions "banc d'essai" afin de prédire l'ingestion réelle aux conditions "moteur" font également partie des sujets abordés dans ce mémoire. La méthodologie développée considère deux phases de calculs menant à des diagnostics d'ingestion par le biais d'un marqueur passif. Une série de validations numériques et des comparaisons avec des résultats expérimentaux sont également présentées. La méthodologie de modélisation numérique est considérée robuste et fiable, mais seulement partiellement validée.
362

Analyse de stabilité d'un système de Saint-Venant et étude d'un modèle de sédimentation

Toumbou, Babacar 13 April 2018 (has links)
Nous faisons dans la première partie de ce document l'analyse de dispersion d un modèle linéaire de shallow-water. Notre étude est basée sur l analyse de Fourier. Le schéma temporel utilisé est celui d' Adams-Bashforth à trois pas. La discrétisation en espace est faite avec les paires d'éléments finis P₁NC - P₁ et RT₀ . La relation de dispersion obtenue avec chacune de ces deux paires d éléments finis permet de représenter graphiquemen le module des racines et de faire une étude de stabilité. Nous présentons dans la deuxième partie un théorème d'existence de solution d un modèle 2-D de sédimentation couplant un système de Saint-Venant avec une équation de transport de sédiments. Cette partie est composée de deux chapitres. Dans le premier chapitre on établit le modèle couplé. On intègre les équations tridimensionnelles de Navier-Stokes sur la hauteur de la colonne d '~au tenant compte d 'une bathymétrie variable en espace et en temps. Ceci nous permet d 'obtenir la partie Saint-Venant du modèle. Une équation de transport de sédiments relative à la bathymétrie sera couplée au système de Saint-Venant obtenu. Dans le chapitre 4 nous démontrons un t héorème d 'existence de solution du modèle couplé. La résolution théorique du modèle couplé se fait en posant le problème dans des espaces de dimension finie. Puis nous résolvons le problème de dimension finie associé en utilisant un théorème de point fixe de Brouwer. Enfin, nous montrons que les limites des suites de solutions du problème de dimension finie satisfont les équations du modèle couplé initial. Une étude numérique d'un modèle couplé plus général que celui présenté théoriquement dans les chapitres 3 et 4 est faite au chapitre 5. les schémas discrets en temps d'Euler implicite et de Crank Nicholson sont utilisés et trois triplets d'éléments finis sont explorés dans cette partie numérique. Il s'agit des triplets suivants: P₁ - P₁ - P₁ ' P₂ - P₁ - P₁ et MINI - P₁·
363

Suivi des molécules odorantes depuis la source jusqu'au robinet : analyse, modélisation et évolution spatio-temporelle de géosmine et 2-méhylisobornéol

Parinet, Camille Julien 17 April 2018 (has links)
Cette thèse a pour objectif d'améliorer la compréhension et les connaissances des problèmes liés à l'occurrence de molécules odorantes présentes dans les eaux brutes et les eaux traitées. Les cas à l'étude sont trois réseaux d'eaux potables dans les villes de Québec et Lévis (Canada). Cette thèse est divisée en quatre chapitres: Le premier chapitre porte sur la mise au point d'une méthode d'analyse pour détecter certaines molécules odorantes. Il introduit une nouvelle méthode analytique pour quantifier cinq composés odorants: géosmine, 2-méthylisobornéol, 2-isopropyl-3-méthoxypyrazine, 2-isobutyl-3-méthoxypyrazine et 2, 4, 6-trichloroanisole. Cette méthode utilise une micro-extraction sur phase solide en espace de tête, combinée à une analyse chromatographique en phase gazeuse (CG) et un spectromètre de masse (SM), de type trappe ionique. La double fragmentation (tandem SM/SM) a été optimisée pour les composés ciblés. Cette méthode a permis d'obtenir des limites de détection inférieures à 1 ngL"1. Elle a été appliquée avec succès pour l'analyse des composés conférant des odeurs de "terre et moisi" aux sources d'eaux municipales, riches en matières organiques, ainsi qu'aux eaux traitées correspondantes. Le second chapitre concerne les relations entre deux composés odorants (géosmine et 2-méthylisobornéol) et 39 paramètres de qualité d'eau (chimiques, physiques et microbiologiques) dans trois sources d'alimentations très différentes en termes de qualité, lesquelles alimentent en eau potable les villes de Québec et Lévis (Canada). Cette étude a été menée par analyse en composantes principales (ACP). L'objectif de cette étude a été de montrer qu'une approche multidmensionnelle par analyse en composantes principales utilisant la matrice des composantes permettait de différencier les processus à l'origine de l'occurrence de ces composés odorants, de ceux qui n'en étaient pas ou peu la cause et ainsi d'extraire les variables les plus représentatives de ces processus. Le troisième chapitre se focalise sur la modélisation des concentrations de géosmine dans les eaux brutes par des méthodes linéaires et non-linéaires telles que : la régression linéaire multiple, la régression par composantes principales et les réseaux de neurones artificiels. Les méthodes de sélection des variables ont également fait l'objet d'une étude: "pas à pas", d'analyse de sensibilité, d'analyse en composantes principales. Le développement d'outils d'aide à la décision pour de telles problématiques semble une solution rapide et économique pour le remplacement des méthodes analytiques. Le quatrième et dernier chapitre porte sur l'évolution spatiale et temporelle des concentrations de géosmine et 2-méthylisobornéol dans les eaux brutes, les eaux en cours de traitement en usine et les eaux potables des villes de Lévis et Québec. Une attention particulière a été donnée à l'enlèvement des ces deux molécules par les procédés de clarification et d'ozonation ainsi qu'au devenir de ces molécules dans les réseaux d'eaux potables.
364

Mise au point d'un modèle de prélèvement par tiges individuelles pour simuler les coupes de jardinage en Outaouais

Delisle-Boulianne, Simon 19 April 2018 (has links)
La coupe de jardinage par pied d’arbre est le principal traitement utilisé dans le cadre de l’aménagement des forêts feuillues inéquiennes du sud du Québec. La simulation du prélèvement des arbres pour ce traitement dans les calculs de la possibilité forestière se fait actuellement au moyen d’un modèle empirique ne prenant en compte que l’espèce et le diamètre des arbres. Il est toutefois probable que d’autres variables permettent d’améliorer la prévision des arbres qui seront récoltés. Dans cette étude, six modèles de prélèvement prenant en compte trois classifications des arbres couramment utilisées au Québec ainsi que les corrélations spatiales aux échelles de l’arbre et de la placette ont été mis au point afin de les comparer au modèle n’utilisant que l’espèce et le diamètre. Les résultats obtenus indiquent que la vigueur des arbres est une variable essentielle afin de prédire leur probabilité de prélèvement. En outre, le sort subi par les proches voisins d’un arbre influence aussi sa probabilité de récolte.
365

Dynamique forme/lumière : exploration du processus de création de l'espace architectural par modèles maquettes/images

Biron, Karole 13 April 2018 (has links)
L’acte de création est un moment privilégié lors du processus de conception architecturale et artistique. Vu comme une exploration, il offre une grande liberté de réflexion et d’action. C’est entre autres le lieu et le temps de l’imagination, de l’expérimentation matérielle, du développement conceptuel, de la construction de ce qui sera perçu. C’est un moment d’effervescence où l’on manipule intuitivement autant que l’on nomme intellectuellement. Pour les arts de l’espace, de multiples facteurs sont à considérer dès le début du processus. Formes, couleurs, tailles, emplacements et nombre, en sont quelques exemples. Au-delà de chacun de ces paramètres, l’espace, scène de l’ensemble de leurs interactions, devient un objet de création en soi. La recherche s’intéresse particulièrement à la relation spatiale et perceptuelle entre la lumière et l’objet, deux éléments se complétant et se modifiant de multiples façons, dont le potentiel esthétique est évident. Elle propose de réinitialiser le processus de création, par des manipulations simples et directes avec la matière, à travers une expérimentation en maquettes et en images photographiques, deux médiums familiers des architectes. Ces interventions minimales présentent à la fois une grande richesse de relations spatiales et de nombreuses informations sur les ambiances lumineuses. La recherche tente de circonscrire un vocabulaire des principaux paramètres de l’objet et de la lumière, conduisant à l’élaboration d’une méthode d’analyse pouvant aider architectes et artistes dans leurs explorations. Des notions, principes et qualificatifs sur l’espace, la forme, la lumière et la perception, servent à construire les tableaux d’analyse appliqués aux images de l’expérimentation en maquettes et à mettre en relief les éléments les plus actifs visuellement. Ce processus vise principalement à stimuler l’imagination et la créativité en architecture. / The act of creation is a privileged moment at the time of its artistic and architectural process. It is, among other things, the time and place for imagination, for experimentation with matter, for conceptual development and for the construction of what is perceived. It is a moment of enthusiasm and effervescence when we instinctively manipulate as well as conceive intellectually. As for the «Art of space», multiple factors are to be considered from the origin of its process such as, shapes, colours, sizes and positioning. Beyond each of these parameters, space, scene of its multiple interactions, becomes a creation in itself. This research particularly leans on the spatial and perceptual relation between objects and light, two elements completing and modifying each other in various ways, whereas its esthetic potential is obvious. It suggests the resetting of the creative process by direct and simple manipulations with matter, through miniature tryouts and photographic images, two familiar media of architectural practice. These minimal interventions simultaneously present a richness in spatial relations as well as information on luminous surroundings. The research proposes the circumscription of a vocabulary of the main parameters linking objects with light, leading to the elaboration of a method of creation and analysis to assist architects and artists in their creative explorations. The theoretical framework releases notions, principles and terms related to space, form, light and perception, assisting in the construction of physical models to visualize and control aspects of the invention. An exploration of a series of parameters of objects and lighting complete the research in order to stimulate the imagination and creativity in architecture.
366

Méta-analyse du biais hypothétique dans l'évaluation des consentements à payer et répartition des marges dans la filière des oeufs

Atozou, Baoubadi 03 May 2024 (has links)
Cette thèse cherche d’une part à réévaluer à travers une méta-analyse, la compréhension du biais hypothétique en mettant en évidence l’impact des nouvelles techniques de calibration notamment la perception de la conséquence sur l’ampleur du biais hypothétique dans les études d’évaluation des consentements à payer (CAP) des biens publics et privés avec les méthodes déclaratives et d’autre part à examiner les pouvoirs de négociation des producteurs, des classificateurs et des détaillants dans la chaine de valeur des oeufs de spécialité au Canada. Elle est répartie en trois chapitres : Le premier chapitre a pour objectif (i) d’actualiser les résultats des méta-analyses du biais hypothétique (List et Gallet 2001, Little et Berrens 2004, Murphy et al. 2005) en prenant en compte les nouvelles techniques de calibration et les nouvelles études d’évaluations économiques des biens publics et privés ; et (ii) de proposer une nouvelle approche économétrique, le modèle de méta-régression hiérarchique à effets mixtes (MMRHEM) qui est potentiellement plus performante dans l’explication de la variance du facteur du biais hypothétique. En effet, la dernière méta-analyse d’envergure date de 2005. Or la littérature s’est grandement bonifiée depuis, d’où l’objet de ce chapitre. Les résultats montrent que les répondants surestiment de plus de deux fois leurs CAP avec les méthodes déclaratives. L’analyse empirique montre que les modèles de MRHEM sont plus performants que les modèles log-linéaire. Les résultats révèlent d’une manière générale que l’utilisation des techniques de calibration et des mécanismes incitatifs contribue à améliorer de manière significative la qualité des estimations des CAP avec des méthodes déclaratives. Cependant, les effets de ces facteurs diffèrent selon le type de bien. Suivant les résultats du premier chapitre, il ressort qu’il est nécessaire de traiter le bien privé différemment du bien public. Ce chapitre 2 examine à travers une méta-analyse l’impact des techniques de calibration et en particulier la perception de la conséquence sur le biais hypothétique d’une part dans les études d’évaluation des CAP pour des biens privés et d’autre part dans l’évaluation économique des biens environnementaux, écologiques, de conservation des écosystèmes, de services sociaux et d’autres biens publics. 44 études d’évaluation portant sur des biens privés et 43 études portant sur les biens publics ont été utilisées pour construire les bases de données respectives de 227 et 235 observations. Le ratio du CAP hypothétique et du CAP réel est en moyenne de 2.14 pour les biens privés et de 2.09 pour les biens publics et le ratio médian est respectivement 1.41 et 1.39. Les modèles économétriques MRHEM ont été estimés selon l’approche de maximum de vraisemblance et l’approche bayésienne d’échantillonnage de Gibbs. Les résultats suggèrent que les techniques de calibration : la correction de certitude, le cheap talk, l’honnêteté, et la perception de conséquence réduisent significativement le biais hypothétique. Dans le cas des biens publics, les résultats indiquent que plus la probabilité de perception de conséquence est élevée dans le design expérimental, plus la fiabilité des estimations des préférences des répondants avec des méthodes déclaratives est améliorée. La perception de conséquence est plus efficace avec les mécanismes de choix dichotomique et de référendum. Les résultats suggèrent également que l’évaluation économique des biens environnementaux conduit à un plus grand biais que dans l’évaluation des services publics. Pour les biens privés, les résultats révèlent que la correction de certitude est adéquate avec le mécanisme de choix dichotomique tandis que le cheap talk est plus adéquat avec les mécanismes d’enchère Vickrey, de choix dichotomique multiple pour réduire le biais hypothétique. Le chapitre 3 évalue les pouvoirs de négociation des producteurs, des classificateurs et des détaillants dans les mécanismes de fixation de prix tout au long de la chaine de valeur des oeufs de spécialité et d’en déterminer le maillon qui bénéficie le plus de la diversification des oeufs de table au Canada. Un modèle théorique de monopole bilatéral d’ajustement des prix est développé en intégrant les incertitudes des marchés. Le modèle a été estimé empiriquement en utilisant le test borné de cointégration du modèle autoregressive distributted lags (ARDL) et les modèles de panel hétérogènes non stationnaires (ARDL-Pool means groups, ARDL-means groups et ARDL-effets fixes) sur les données mensuelles de janvier 2009 à juin 2017 des oeufs de poule en liberté et des oeufs oméga 3 dans cinq provinces du Canada : Québec, Ontario, Alberta, Saskatchewan et Colombie-Britannique. Les résultats montrent que le pouvoir de négociation des détaillants est supérieur au pouvoir des producteurs dans chaque province et pour chacun des marchés. Les producteurs bénéficient moins de la production des oeufs de spécialité que les détaillants. / This thesis seeks, on the one hand, to reassess, through a meta-analysis, the body of knowledge on hypothetical bias in light the impact of mitigation techniques, notably the perceived consequence on the hypothetical bias in estimating the willingness to pay (WTP) for private and public goods with stated preference methods; and examining on the other hand, the bargaining power of producers, classifiers and retailers in the specialty egg value chain in Canada. It is divided into three chapters: The first chapter aims to (i) update the meta-analyzes of hypothetical bias (List and Gallet 2001, Little and Berrens 2004, Murphy et al., 2005) taking into account the new calibration techniques and the new economic valuation studies of public and private goods; and (ii) propose a new econometric approach, the Mixed Effects Hierarchical Meta-Regression Model (MRHEM) that is potentially more efficient in explaining the variance of hypothetical bias factor. In fact, the last major meta-analysis was in 2005. However, the literature has greatly improved since then, hence the purpose of this paper. The results show that respondents overestimate their CAPs more than twice with the declarative methods. Empirical analysis shows that MRHEM models perform better than log-linear models. The results generally reveal that the use of calibration techniques and incentive compatible mechanisms significantly improves the quality of WTP estimation with declarative methods. Nevertheless, the effects of these factors differ depending on the type of good. According to the first chapter’ results, it appears that it is necessary to treat the private good differently from the public good. This Chapter 2 examines through a meta-analysis the impact of calibration techniques and specially the perceived consequence on the hypothetical bias on the one hand, in valuation studies of private goods, and, on the other hand in the economic valuation of environmental, ecological, ecosystem conservation, social services and other public goods. 44 private goods valuation studies and 43 public goods studies were used to construct the respective databases of 227 and 235 observations. Results show an average ratio of hypothetical on real WTP of 2.14 for private goods and 2.09 for public goods, while the median ratio is 1.41 and 1.39, respectively. This differs from previous results where hypothetical bias was found to be smaller for private goods. The MRHEM econometric models were estimated using the maximum likelihood approach and the Bayes Gibbs sampling’ approach. Results indicate that certainty correction, cheap talk, honesty, and perceived consequence are effective at reducing hypothetical bias. In the case of public goods, the results show that the higher the probability of consequence perception in experimental design, the better the reliability of estimates of respondents' preferences with declarative methods. Moreover, taking into account consequentiality in dichotomous choice mechanisms as well as in referendum mechanisms reduces significantly the hypothetical bias in public good assessments. Results also indicate that environmental goods valuation leads to a higher bias than public services valuation. For private goods, the results highlight that the certainty correction technic is adequate with the dichotomous choice mechanism while the cheap talk technic is most adequate with Vickrey auction and multiple discrete choice mechanisms to reduce the hypothetical bias. Chapter 3 assesses the bargaining power of producers, classifiers and retailers in pricing mechanisms in the specialty egg value chain and identifies the link that benefits most from the diversification of table eggs. in Canada. A theoretical model of a bilateral monopoly price adjustment is developed by integrating market uncertainties. The model was empirically estimated using the cointegration test of the autoregressive distributed-lags model (ARDL) and the non-stationary heterogeneous panel models (ARDL-Pool means groups, ARDL-means groups and ARDL-fixed effects) on free range chicken and omega 3 eggs’ monthly data, from January 2009 to June 2017 of five Canadian provinces: Quebec, Ontario, Alberta, Saskatchewan and British Columbia. Results show that the bargaining power of retailers is greater than the power of producers in each province and for each market. Producers benefit less from specialty egg production than retailers.
367

Modélisation du pressage à chaud des panneaux de fibres de bois (MDF) par la méthode des éléments finis

Vidal Bastías, Marcia 12 April 2018 (has links)
Cette étude porte sur le développement d’un modèle mathématique-physique permettant de modéliser le pressage à chaud des panneaux de fibres de bois (MDF) pour les procédés en lot et en continu. Le système final est composé de trois équations différentielles : une pour la conservation de gaz, une pour la conservation de la vapeur d’eau et une pour la conservation d’énergie. On a introduit un terme de diffusion de la vapeur d’eau qui n’était pas considéré auparavant. Les variables d’état prédites sont la température, la pression gazeuse et la teneur en humidité. Le système d’équations a été résolu par la méthode des éléments finis en employant le logiciel MEF++ développé au GIREF à l’Université Laval. Les conditions aux limites utilisées durant la simulation sont du type Neumann non linéaire ou du type Dirichlet selon le type de pressage simulé. Afin de valider les résultats numériques en 2-D et 3-D donnés par ce modèle, on les a comparés avec les données obtenues d’un procédé en lot au laboratoire et en continu dans une industrie. À cet effet, des panneaux MDF d’épinette noire (Picea mariana (Mill.) BPS) ont été fabriqués et des mesures de température ont été prises à l’aide des thermocouples à la surface et au centre de l’ébauche. La pression gazeuse a aussi été déterminée lors du pressage à chaud avec une sonde de pression introduite à l’intérieur de l’ébauche. De plus, pour évaluer la teneur en humidité, sept modèles de sorption ont été extrapolés et comparés aux valeurs expérimentales provenant de la littérature. Le modèle de Malmquist donne la meilleure correspondance pour les humidités relatives considérées et a donc été utilisé. Les résultats numériques indiquent que la température, la teneur en humidité et la pression gazeuse prédites sont en accord avec les résultats expérimentaux pour les deux types de pressage considérés sans utiliser un facteur d’ajustement. On a conclu que le modèle mathématique-physique et la méthode des éléments finis ont un grand potentiel pour résoudre ce type de problème et aider ainsi à maîtriser la qualité des produits et les pertes lors de la fabrication. Il est fortement recommandé d’approfondir la recherche sur les valeurs des paramètres physiques impliqués dans ce procédé. / This study describes a mathematical-physical model to predict temperature, gas pressure and moisture content during MDF hot pressing in batch and continuous processes. The final system is composed of three differential equations: gas conservation, water vapor conservation and energy conservation. This model introduced the moisture diffusion term which was not considered in the basis model. The system of equations was solved by the finite element method using the MEF++ software developed by the GIREF at Laval University. The boundary conditions used during simulation are of the Neumann or Dirichlet type depending on the process considered. In order to validate the numerical results in 2-D and 3-D, we compared them with experimental data obtained from the batch process in the pressing laboratory and from the continuous process in an industry. For this purpose, MDF panels of black spruce (Picea mariana (Mill.) BPS) were manufactured and temperature measurements made using thermocouples on the surface and the center of the mat. The gas pressure was also measured using a pressure probe located inside the mat. Moreover, in order to evaluate moisture content, seven sorption models were extrapolated and compared with experimental values from the literature. The Malmquist model gives the best correspondence for the relative humidities considered and was therefore used. The numerical results indicate that the predicted temperature, moisture content and gas pressure are in agreement with experimental results for the two processes considered without using an adjustment factor. We concluded that the mathematical-physical model and the finite element method have a great potential to solve this type of problem to control the quality of panels and the losses during manufacturing. It is strongly recommended to look further into research on the values of the physical parameters involved in this process.
368

Évaluation de la relation entre la courbe de rendement et le taux de croissance future du PIB et impact de la crise financière de 2008 : application au Canada et aux États-Unis

Achade, Arnoldine Florinda 10 February 2024 (has links)
La présente étude analyse la relation entre la courbe de rendement obligataire et le taux de croissance du PIB avant et après la crise financière de 2008. Plusieurs auteurs ont montré que la courbe de rendement obligataire permet de prévoir le taux de croissance économique futur. Selon la littérature économique, la politique monétaire y joue un rôle central. Pendant la crise financière de 2008, les banques centrales de plusieurs pays dont le Canada et les États-Unis ont adopté des politiques monétaires exceptionnelles qui ont mené à des taux d’intérêt très bas pratiquement à 0 %. Il semble donc opportun de vérifier si ce changement de politique monétaire induit par la crise financière a eu un impact sur la capacité de la courbe de rendement à prévoir le taux de croissance futur du PIB. Pour atteindre nos objectifs, nous nous inspirons de la méthodologie utilisée dans Dotsey (1998). Il s’agit d’un modèle d’estimation par les moindres carrés sur plusieurs sous-échantillons. Le test de Chow est aussi effectué en vue de détecter la présence de bris structurel. Les données couvrent la période de 1995T1 à 2019T2. Nous considérons deux sous-périodes soit la période avant la crise financière qui s’étend de 1995T1 à 2007T4 et la période après la crise financière qui va de 2008T1 à 2019T2. Les résultats de l’estimation montrent que la crise financière a eu un impact marqué sur la capacité de la courbe de rendement à prévoir le taux de croissance du PIB, autant au Canada qu’aux États-Unis. Les tableaux de variation des résultats nous laissent penser que l’impact d’une hausse de l’écart de rendement sur le taux de croissance du PIB n’est pas le même d’une période à l’autre pour les États-Unis. Au Canada par contre, l’effet est le même sur la période avant et après la crise financière.
369

Industrie 4.0 : ordonnancement intelligent d'une cellule robotisée de soudage

Kone, Aminata 12 November 2023 (has links)
Dans ce mémoire, nous concevons un plan d'ordonnancement de la production dans un contexte d'industrie 4.0. L'environnement de travail est un atelier de soudure doté de trois stations pour le chargement et le déchargement des pièces, d'un robot de transport, d'un robot positionneur, de deux robots soudeurs et de gabarits sur lesquels sont montées les pièces. Dans un souci de construction de modèles reflétant la réalité de l'usine de production, des caractéristiques et des contraintes ont été considérées. Il s'agit entre autres des caractéristiques liées au type et aux temps de changement de gabarit, des contraintes d'entreposage, de ressources matérielles limitées (machines) et de recirculation. Le problème considéré est un problème de job shop flexible dont l'objectif est de minimiser la durée totale des opérations. Différentes variantes de la méthode exacte basée sur la programmation linéaire mixte en nombres entiers sont présentées. Ces méthodes sont de deux catégories à savoir les méthodes en une étape de résolution et les méthodes en deux étapes de résolution. La comparaison de ces différentes méthodes proposées montre que les méthodes en une étape de résolution offrent les meilleures valeurs de la fonction objectif mais sont plus lents dans la résolution tandis que les méthodes en deux étapes de résolution sont plus rapides dans la résolution mais n'ont pas les meilleures valeurs de la fonction objectif. / In this master's thesis, we design a production scheduling plan in an Industry 4.0 context. The working environment is a welding shop with three stations for loading and unloading parts, a transport robot, a positioner robot, two welding robots and jigs on which parts are mounted. In order to build models that reflect the reality of the production plant, additional characteristics and constraints were considered. These include characteristics related to the type and duration of jig change, constraints of storage, limited material resources (machines) and recirculation. The problem considered is a flexible job shop problem with the objective to minimize the total execution time (the makespan). Different variants of the exact method based on mixed integer linear programming are presented. These methods are of two categories, namely the one-step and the two-step methods. The comparison of these different proposed methods shows that the one-step method yields the best objective function values but requires relatively long computing times while the two-step method is faster but does not give the best objective function values.
370

Development and implementation of a computer-aided method for planning resident shifts in a hospital

Kreeft, Daniel 18 April 2018 (has links)
Ce mémoire propose une formulation pour le problème de confection d'horaire pour résidents, un problème peu étudiée dans la litérature. Les services hospitaliers mentionnés dans ce mémoire sont le service de pédiatrie du CHUL (Centre Hospitalier de l'Université Laval) et le service des urgences de l'Hôpital Enfant-Jésus à Québec. La contribution principale de ce mémoîre est la proposition d'un cadre d'analyse pour l’analyse de techniques manuelles utilisées dans des problèmes de confection d'horaires, souvent décrits comme des problèmes d'optimisation très complexes. Nous montrons qu'il est possible d'utiliser des techniques manuelles pour établir un ensemble réduit de contraintes sur lequel la recherche d’optimisation va se focaliser. Les techniques utilisées peuvent varier d’un horaire à l’autre et vont déterminer la qualité finale de l’horaire. La qualité d’un horaire est influencée par les choix qu’un planificateur fait dans l’utilisation de techniques spécifiques; cette technique reflète alors la perception du planificateur de la notion qualité de l’horaire. Le cadre d’analyse montre qu'un planificateur est capable de sélectionner un ensemble réduit de contraintes, lui permettant d’obtenir des horaires de très bonne qualité. Le fait que l'approche du planificateur est efficace devient clair lorsque ses horaires sont comparés aux solutions heuristiques. Pour ce faire, nous avons transposées les techniques manuelles en un algorithme afin de comparer les résultats avec les solutions manuelles. Mots clés: Confection d’horaires, Confection d’horaires pour résidents, Creation manuelle d’horaires, Heuristiques de confection d’horaires, Méthodes de recherche locale / This thesis provides a problem formulation for the resident scheduling problem, a problem on which very little research has been done. The hospital departments mentioned in this thesis are the paediatrics department of the CHUL (Centre Hospitalier de l’Université Laval) and the emergency department of the Hôpital Enfant-Jésus in Québec City. The main contribution of this thesis is the proposal of a framework for the analysis of manual techniques used in scheduling problems, often described as highly constrained optimisation problems. We show that it is possible to use manual scheduling techniques to establish a reduced set of constraints to focus the search on. The techniques used can differ from one schedule type to another and will determine the quality of the final solution. Since a scheduler manually makes the schedule, the techniques used reflect the scheduler’s notion of schedule quality. The framework shows that a scheduler is capable of selecting a reduced set of constraints, producing manual schedules that often are of very high quality. The fact that a scheduler’s approach is efficient becomes clear when his schedules are compared to heuristics solutions. We therefore translated the manual techniques into an algorithm so that the scheduler’s notion of schedule quality was used for the local search and show the results that were obtained. Key words: Timetable scheduling, Resident scheduling, Manual scheduling, Heuristic schedule generation, Local search methods

Page generated in 1.257 seconds