• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 586
  • 184
  • 3
  • Tagged with
  • 775
  • 775
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 77
  • 73
  • 62
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif

Marif, Anouar 24 September 2021 (has links)
Le travail de cette thèse porte sur l'élaboration d'un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif, interface entre plusieurs méthodes distinctes et complémentaires. Le référentiel proposé intègre des principes clés de pilotage par la performance et propose une alternative améliorée et prometteuse par rapport aux systèmes de mesures de la performance traditionnels. Un système de pilotage de la performance est un outil indispensable pour une organisation. Sa conception demeure par ailleurs une démarche complexe étant donné les différents aspects et éléments que l'organisation doit intégrer dans son processus d'évaluation et d'amélioration de la performance, en particulier les événements perturbateurs, souvent négligés dans la littérature et très difficile à intégrer dans l'élaboration d'un mécanisme de pilotage de la performance. En effet, le choix de la variable de décision pour contrecarrer les effets d'un évènement perturbateur n'est pas toujours immédiate, il possède une certaine inertie qui peut entraîner une perte de la performance globale. Également, les décideurs ne disposent pas souvent des mécanismes et des outils susceptibles de vérifier que les composantes clés de pilotage de la performance (Objectifs-Variables de décision-Indicateurs de performance) engagées par chacun d'eux soient cohérentes et aident à faire évoluer l'organisation vers l'atteinte de ses objectifs escomptés. De ce fait, l'organisation évolue dans un contexte souvent incertain et doivent faire preuve d'adaptabilité pour garantir leur viabilité. Ce projet de recherche est motivé par un besoin criant soulevé suite à une revue de littérature soulignant la nécessité de développer un système de pilotage de la performance qui répond aux défis actuels en terme de pilotage, à savoir : la cohérence entre les composantes clés de pilotage de la performance et la réactivité pour faire face aux évènements perturbateurs. De ce fait, notre volonté dans ce travail a été de proposer un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif. Les contributions de cette thèse sont présentées en quatre phases. Dans une première phase, à partir du constat réalisé durant la revue de littérature, nous avons souligné la nécessité de proposer une démarche structurale SIPCo (Système d'Indicateurs de Performance Cohérent) pour identifier les composantes clés de pilotage de la performance et assurer leur cohérence à travers deux démarches. Une démarche logique basée sur (1) une approche de modélisation de système décisionnel afin d'identifier les centres de décision et (2) une approche de modélisation de système informationnel afin de d'établir une représentation de la part interactive des composantes clés de pilotage de la performance de chaque centre de décision. La méthode SIPCo repose aussi sur une démarche participative pour accompagner la démarche logique afin de définir les différentes composantes clés de pilotage de la performance auprès des futurs utilisateurs. Dans une deuxième phase, nous avons proposé une démarche procédurale SYPCo-R (Système de Pilotage de la Performance Cohérent et Réactif) en intégrant un élément jamais intégré par les autres systèmes d'évaluation de la performance, à savoir "évènement potentiel". En effet, la plupart des systèmes de pilotage par la performance sont basés sur le triplet "Objectif - Variable de Décision - Indicateur de performance". Alors que, SYPCo-R que nous proposons est basé sur le quadruplet "Objectif - Évènement potentiel - Variable de Décision - Indicateur de performance". L'objectif de SYPCo-R est d'apporter une cohérence globale dans l'exploitation des composantes clés de pilotage de la performance et une réactivité en intégrant la notion d'évènement potentiel dans la prise de décision à travers une méthodologie de classement des variables de décision qui permettent de contrecarrer les évènements potentiels susceptibles d'entraver l'atteinte des objectifs. Dans une troisième phase, nous avons proposé un modèle conceptuel MCR (Modèle Conceptuel de Réactivité) qui reprend les propriétés fondamentales de la notion de réactivité sous forme d'algorithme composé d'un ensemble des règles opératoires pour identifier les défaillances de performance en terme de réactivité et leurs origines afin d'ajuster et consolider SYPCo-R. Dans une quatrième phase, nous avons proposé une démarche prédictive basée sur la simulation pour évaluer et apprécier l'impact des valeurs fixées aux alternatives associées à chaque variable de décision choisie parmi le classement résultant de la démarche SYPCo-R. Cette démarche vise aussi à anticiper les défaillances de performance pour ajuster les paramètres de MCR et SYPCo-R. Les décideurs pourront ainsi disposer d'un outil supplémentaire pour garantir la cohérence, la réactivité basée sur l'anticipation et la prédiction. Les travaux de cette thèse apportent des solutions innovantes dans la démarche de l'élaboration d'un système de pilotage de la performance en proposant un référentiel interface entre plusieurs méthodes distinctes et complémentaires qui répond efficacement aux préoccupations des décideurs. Le référentiel proposé permet de cerner la complexité d'un système et de la rendre intelligible par les décideurs. De plus, il s'apprête bien à des extensions futures basées sur une exploitation optimisée des données en temps réel. / This thesis aims at elaborating a framework for the development of a coherent and responsive performance management system, interface between several distinct and complementary methods. The proposed framework integrates key performance management principle s and offers an improved and promising alternative to traditional performance measurement systems. A performance management system is an essential tool for an organization. Otherwise, the conception of this system remains a complex process given the several aspects and elements that the organization must integrate into its process of evaluating and improving performance, in particular disruptive events, often neglected in the literature and very difficult to take into account in the development of a performance management mechanism. Decision-making to cover the effects of a disruptive event is not immediate as it has an inertia which can lead to a loss of overall performance. Also, decision-makers rarely have the necessary tools to verify that the used key performance management components (Objectives-Decision variables-Performance indicators) are coherent and help to move the organization towards achievement of its expected objectives. Hence, the organization operates in an uncertain environment and must be adaptable to ensure its viability. This research is motivated by a strong need raised by the achieved literature review highlighting the need to develop a performance management system that responds to current management challenges, namely : consistency between the key management components performance and responsiveness to deal with disruptive events. As a result, the main objective of this thesis is to propose a framework for the development of a coherent and responsive performance management system. The contributions of this thesis are presented in four phases. In a first phase, based on the findings of the literature review, we underlined the need to propose a structural approach SIPCo (Consistent Performance Indicator System) to identify the key components of performance management and to ensure their consistency through two methods. A logical method based on (1) a decision-making system modeling approach in order to identify the decision-making centers and (2) an informational system modeling approach in order to establish a representation of the interactive part of the key components of the performance management of each of the decision-making centers. The SIPCo method is also based on a participatory method to support the logical approach in order to define the various key components of performance management with future users. In a second phase, we proposed a procedural approach SYPCo-R (Coherent and Responsive Performance Management System) by integrating "potential event", an essential element nowadays never integrated by other performance evaluation systems. Most performance management systems are based on the triplet "Objective - Decision variable - Performance indicator" while the proposed SYPCo-R is based on the quadruplet "Objective - Potential event - Decision variable - Performance indicator". The objective of SYPCo-R is to provide overall consistency in the use of the key performance management components, and responsiveness by integrating the notion of potential event into decision-making through a methodology for classifying decision variables allowing to thwart potential events that may hinder the achievement of objectives. In a third phase, we proposed a conceptual model MCR (Conceptual Model of Reactivity) which uses the fundamental properties of the notion of reactivity in the form of an algorithm composed of a set of operating rules to identify performance failures in terms of reactivity and their origins in order to adjust and consolidate SYPCo-R. In a fourth phase, we proposed a predictive approach based on simulation to evaluate and assess the impact of the values fixed on the alternatives associated with each decision variable chosen from the ranking resulting from the SYPCo-R approach. Furthermore, this approach aims to anticipate performance failures to adjust the parameters of MCR and SYPCo-R. This will provide decision-makers with an additional tool to ensure consistency and responsiveness based on anticipation and prediction. This thesis provides innovative solutions in the process of developing a performance management system by proposing an interface by proposing an interface framework between several distinct and complementary methods that effectively responds to the concerns of decision-makers. The proposed framework allows to identify the complexity of a system and to make it intelligible to decision-makers. Moreover, this framework accepts future extensions based on an optimized exploitation of real-time data.
142

Modèles d'optimisation de la période de garantie pour des systèmes innovants

El Fergani, Omar 16 April 2018 (has links)
De nos jours, presque tous les produits industriels sont vendus avec une garantie. Chaque vente est accompagnée d'un contrat de garantie comportant de nombreux articles dont : les modalités d'usage, la performance du produit et la période de garantie. Cette dernière est importante pour le client qui se trouve dans une situation où il doit choisir entre plusieurs produits. Elle est aussi importante pour le manufacturier (vendeur), qui doit tenir compte des coûts encourus pendant la période de garantie. Une plus grande période de garantie engendrera des coûts additionnels. Le problème consiste à déterminer la période de garantie qui permet de séduire le client sans ruiner le vendeur. Nous allons présenter des modèles d'optimisation qui permettent de déterminer la période de garantie qui tient compte des coûts totaux encourus pour la production et la garantie. Le premier modèle traite le cas où le manufacturier établit un seuil limite de coût du produit vendu avec une période de garantie et cherche à déterminer le niveau de fiabilité qui maximise cette période. Le deuxième modèle, traite le cas bayésien où l'historique d'un produit similaire est disponible. Cet historique permet de prévoir le comportement futur du produit. Le modèle permet de déterminer la période de garantie en introduisant une fonction d'utilité qui tient compte des coûts, du niveau de fiabilité et de la satisfaction du client. Deux modèles d'analyses sont également développés pour l'optimisation des coûts de la garantie. Le premier modèle traite le cas où le manufacturier fixe la période de garantie, et cherche à déterminer le niveau de fiabilité qui minimise le coût de cette garantie. Le deuxième modèle propose une procédure pour déterminer les coûts de garantie, pour des produits réparables et pour des produits non réparables. Ce modèle suppose que la panne du produit est une fonction du nombre de fois où le produit a été utilisé plutôt que de son âge. Dans le dernier modèle traité on cherche à déterminer la période optimale de remplacement pour des produits réparables sous une politique de garantie du type FRW (Free Repair Warranty). Finalement, un abaque a été élaboré pour déterminer la période de garantie pour un produit assujetti à des défaillances purement aléatoires avec un taux de panne constant.
143

Évaluer l'évolution du régime hydrique à partir d'une configuration alternative de la chaîne de modélisation hydroclimatique dans un contexte de rareté des observations.

Ricard, Simon 08 January 2020 (has links)
Une configuration alternative de la chaîne de modélisation hydroclimatique est proposée contournant la rareté des observations météorologiques nécessaires au post-traitement statistique des simulations climatiques ainsi qu’au calage du modèle hydrologique. Cette configuration propose de calibrer les fonctions de transfert nécessaires au post-traitement statistique conjointement aux paramètres du modèle hydrologique et repose sur l’hypothèse que les variations de débits observées à l’exutoire d’un bassin versant constituent un proxy valable des forçages climatiques correspondant. Cette configuration repose également sur la notion de « fonction-objectif asynchrone », c’est-à-dire un critère d’erreur négligeant volontairement la corrélation entre deux variables. Parce qu’elles sont largement dépendantes des observations disponibles, les configurations conventionnelles de la chaîne de modélisation hydroclimatique sont généralement limitées au déploiement des champs précipitations et températures. Elles sont conséquemment limitées à l’usage de formulations empiriques pour évaluer les processus hydrologiques à l’échelle du bassin versant. Par la mise en place de la configuration alternative, les champs humidité de l’air, rayonnement solaire et vitesse du vent sont intégrés à une chaîne complète de modélisation hydroclimatique, permettant la construction de projections hydrologiques à partir de la formulation physique d’évapotranspiration de référence de Penman-Montheith. Les projections ainsi produites sont comparées à celles issues d’une configuration conventionnelle employant des réanalyses comme substituts aux observations. Les deux configurations sont mises en place sur le bassin versant de la rivière Du Loup, un bassin forestier de taille intermédiaire localisé dans la Vallée du Saint-Laurent, à partir des simulations issues de l’ensemble climatique CRCM5-LE et du modèle hydrologique distribué à base physique WaSiM-ETH. L’analyse des projections hydrologiques produites démontrent la capacité de la configuration alternative à produire une réponse hydrologique cohérente, généralement plus robuste que celle produite par une configuration conventionnelle. Cette dernière s’avère sensible aux biais inscrits à même les réanalyses, affectant le post-traitement des séries simulées et l’identification des paramètres calibrés. Sur la période historique, la formulation de Penman-Montheith offre une représentation plus cohérente des fluctuations d’évapotranspiration comparativement à une formulation empirique basée exclusivement sur la température de l’air. La projection de l’évapotranspiration, des teneurs en eau dans le sol ainsi que des étiages estivaux se sont avérée sensibles aux choix de la formulation d’évapotranspiration. La configuration alternative proposée répond d’abord à une incohérence structurelle inscrite dans les configurations conventionnelles de la chaîne de modélisation hydroclimatique. Elle permet également le déploiement d’une modélisation hydroclimatique à base physique cohérente pour des régions où les observations météorologiques sont rares tel que les régions montagneuses ou septentrionales, ou bien en voie de développement.
144

Exploration de la méthode adjointe pour le contrôle de l'erreur en mécanique des fluides numérique

Carrier, Alexandre 24 April 2018 (has links)
Dans ce mémoire, une approche de calcul de sensibilité utilisée dans le domaine de l'optimisation, appelée la méthode adjointe, est explorée pour estimer et contrôler efficacement l'erreur en mécanique des fluides numérique (MFN). Les développements effectués ont été greffés à Fluent, un logiciel commercial. L'erreur est calculée en effectuant le produit scalaire du vecteur d'erreur de troncature liée à chaque équation de bilan et du vecteur des variables adjointes. Ces dernières sont intrinsèquement liées à une fonctionnelle sélectionnée par l'utilisateur (le rendement, la traînée, les pertes, etc.). En adaptant le maillage avec cette estimation d'erreur, l'adaptation devient très orientée vers le but spécifique de la simulation. Les résultats obtenus montrent que la méthode adjointe permet d'identifier les régions sensibles de la simulation. En adaptant la taille, l'étirement et l'orientation des cellules du maillage en conséquence, il est alors possible d'améliorer la précision numérique ou encore de limiter la taille de maillage requise pour une précision donnée. Quoique se limitant aux cas 2-D stationnaires, les résultats obtenus laissent entrevoir que les maillages adaptés représentent une amélioration substantielle comparativement aux maillages structurés utilisés actuellement. À terme, l'intégration des techniques d'adaptation dans les processus de simulation pourrait fortement influencer les façons de faire de l'Institut de Recherche d'Hydro-Québec (IREQ) ainsi que du Laboratoire de Machines Hydrauliques (LAMH) de l'Université Laval.
145

Dynamique du billard gravitationnel et du billard optique : modes quantiques du billard souple

Lépine, Josette 13 April 2018 (has links)
On propose un scénario pour influencer le mouvement atomique dans un billard optique sous des conditions où le chaos classique est présent. Puisque la frontière du billard est tracée par le balayage rapide d un faisceau laser, donnant naissance à une barrière de potentiel statique, le mouvement des atomes confinés à l'intérieur peut être influencé par la modification dynamique du faisceau optique. Nos simulations numériques réalistes considèrent l'effet de la pénétration des trajectoires dans la barrière de potentiel, tel que la perte d 'intégrabilité pour certaines géométries d'enceinte. En particulier, on étudie le processus d 'échappement atomique lorsque l'intensité de la barrière de potentiel est abaissée sous l'énergie cinétique des atomes. En sélectionant différentes géométries, notre approche passe par des conditions allant du régime mixte au régime entièrement chaotique. L'analyse est faite pour des longueurs d'onde de De Broglie allant de l'échelle classique à l'échelle quantique et une correspondance est établie entre les deux échelles. Les notions acquises pourraient offrir un nouvel outil pour tester des questions fondamentales à la frontière du chaos classique et quantique.
146

Adaptation de maillages anisotropes par un estimateur d'erreur hiérarchique

Bois, Richard 19 April 2018 (has links)
Dans cette thèse, nous présentons un nouvel estimateur d’erreur de type hiérarchique utilisable dans un algorithme d’adaptation de maillages afin d’obtenir une approximation plus précise d’une équation aux dérivées partielles. Nous décrivons les avantages que possèdent ce nouvel estimateur d’erreur versus ceux qui existent déjà dans la littérature et nous justifions sa construction. Plusieurs résultats numériques seront présentés dans les cas uni, bi et tridimensionnels. Nous montrons des exemples académiques (où la solution analytique est connue) pour mesurer l’efficacité et la précision du nouvel estimateur d’erreur. Nous montrons également des exemples d’adaptation de maillages pour des équations modélisant des phénomènes physiques comme l’écoulement d’un fluide autour d’un cylindre, la diffusion instationnaire et le contact entre des corps élastiques déformables. Ces exemples montrent que le nouvel estimateur d’erreur est utilisable pour une très grande classe de problèmes. / In this thesis, we present a new hierarchical error estimator that can be used in a mesh adaptation algorithm to obtain a more accurate approximation to the solution of a partial differential equation. This error estimator has many advantages that other existing error estimators do not have or lack of. For instance, it is, by construction, independant of the differential operator used to model a certain physical phenomena. It is also naturally generalisable to the case of approximations of arbitrary order, and this, without any specific treatment to the underlying theory. Finally, it is efficient, optimal in a sense that will be defined and permits the elements to stretch in a priviledged direction (anisotropy) in order to obtain high accuracy against regularly refined meshes. Many examples are given in the one, two and three dimensional cases. Analytical examples (the solution is known) is given to measure the effiency and precision of the new error estimator. Other examples of mesh adaptation for equations modeling different physical phenomena like the flow of a fluid around a cylinder, unsteady diffusion and contact between deformable elastic bodies are presented. These examples show that the new error estimator can be used for a wide variety of problems.
147

Optimisation de la disponibilité des systèmes assujettis à la maintenance imparfaite

Arturo, Merlano 13 April 2018 (has links)
Dans ce mélTIoire, on s'intéresse à la modélisation et à l'optimisation d'une stratégie de maintenance, dite imparfaite, pour un système dont les caractéristiques opérationnelles se dégradent avec l'âge et avec l'usage. Ce type de stratégies a suscité, au cours de la dernière décennie, beaucoup d' intérêt au niveau de la recherche autant sur le plan fondamental qu'appliqué. Pour chaque système on connait la distribution des durées de vie, des durées de réparation et de remplacement, ainsi que le taux de réduction de l'âge ou du taux de panne du système suite à chaque action de maintenance préventive imparfaite. Après chaque réparation, l'âge du système est réduit d'une certaine fraction et son temps de réparation augmente d'une autre fraction. Plusieurs modèles sont proposés dans la littérature. Dans le cadre de cette étude, on s'est basé principalement sur les travaux de Wang et Pham pour développer deux modèles d' optimisation qui intègrent les variables de décision T et k (variables qui définissent la stratégie), les coûts et les durées associées aux actions de maintenance préventive et corrective, les distributions des durées de vie et de réparation, les paramètres u et ß inhérents au processus de quasirenouvellement et enfin la limite budgétaire La et le seuil de disponibilité requis Ao. Le premier modèle permet de déterminer le couple (T*, k*) qui minimise le coût total moyen par unité de temps sur un horizon infini L(T, k; u, ß) tout en respectant un seuil de disponibilité Ao. Le deuxième modèle vise à déterminer le couple (T*, k *) qui maximise la disponibilité stationnaire A(T, k; u, ß) en respectant une limite budgétaire La. Il s'agit de deux modèles de programmation non linéaire mixte. Des procédures de calcul, exploitant le progiciel MAPLE, ont été mises au point pour traiter les différents modèles de programmation mathématique (avec et sans contraintes). Les modèles proposés pourront servir de base au développetnent de nouvelles stratégies de maintenance. maintenance, dite imparfaite, pour un système dont les caractéristiques opérationnelles se dégradent avec l'âge et avec l' usage. Ce type de stratégies a suscité, au cours de la dernière décennie, beaucoup d' intérêt au niveau de la recherche autant sur le plan fondamental qu' appliqué. Pour chaque système on connait la distribution des durées de vie, des durées de réparation et de remplacement, ainsi que le taux de réduction de l'âge ou du taux de panne du système suite à chaque action de maintenance préventive imparfaite. Après chaque réparation, l'âge du système est réduit d'une certaine fraction et son temps de réparation augmente d'une autre fraction. Plusieurs modèles sont proposés dans la littérature. Dans le cadre de cette étude, on s'est basé principalement sur les travaux de Wang et Pham pour développer deux modèles d' optimisation qui intègrent les variables de décision T et k (variables qui définissent la stratégie), les coûts et les durées associées aux actions de maintenance préventive et corrective, les distributions des durées de vie et de réparation, les paramètres u et P inhérents au processus de quasirenouvellement et enfin la limite budgétaire Lo et le seuil de disponibilité requis Ao. Le premier modèle permet de déterminer le couple (T*, k*) qui minimise le coût total moyen par unité de temps sur un horizon infini L(T, k; u, P) tout en respectant un seuil de disponibilité Ao. Le deuxième modèle vise à déterminer le couple (T*, k *) qui maximise la disponibilité stationnaire A(T, k; u, P) en respectant une limite budgétaire La. Il s'agit de deux modèles de programmation non linéaire mixte. Des procédures de calcul, exploitant le progiciel MAPLE, ont été mises au point pour traiter les différents modèles de programmation mathématique (avec et sans contraintes). Les modèles proposés pourront servir base au développetnent de nouvelles stratégies de maintenance.
148

Three essays in macroeconomics and natural resources / 3 essays in macroeconomics and natural resources

Belem, Daouda 05 February 2021 (has links)
Les ressources naturelles sont d’une grande importance pour l’activité économique. Malgré le lien étroit qui existe entre les flux de ressources naturelles et le niveau de l’activité économique, l’attention accordée aux ressources naturelles dans la modélisation et l’analyse macroéconomique reste minime. Dans la majorité des cas, les ressources sont ignorées, ou lorsqu’elles sont prises en compte, les modèles aboutissent à des conclusions dissociant l’activité économique et les flux de ressource. Cette thèse propose un cadre permettant d’incorporer les ressources non renouvelables dans des modèles macroéconomiques. En particulier, une fonction de production est spécifiée pour l’extraction de la ressource. Aussi, nous intégrons la dynamique du stock de la ressource qui incorpore le progrès technique, et la découverte et le développement de nouvelles réserves. Nous dérivons des conditions pour caractériser des chemins d’exploitation optimale, et d’extraction soutenable. Ensuite, la thèse présente un modèle d’équilibre général stochastique (DSGE) dans lequel la production et l’utilisation du pétrole (ressource) sont analysées de manière exhaustive. Le modèle spécifie que le pétrole est extrait d’un stock dont le renouvellement est soit exogène, soit endogène et réagissant aux incitations économiques. Les simulations montrent que le fait de tenir compte des incitations économiques pour modéliser la production de la ressource affecte les implications à court et long termes du model. Enfin, la thèse se termine par une analyse de la rareté du pétrole. Elle examine aussi l’influence de certains facteurs économiques sur les augmentations des réserves dans un panel de 37 pays de 1980 à 2017. Nous trouvons que le prix du pétrole et le cumul des découvertes de pétrole sont positivement corrélés à l’évolution des ajouts aux réserves mondiales de pétrole. Deux nouveaux facteurs ont aussi été intégrés dans l’analyse, à savoir la rente pétrolière en pourcentage du PIB et l’ouverture commerciale qui sont significativement corrélées avec les découvertes de pétrole. / Natural resources, especially oil, are of tremendous economic importance. Despite the tight link between the flow of natural resources and measures of overall economic activity such as GDP, natural resources have not been given a commensurate attention in macroeconomic modelling and analysis through time. They are simply ignored in the vast majority of macroeconomic models, and those models that do integrate natural resources end up with conclusions decoupling the evolution of economic activities and the flow of natural resources. In this thesis, a framework for incorporating non-renewable resources into macroeconomic models is proposed. In particular, a simple production function is specified for the extraction process. In addition, we integrate a law of motion for the stock of non-renewable resources that incorporates technical progress and the discovery and development of new reserves. We derive conditions for optimal paths, and conditions for sustainable extraction ofthe resource.Next, we develop a closed-economy stochastic general equilibrium (DSGE) model in which oil (resource) production and usage are analyzed extensively. We suppose that oil is extracted out of a stock whose replacement can either be exogenous, or endogenous andreacting to underlying economic incentives. The simulations indicate that modeling resource production as responding to economic incentives has important effects on both the business cycleand long-term implications of the model. Finally, we analyse oil scarcity and examine the influence of competing economic factorsin driving oil reserve additions using a panel data model for 37 countries from 1980 to 2016. The results show a significant positive correlation of oil price and cumulative reserve additions with global oil reserve additions. Two new plausible economic factors have been considered, namely oil rent as per cent of GDP and trade openness which both present a significant correlation with the evolution of oil reserve additions.
149

Étude comparative de trois modèles de prédiction en éducation

Thibault, Jacques 25 April 2018 (has links)
Nous avons présenté dans le premier chapitre de cette recherche méthodologique plusieurs modèles de prédiction qui s'inscrivent dans le cadre plus général des modèles linéaires et qui se différencient les uns des autres par le type de variables rencontrées. Ces variables sont, selon le cas, aléatoires ou fixes et peuvent être mesurées exactement, c'est-à-dire avec ou sans erreurs de mesure. Parmi ces modèles de prédiction, trois d'entre eux ont particulièrement attiré notre attention: ce sont le modèle classique de la régression, le modèle stochastique et le modèle stochastique avec erreurs de mesure. Dans le premier modèle que nous avons étudié, le modèle classique de la régression, les variables indépendantes sont dites fixes ou mathématiques, c'est-à-dire qu'elles peuvent être contrôlées ou déterminées à l'avance par l'expérimentateur. Dans ce cas particulier, il est théoriquement impossible d'assigner une quelconque densité de probabilité puisque ces variables sont considérées comme des valeurs constantes. Dans les deuxième et troisième modèles de prédiction que nous avons présentés, soit les modèles stochastiques sans ou avec erreurs de mesure, les variables indépendantes, au même titre que la variable dépendante, sont plutôt considérées comme aléatoires auxquelles nous pouvons généralement assigner une certaine densité de probabilité. Nous avons donc supposé dans cette étude, comme bien d'autres auteurs d'ailleurs, que ces variables, la variable dépendante et l'ensemble des variables indépendantes, suivaient la loi multinormale. De plus, dans le troisième modèle, le modèle stochastique avec erreurs de mesure, les variables ne peuvent être mesurées exactement puisqu'elles sont affectées par la présence d'erreurs de mesure. Ces erreurs peuvent être, selon le cas, positives ou négatives et, de plus, sont généralement différentes d'un sujet à l'autre dans l'échantillon. Les objectifs de cette recherche consistaient brièvement â présenter les développements théoriques de chacun de ces modèles, à les comparer de façon systématique tant sur le plan théorique que pratique et enfin, à justifier l'utilisation du modèle classique de la régression, par rapport aux deux autres, dans le cas particulier où nous avons affaire à des variables aléatoires et sujettes à l'erreur de mesure, c'est-à-dire des variables telles que nous rencontrons généralement dans le domaine de l'éducation. Nous concluons qu'il est préférable, dans certains cas, d'utiliser le modèle classique de la régression puisque ce modèle nous permet d'une part d'accepter plus facilement le degré de signification des coefficients de régression et d'autre part de respecter davantage les postulats inhérents à ce modèle, par rapport à ceux du troisième modèle. Par contre, si nous assumons qu'aucun postulat n'est violé, le modèle stochastique avec erreurs de mesure s'avère préférable puisqu'il permet d'augmenter de façon substantielle, semble-t-il, le pourcentage de variabilité de la variable dépendante expliqué ou prédit par l'ensemble des variables indépendantes dans l'équation de régression. / Québec Université Laval, Bibliothèque 2014
150

Développement de modèles in silico pour la simulation de parois bactériennes

Sghairi, Amina 18 April 2018 (has links)
L'émergence de pathogènes multi-résistants ne cesse d'augmenter et présente un problème majeur dans le secteur alimentaire et de santé. La recherche d'une nouvelle classe d'agents antimicrobiens considérée comme solutions de rechange aux antibiotiques conventionnels est rendue quasi-obligatoire et d'une importance cruciale. Une des alternatives prometteuses est l'utilisation des peptides antimicrobiens (PAM). L'utilisation des PAM d'origine bactérienne, appelés bactériocines, comme une option prometteuse dans la lutte contre ce phénomène de résistance est d'un intérêt potentiel à l'heure actuelle. Des études ont mis en évidence la relation structure-fonction de ces molécules anti-pathogènes. Cependant, les modèles utilisés dans les études d'activités antimicrobiennes contre des souches bactériennes à Gram négatif et à Gram positif, s'avèrent insuffisants. La présente étude vise à développer des modèles in silico simulant les caractéristiques physicochimiques et structurales des membranes bactériennes d'Escherichia coli, Salmonella typhimurium, Staphylococcus aureus et Listeria monocytogenes. Pour ce faire, les données relatives à la composition de la membrane de chaque bactérie ont été rassemblées, ensuite les composantes sélectionnées ont été construites grâce au logiciel «Chemdoodle» et regroupées dans une bibliothèque tridimensionnelle constituée des différentes unités nécessaires au développement des modèles. Une étape d'assemblage a été effectuée à l'aide du logiciel «Molsoft icm-pro». Ces modèles permettront d'étudier les interactions bactériocines-membranes ainsi que de prédire et sélectionner les séquences peptidiques ayant une activité antimicrobienne optimale.

Page generated in 0.1307 seconds