• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 598
  • 186
  • 3
  • Tagged with
  • 789
  • 789
  • 490
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 79
  • 69
  • 65
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Étude comparative de trois modèles de prédiction en éducation

Thibault, Jacques 25 April 2018 (has links)
Nous avons présenté dans le premier chapitre de cette recherche méthodologique plusieurs modèles de prédiction qui s'inscrivent dans le cadre plus général des modèles linéaires et qui se différencient les uns des autres par le type de variables rencontrées. Ces variables sont, selon le cas, aléatoires ou fixes et peuvent être mesurées exactement, c'est-à-dire avec ou sans erreurs de mesure. Parmi ces modèles de prédiction, trois d'entre eux ont particulièrement attiré notre attention: ce sont le modèle classique de la régression, le modèle stochastique et le modèle stochastique avec erreurs de mesure. Dans le premier modèle que nous avons étudié, le modèle classique de la régression, les variables indépendantes sont dites fixes ou mathématiques, c'est-à-dire qu'elles peuvent être contrôlées ou déterminées à l'avance par l'expérimentateur. Dans ce cas particulier, il est théoriquement impossible d'assigner une quelconque densité de probabilité puisque ces variables sont considérées comme des valeurs constantes. Dans les deuxième et troisième modèles de prédiction que nous avons présentés, soit les modèles stochastiques sans ou avec erreurs de mesure, les variables indépendantes, au même titre que la variable dépendante, sont plutôt considérées comme aléatoires auxquelles nous pouvons généralement assigner une certaine densité de probabilité. Nous avons donc supposé dans cette étude, comme bien d'autres auteurs d'ailleurs, que ces variables, la variable dépendante et l'ensemble des variables indépendantes, suivaient la loi multinormale. De plus, dans le troisième modèle, le modèle stochastique avec erreurs de mesure, les variables ne peuvent être mesurées exactement puisqu'elles sont affectées par la présence d'erreurs de mesure. Ces erreurs peuvent être, selon le cas, positives ou négatives et, de plus, sont généralement différentes d'un sujet à l'autre dans l'échantillon. Les objectifs de cette recherche consistaient brièvement â présenter les développements théoriques de chacun de ces modèles, à les comparer de façon systématique tant sur le plan théorique que pratique et enfin, à justifier l'utilisation du modèle classique de la régression, par rapport aux deux autres, dans le cas particulier où nous avons affaire à des variables aléatoires et sujettes à l'erreur de mesure, c'est-à-dire des variables telles que nous rencontrons généralement dans le domaine de l'éducation. Nous concluons qu'il est préférable, dans certains cas, d'utiliser le modèle classique de la régression puisque ce modèle nous permet d'une part d'accepter plus facilement le degré de signification des coefficients de régression et d'autre part de respecter davantage les postulats inhérents à ce modèle, par rapport à ceux du troisième modèle. Par contre, si nous assumons qu'aucun postulat n'est violé, le modèle stochastique avec erreurs de mesure s'avère préférable puisqu'il permet d'augmenter de façon substantielle, semble-t-il, le pourcentage de variabilité de la variable dépendante expliqué ou prédit par l'ensemble des variables indépendantes dans l'équation de régression. / Québec Université Laval, Bibliothèque 2014
172

Développement de modèles in silico pour la simulation de parois bactériennes

Sghairi, Amina 18 April 2018 (has links)
L'émergence de pathogènes multi-résistants ne cesse d'augmenter et présente un problème majeur dans le secteur alimentaire et de santé. La recherche d'une nouvelle classe d'agents antimicrobiens considérée comme solutions de rechange aux antibiotiques conventionnels est rendue quasi-obligatoire et d'une importance cruciale. Une des alternatives prometteuses est l'utilisation des peptides antimicrobiens (PAM). L'utilisation des PAM d'origine bactérienne, appelés bactériocines, comme une option prometteuse dans la lutte contre ce phénomène de résistance est d'un intérêt potentiel à l'heure actuelle. Des études ont mis en évidence la relation structure-fonction de ces molécules anti-pathogènes. Cependant, les modèles utilisés dans les études d'activités antimicrobiennes contre des souches bactériennes à Gram négatif et à Gram positif, s'avèrent insuffisants. La présente étude vise à développer des modèles in silico simulant les caractéristiques physicochimiques et structurales des membranes bactériennes d'Escherichia coli, Salmonella typhimurium, Staphylococcus aureus et Listeria monocytogenes. Pour ce faire, les données relatives à la composition de la membrane de chaque bactérie ont été rassemblées, ensuite les composantes sélectionnées ont été construites grâce au logiciel «Chemdoodle» et regroupées dans une bibliothèque tridimensionnelle constituée des différentes unités nécessaires au développement des modèles. Une étape d'assemblage a été effectuée à l'aide du logiciel «Molsoft icm-pro». Ces modèles permettront d'étudier les interactions bactériocines-membranes ainsi que de prédire et sélectionner les séquences peptidiques ayant une activité antimicrobienne optimale.
173

Développement d'une technique d'acquisition de contraintes basée sur le nombre de solutions

Coulombe, Christopher 23 October 2023 (has links)
Plusieurs paradigmes de programmation existent pour aider à résoudre des problèmes d'optimisation combinatoire, l'un d'entre eux étant la programmation par contraintes. L'idée de ce paradigme consiste à modéliser le problème à résoudre à l'aide de contraintes, c'est-à-dire des déclarations qui forcent les variables du problème à respecter une relation mathématique. Les contraintes des problèmes ont habituellement des paramètres qui permettent de préciser la relation mathématique à respecter et des variables de décision qui représentent les variables pour lesquelles la relation mathématique doit s'appliquer. Bien qu'intéressant en soi, la programmation par contraintes peut également s'étendre sur d'autres concepts, notamment la modélisation automatique. L'acquisition ou apprentissage de contraintes consiste à apprendre les différentes contraintes, incluant les valeurs des paramètres, qui peuvent expliquer un ensemble d'exemples fournis. L'apprentissage de contraintes peut être utile dans plusieurs situations, comme l'apprentissage de structures d'horaires d'hôpitaux à l'aide d'anciens exemples d'horaires. L'apprentissage de contraintes est encore un domaine nouveau pour lequel les stratégies doivent encore être adaptées ou développées. Les techniques d'acquisition existantes varient en genre, incluant des méthodes qui créent des solutions artificielles pour interagir avec un utilisateur ou des approches qui se basent sur des analyses mathématiques rigoureuses de solutions pour faire des choix sans jamais communiquer avec l'utilisateur. Dans ce mémoire, nous explorons une nouvelle méthode pour performer l'acquisition de contraintes. Le critère principal de la méthode développée est basé sur le nombre de solutions du modèle considéré et utilise des outils de dénombrement. Notre technique performe bien sur les problèmes essayés et ouvre la porte à une nouvelle manière d'apprivoiser les problèmes d'acquisition de contraintes. / Several programming paradigms exist to help solve combinatorial optimization problems, one of them being constraint programming. The idea of this paradigm is to model the problems to solve using constraints, i.e. statements that force the variables of the problem to respect a mathematical relation. The constraints of a problem usually have parameters that allow to specify the mathematical relationship to be respected and decision variables that represent the variables on which the mathematical relationship must be applied. Although interesting in itself, constraint programming can also expand on other concepts, such as the automatisation of the modeling process. Constraints acquisition consists in learning the different constraints, including parameter values, which can explain a set of examples provided. Constraint acquisition can be useful in multiple situations, such as learning structures in schedules for hospitals using old schedules. Constraint learning is still a new area for which strategies still need to be adapted or developed. The existing techniques of acquisition varies widely in style, including methods that create artificial solutions to interact with a user or approaches which are based on complex mathematical analyzes of real solutions to make choices without ever communicating with the user. In this thesis, we explore a new method to perform the acquisition of constraints. The main criterion of the developed method is based on the number of solutions of the considered model and uses tools of model counting. Our technique works well on proven problems and opens the door to a new way of approaching acquisition constraint problems.
174

Focalisation extrême par des éléments optiques non-paraxiaux

Panneton, Denis 20 November 2018 (has links)
Résumé Ce projet s’inscrit comme un effort de modélisation et de développement d’outils analytiques décrivant la focalisation non-paraxiale de champs électromagnétiques. Des solutions vecto- rielles sont développées, suivant une généralisation du formalisme intégral de Richards-Wolf. La thèse se scinde en deux principales avenues. La première consiste à décrire, en langage mathématique moderne, le formalisme de Richards-Wolf qui permet de décrire les champs électromagnétiques vectoriels au foyer de systèmes focalisants. Le formalisme est exploré et plusieurs solutions analytiques aux équations intégrales de Richards-Wolf sont introduites. La deuxième avenue consiste en la généralisation du formalisme de Richards-Wolf pour des systèmes à foyer étendu (par exemple, distribué sur une ligne). Utilisant une méthode com- binée, basée sur le tracé de rayon et le traitement intégral de la diffraction, le modèle permet une amélioration en trois volets des descriptions classiques des champs au foyer. En premier lieu, l’analyse vectorielle de la diffraction permet de s’affranchir de toute hypothèse paraxiale. En second lieu, l’analyse exacte et l’analogie rayon/onde plane uniforme permet d’éviter la description de systèmes à foyer étendu par des termes de phases aberrés, qui réduisent la robustesse du modèle et la justesse des solutions trouvées. Finalement, l’élégance analytique de la méthode permet une compréhension physique plus instinctive des phénomènes d’inter- férence au foyer de systèmes complexes et encourage le développement de méthodes inverses, permettant de retracer les conditions nécessaires à l’obtention d’un profil d’intensité et de phase données, sans a priori sur le système focalisant. Sur le plan concret, les outils mathématiques décrits et développés dans cette thèse permettent une avancée pour l’étude de phénomènes et le développement de technologies, notamment en microscopie à haute-résolution, mais également en stockage de données, en piégeage optique ou même en accélération de particules à l’échelle microscopique. Il s’agit de la première méthode systématique proposée pour calculer le profil de faisceaux focalisés par des sections coniques (sphères, ellipses, etc.) par des moyens analytiques. / This project is part of a global effort toward modelization and development of mathemat- ical tools describing non-paraxial focusing of electromagnetic fields. Vectorial solutions are proposed, according to a generalization of the Richards-Wolf formalism. The objective of this thesis is two-fold. The first part covers the Richards-Wolf formalism with a modern mathematical formulation, which permits the formal description of focused vectorial electromagnetic fields. An in-depth exploration of the theory is exposed and multiple analytical solutions of the integrals are given. The second part covers the generalization of the Richards-Wolf formalism to systems without a single-point focus, by combining geometrical optics and diffraction principles. The vectorial analysis agrees with the assumption of non-paraxial focusing while the development is free of constraints upon the existence of an optical focus. Finally, the analytical treatment helps forge a physical intuition of the electromagnetic solutions and the development of inverse methods, which would help find the necessary illumination upon a system to produce a given electromagnetic pattern near the focus. The mathematical tools presented in this thesis may lead to advances in high-resolution microscopy, data encryption, optical tweezers and particle acceleration.
175

Modélisation et optimisation mécanique d'un récupérateur piézoélectrique d'énergie vibratoire

Paquin, Simon 17 April 2018 (has links)
Dans la dernière décennie, plusieurs chercheurs ont démontré un intérêt concernant la possibilité de récupérer de l'énergie mécanique provenant de structures vibrantes. Une façon commune de procéder consiste à utiliser l'effet piézoélectrique direct à partir d'une poutre en porte-à-faux ayant des céramiques piézoélectriques intégrées. Les études portant sur la modélisation du phénomène se sont jusqu'ici limitées à des geometries simples de récupérateur tandis que peu d'études se sont intéressées à la modélisation d'une forme optimale de récupérateur. Les travaux de recherche de ce mémoire étudient donc le phénomène de récupération d'énergie vibratoire afin d'élaborer un design optimal de récupérateur piézoélectrique. Le phénomène piézoélectrique est d'abord décrit théoriquement afin que le volume piézoélectrique soit intégré adéquatement à une structure vibrante. Une analyse détaillée de modèles est ensuite réalisée pour faire ressortir les bases de la récupération d'énergie vibratoire. À la lumière de cette analyse, une modélisation semi-analytique est développée à partir des approximations de Rayleigh-Ritz et intégrée à un modèle électromécanique. Une fois validée, des études numériques sont réalisées avec ce modèle permettant ainsi de poser le problème d'optimisation de la géométrie du récupérateur. Un algorithme génétique est finalement utilisé pour maximiser la puissance récupérée. La géométrie optimale permet de récupérer une puissance de 62.8 mW lorsque le récupérateur est soumis à une source vibratoire ayant une amplitude d'accélération de 9.81 m.s⁻² et une fréquence d'excitation de 100 Hz, ce qui constitue une densité énergétique de 0.38 mW.g⁻¹.
176

De la structure croissante des réseaux complexes : approche de la géométrie des réseaux

Murphy, Charles 18 July 2018 (has links)
L’internet, le cerveau humain et bien d’autres sont des systèmes complexes ayant un grand nombre d’éléments qui interagissent fortement entre eux selon leur structure. La science des réseaux complexes, qui associe ces éléments et interactions respectivement à des noeuds et liens d’un graphe, permet aujourd’hui de mieux les comprendre grâce aux types d’analyses quantitatives qu’elle rend possible. D’une part, elle permet de définir une variété de propriétés structurelles menant vers une classification de ces systèmes. D’autre part, la compréhension de l’émergence de ces propriétés grâce à certains modèles stochastiques de réseaux devient réalité. Dans les dernières années, un effort important a été déployé pour identifier des mécanismes d’évolution universels pouvant expliquer la structure des réseaux complexes réels. Ce mémoire est consacré à l’élaboration d’un de ces mécanismes de croissance universels basé sur la théorie de la géométrie des réseaux complexes qui stipule que les réseaux sont des objets abstraits plongés dans des espaces métriques de similarité où la distance entre les noeuds affecte l’existence des liens. Au moyen de méthodes d’analyse avancées, la caractérisation complète de ce mécanisme a été établie et permet le contrôle de plusieurs propriétés structurelles des réseaux ainsi générés. Ce mécanisme général pourrait expliquer, du moins de manière effective, la structure d’un nombre important de systèmes complexes dont la formation est, encore aujourd’hui, mal comprise. / The internet and the human brain among others are complex systems composed of a large number of elements strongly interacting according to their specific structure. Nowadays, network science, which construes these elements and interactions respectively as nodes and links of a graph, allows a better understanding of these systems thanks to the quantitative analysis it oers. On the one hand, network science provides the definition of a variety of structural properties permitting their classification. On the other hand, it renders possible the investigation of the emergence of these properties via stochastic network models. In recent years, considerable efforts have been deployed to identify universal evolution mechanisms responsible for the structure of real complex networks. This memoir is dedicated to one of these universal growth mechanisms based on the network geometry theory which prescribes that real networks are abstract objects embedded in similarity metric spaces where the distance between nodes aect the existence of the links. Thanks to advanced analysis methods, the complete characterization of the mechanism has been achieved and allows the control of structural properties over a wide range. This general mechanism could explain, at least effectively, the structure of a number of complex systems for which the evolution is still poorly understood.
177

Discrete element method modeling of mechanical behavior of coke aggregates during compaction process

Sadeghi Chahardeh, Alireza 11 April 2024 (has links)
Les anodes en carbone font partie de la réaction chimique de réduction de l'alumine, qui est consommée lors du procédé d'électrolyse Hall-Héroult. Le comportement des agrégats secs de coke en tant que composant principal des anodes de carbone (environ 85 %) a un rôle clé et exceptionnel dans leurs propriétés finales. L'analyse de défaillance des agrégats de coke sec permet non seulement de mieux comprendre les mécanismes de déformation des matériaux granulaires sous charge compressive, mais peut également identifier les causes potentielles de défauts structurels des anodes en carbone, telles que les fissures horizontales. Dans ce travail, il sera montré qu'un mode de défaillance particulier peut être responsable de la génération de fissures dans les anodes en carbone. Le comportement de rupture des agrégats de coke n 'est pas seulement affecté par les paramètres du processus de compactage, tels que la pression de confinement et la vitesse de déformation axiale, mais il dépend également fortement de la distribution granulométrique et de la forme des particules de coke. La méthode des éléments discrets (DEM) est utilisée pour modéliser le comportement micromécanique des agrégats de coke sec pendant le processus de compactage. De plus, le critère de travail de second ordre est utilisé pour analyser la rupture des éprouvettes de granulats de coke. Les résultats révèlent que l'augmentation de la pression de confinement augmente la probabilité du mode de diffusion de la rupture dans l'éprouvette. D'autre part, l'augmentation de la vitesse de déformation augmente les chances du mode de localisation de la déformation de la rupture dans l'éprouvette. De plus, les résultats indiquent que l'utilisation de fines particules ainsi que la diminution de la sphéricité des particules de coke augmenteront la plage de stabilité des agrégats de coke. De plus, en utilisant l'analyse des évaluations de contour de micro-déformation pendant le processus de compactage, il est montré que, à la fois en ajoutant des particules fines aux agrégats de coke et en diminuant la sphéricité des particules de coke, la possibilité de créer une bande de compression dans le coke agrégats est réduit. Étant donné que la présence des bandes de compactage dans la pâte d'anode crée une zone sujette à la génération de fissures horizontales, les résultats de cette étude pourraient conduire à la production d'anodes en carbone avec moins de défauts structurels. / Carbon anodes are part of the chemical reaction of alumina reduction, that is consumed during the Hall-Héroult electrolysis process. The behavior of dry coke aggregates as the main component of carbon anodes (about 85 %) has an exceptional key role in their final properties. The failure analysis of dry coke aggregates not only leads to a better understanding of the deformation mechanisms of granular materials under compressive loading but also can also identify the potential causes of structural defects in carbon anodes, such as horizontal cracks. In this work, it will be shown that a particular failure mode can be responsible for the crack generation in the carbon anodes. The failure behavior of the coke aggregates is not only affected by the compaction process parameters, such as the confining pressure and axial strain rate, but it is also strongly dependent on the size distribution and shape of coke particles. The discrete element method (DEM) is employed to model the micro-mechanical behavior of the dry coke aggregates during the compaction process. In addition, the second-order work criterion is used to analyze the failure of the coke aggregate specimens. The results reveal that increasing the confining pressure enhances the probability of the diffusing mode of the failure in the specimen. On the other hand, the increase of the strain rate augments the chance of the strain localization mode of the failure in the specimen. In addition, the results indicate the fact that the use of fine particles as well as decreasing the sphericity of coke particles will increase the stability range of the coke aggregates. Moreover, by using the analysis of micro-strain contour evaluations during the compaction process, it is shown that, both by adding fine particles to the coke aggregates and by decreasing the sphericity of coke particles, the possibility of creating a compression band in the coke aggregates is reduced. Since the presence of the compaction bands in the anode paste creates an area that is prone to horizontal crack generation, the results of this study could lead to the production of carbon anode with fewer structural defects.
178

Estimation d'un modèle agrégé du nombre de kilomètres parcourus, du taux de consommation moyen de carburant et du nombre de véhicules légers au Canada

Lamonde, Bernard 12 April 2018 (has links)
L'objectif de ce projet de recherche est de mesurer, à un niveau agrégé, l'influence qu'ont les facteurs économiques de base tels le prix de l'essence et le revenu sur les déterminants de la demande de carburant des véhicules légers au Canada. L'approche retenue repose sur un modèle économétrique d'équations simultanées visant à expliquer le nombre de kilomètres parcourus, le taux de consommation moyen de carburant ainsi que le nombre de véhicules. Les données dont nous disposons sont de type panel et proviennent de la Base de données nationale sur la consommation d'énergie de Ressources Naturelles Canada. Les élasticités obtenues sont assez conformes à la littérature recensée. À court terme, une hausse du prix de l'essence provoque une réduction limitée de l'usage (-0,16 à -0,08) alors que l'augmentation du revenu influence surtout le niveau de possession (0,27 à 0,35). Nous estimons également qu'il existe un effet rebond qui est compris entre 19 % et 24 % à long terme.
179

Un modèle d’évaluation des coûts agrégés liés aux assurances pour les professionnels de la santé

Hamel, Emmanuel 19 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Dans ce mémoire, un processus d’évaluation des coûts agrégés liés aux assurances pour les professionnels de la santé est considéré. Au chapitre 1, nous décrivons les principales caractéristiques de l’assurance pour les professionnels de la santé : l’environnement, les types de couverture d’assurance, la prime, les coûts liés aux réclamations, les types de dépendances stochastiques dans le processus des coûts et dans les taux d’actualisation du processus des coûts. Au chapitre 2, une description des concepts théoriques préalables à l’élaboration et à l’application du modèle mathématique est faite : la dépendance (avec copules), le processus de renouvellement, la force d’intérêt et les méthodes numériques utilisées. Au chapitre 3, le modèle théorique du processus des coûts est établi et les premiers moments de ce processus sont obtenus, par des calculs numériques déterministes et par simulations. Au chapitre 4, plusieurs applications du modèle sont présentées : moments avec force d’intérêt stochastique (Vasicek), incidences de la dépendance sur le modèle, calculs de primes, mesures de risque (VaR et TVaR). Au chapitre 5, nous concluons ce mémoire. / In this master’s degree thesis, an aggregate loss model for health professionals is considered. The introduction describes some characteristics related to the insurance for health professionals: environment, type of insurance coverage, premium, cost of a claim, stochastic dependencies in the claim process and discount rate. In chapter 2, a description of theoretical concepts related to the proposed mathematical model is done: stochastic dependence (by copulas), renewal processes, discount rate (i.e. stochastic differential equations) and numerical methods. In chapter 3, the theoretical model is presented and the first moments are obtained, with deterministic numerical calculations and simulations. In chapter 4, some applications of the model are presented: first moments calculations with stochastic interest rate (Vasicek), impact of dependence on the model, premium calculations, risk measures (VaR and TVaR). In chapter 5, the conclusion follows.
180

Référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif

Marif, Anouar 27 January 2024 (has links)
Le travail de cette thèse porte sur l'élaboration d'un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif, interface entre plusieurs méthodes distinctes et complémentaires. Le référentiel proposé intègre des principes clés de pilotage par la performance et propose une alternative améliorée et prometteuse par rapport aux systèmes de mesures de la performance traditionnels. Un système de pilotage de la performance est un outil indispensable pour une organisation. Sa conception demeure par ailleurs une démarche complexe étant donné les différents aspects et éléments que l'organisation doit intégrer dans son processus d'évaluation et d'amélioration de la performance, en particulier les événements perturbateurs, souvent négligés dans la littérature et très difficile à intégrer dans l'élaboration d'un mécanisme de pilotage de la performance. En effet, le choix de la variable de décision pour contrecarrer les effets d'un évènement perturbateur n'est pas toujours immédiate, il possède une certaine inertie qui peut entraîner une perte de la performance globale. Également, les décideurs ne disposent pas souvent des mécanismes et des outils susceptibles de vérifier que les composantes clés de pilotage de la performance (Objectifs-Variables de décision-Indicateurs de performance) engagées par chacun d'eux soient cohérentes et aident à faire évoluer l'organisation vers l'atteinte de ses objectifs escomptés. De ce fait, l'organisation évolue dans un contexte souvent incertain et doivent faire preuve d'adaptabilité pour garantir leur viabilité. Ce projet de recherche est motivé par un besoin criant soulevé suite à une revue de littérature soulignant la nécessité de développer un système de pilotage de la performance qui répond aux défis actuels en terme de pilotage, à savoir : la cohérence entre les composantes clés de pilotage de la performance et la réactivité pour faire face aux évènements perturbateurs. De ce fait, notre volonté dans ce travail a été de proposer un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif. Les contributions de cette thèse sont présentées en quatre phases. Dans une première phase, à partir du constat réalisé durant la revue de littérature, nous avons souligné la nécessité de proposer une démarche structurale SIPCo (Système d'Indicateurs de Performance Cohérent) pour identifier les composantes clés de pilotage de la performance et assurer leur cohérence à travers deux démarches. Une démarche logique basée sur (1) une approche de modélisation de système décisionnel afin d'identifier les centres de décision et (2) une approche de modélisation de système informationnel afin de d'établir une représentation de la part interactive des composantes clés de pilotage de la performance de chaque centre de décision. La méthode SIPCo repose aussi sur une démarche participative pour accompagner la démarche logique afin de définir les différentes composantes clés de pilotage de la performance auprès des futurs utilisateurs. Dans une deuxième phase, nous avons proposé une démarche procédurale SYPCo-R (Système de Pilotage de la Performance Cohérent et Réactif) en intégrant un élément jamais intégré par les autres systèmes d'évaluation de la performance, à savoir "évènement potentiel". En effet, la plupart des systèmes de pilotage par la performance sont basés sur le triplet "Objectif - Variable de Décision - Indicateur de performance". Alors que, SYPCo-R que nous proposons est basé sur le quadruplet "Objectif - Évènement potentiel - Variable de Décision - Indicateur de performance". L'objectif de SYPCo-R est d'apporter une cohérence globale dans l'exploitation des composantes clés de pilotage de la performance et une réactivité en intégrant la notion d'évènement potentiel dans la prise de décision à travers une méthodologie de classement des variables de décision qui permettent de contrecarrer les évènements potentiels susceptibles d'entraver l'atteinte des objectifs. Dans une troisième phase, nous avons proposé un modèle conceptuel MCR (Modèle Conceptuel de Réactivité) qui reprend les propriétés fondamentales de la notion de réactivité sous forme d'algorithme composé d'un ensemble des règles opératoires pour identifier les défaillances de performance en terme de réactivité et leurs origines afin d'ajuster et consolider SYPCo-R. Dans une quatrième phase, nous avons proposé une démarche prédictive basée sur la simulation pour évaluer et apprécier l'impact des valeurs fixées aux alternatives associées à chaque variable de décision choisie parmi le classement résultant de la démarche SYPCo-R. Cette démarche vise aussi à anticiper les défaillances de performance pour ajuster les paramètres de MCR et SYPCo-R. Les décideurs pourront ainsi disposer d'un outil supplémentaire pour garantir la cohérence, la réactivité basée sur l'anticipation et la prédiction. Les travaux de cette thèse apportent des solutions innovantes dans la démarche de l'élaboration d'un système de pilotage de la performance en proposant un référentiel interface entre plusieurs méthodes distinctes et complémentaires qui répond efficacement aux préoccupations des décideurs. Le référentiel proposé permet de cerner la complexité d'un système et de la rendre intelligible par les décideurs. De plus, il s'apprête bien à des extensions futures basées sur une exploitation optimisée des données en temps réel. / This thesis aims at elaborating a framework for the development of a coherent and responsive performance management system, interface between several distinct and complementary methods. The proposed framework integrates key performance management principle s and offers an improved and promising alternative to traditional performance measurement systems. A performance management system is an essential tool for an organization. Otherwise, the conception of this system remains a complex process given the several aspects and elements that the organization must integrate into its process of evaluating and improving performance, in particular disruptive events, often neglected in the literature and very difficult to take into account in the development of a performance management mechanism. Decision-making to cover the effects of a disruptive event is not immediate as it has an inertia which can lead to a loss of overall performance. Also, decision-makers rarely have the necessary tools to verify that the used key performance management components (Objectives-Decision variables-Performance indicators) are coherent and help to move the organization towards achievement of its expected objectives. Hence, the organization operates in an uncertain environment and must be adaptable to ensure its viability. This research is motivated by a strong need raised by the achieved literature review highlighting the need to develop a performance management system that responds to current management challenges, namely : consistency between the key management components performance and responsiveness to deal with disruptive events. As a result, the main objective of this thesis is to propose a framework for the development of a coherent and responsive performance management system. The contributions of this thesis are presented in four phases. In a first phase, based on the findings of the literature review, we underlined the need to propose a structural approach SIPCo (Consistent Performance Indicator System) to identify the key components of performance management and to ensure their consistency through two methods. A logical method based on (1) a decision-making system modeling approach in order to identify the decision-making centers and (2) an informational system modeling approach in order to establish a representation of the interactive part of the key components of the performance management of each of the decision-making centers. The SIPCo method is also based on a participatory method to support the logical approach in order to define the various key components of performance management with future users. In a second phase, we proposed a procedural approach SYPCo-R (Coherent and Responsive Performance Management System) by integrating "potential event", an essential element nowadays never integrated by other performance evaluation systems. Most performance management systems are based on the triplet "Objective - Decision variable - Performance indicator" while the proposed SYPCo-R is based on the quadruplet "Objective - Potential event - Decision variable - Performance indicator". The objective of SYPCo-R is to provide overall consistency in the use of the key performance management components, and responsiveness by integrating the notion of potential event into decision-making through a methodology for classifying decision variables allowing to thwart potential events that may hinder the achievement of objectives. In a third phase, we proposed a conceptual model MCR (Conceptual Model of Reactivity) which uses the fundamental properties of the notion of reactivity in the form of an algorithm composed of a set of operating rules to identify performance failures in terms of reactivity and their origins in order to adjust and consolidate SYPCo-R. In a fourth phase, we proposed a predictive approach based on simulation to evaluate and assess the impact of the values fixed on the alternatives associated with each decision variable chosen from the ranking resulting from the SYPCo-R approach. Furthermore, this approach aims to anticipate performance failures to adjust the parameters of MCR and SYPCo-R. This will provide decision-makers with an additional tool to ensure consistency and responsiveness based on anticipation and prediction. This thesis provides innovative solutions in the process of developing a performance management system by proposing an interface by proposing an interface framework between several distinct and complementary methods that effectively responds to the concerns of decision-makers. The proposed framework allows to identify the complexity of a system and to make it intelligible to decision-makers. Moreover, this framework accepts future extensions based on an optimized exploitation of real-time data.

Page generated in 0.0866 seconds