• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 586
  • 184
  • 3
  • Tagged with
  • 775
  • 775
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 77
  • 73
  • 62
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Les langages testables par morceaux

Dubé, Maxime 17 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Une des questions incontournables qu'on se pose en théorie des langages est de savoir si une logique est décidable. Autrement dit, pour une logique donnée, on veut savoir s'il existe un algorithme qui détermine si un langage donné est exprimable dans cette logique. Depuis les travaux de Schützenberger, McNaughton et Papert sur la logique de premier ordre sur les mots, on reconnait l'importance de la théorie algébrique des langages pour résoudre ces questions de décidabilité. Un autre exemple historique est la caractérisation de Simon des langages testables par morceaux de mots par les monodes J -triviaux. On dit qu'un langage est testable par morceaux si on peut le définir par une combinaison booléenne d'expressions régulieres de la forme [symbol]. Ces langages sont exactement ceux qui sont définis par la clôture booléenne de [symbol] et le théorème de Simon engendre un algorithme qui en resout la décidabilité. Suite aux succès sur les mots, on a attaque les mêmes questions de décidabilité de logiques sur les langages de forêts, plus spéciquement sur les langages d'arbres. Dernièrement, Bojanczyk, Segoufin et Straubing ont pu démontrer un analogue du théorème de Simon pour les forêts. En effet, ils ont pu caractériser la clôture booléenne de [symbol], c'est-à-dire les langages testables par morceaux, en fonction d'une structure algébrique nommée algèbre de forêts. Ce mémoire est d'abord un état de l'art de la théorie algébrique des langages testables par morceaux. Entre autres, nous présentons le théorème de Simon sur les mots en passant par un résultat de Straubing et Thérien qui utilise la théorie des monodes partiellement ordonnés. Ensuite, nous étudions un pendant de ce résultat pour les algèbres de forêts. Finalement, nous règlons la décidabilité des langages de mots bien emboîtés testables par morceaux, une sous-classe des langages visiblement à pile. En efet, nous proposons un algorithme qui utilise le résultat de Bojanczyk, Segoufin et Straubing sur les langages de forêts.
142

Modélisation mathématique en épidémiologie par réseaux de contacts : introduction de l'hétérogénéité dans la transmissibilité

Allard, Antoine 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / La dernière décennie a vu se développer une approche novatrice et efficace pour modéliser la propagation de maladies infectieuses dans des populations: l'épidémiologie par réseaux de contacts. Utilisant des réseaux complexes pour tenir compte des interactions permettant la transmission de maladies infectieuses entre les individus, la percolation de liens de tels réseaux permet de prédire l'issue d'une épidémie et donc d 'aider à tester et à améliorer les politiques de santé publique. Nous présentons un nouveau modèle de percolation de liens sur des réseaux complexes possédant une quelconque distribution de degrés et où l'hétérogénétité de la probabilité d'occupation des liens est explicitement intégrée. Puisque plusieurs maladies infectieuses possèdent une transmissibilité hétérogène, due aux différences physiologiques et comportementales entre les individus, ce modèle permettra des études beaucoup plus précises et détaillées et pourra participer à l'élaboration de politiques de santé publique mieux adaptées à la réalité.
143

Modèle d’évolution de galaxies pour simulations cosmologiques à grande échelle

Côté, Benoît 20 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / Nous présentons un modèle semi-analytique (MSA) conçu pour être utilisé dans une simulation hydrodynamique à grande échelle comme traitement de sous-grille afin de générer l’évolution des galaxies dans un contexte cosmologique. Le but ultime de ce projet est d’étudier l’histoire de l’enrichissement chimique du milieu intergalactique (MIG) ainsi que les interactions entre les galaxies et leur environnement. Le MSA inclut tous les ingrédients nécessaires pour reproduire l’évolution des galaxies de faible masse et de masse intermédiaire. Cela comprend l’accrétion du halo galactique et du MIG, le refroidissement radiatif, la formation stellaire, l’enrichissement chimique et la production de vents galactiques propulsés par l’énergie mécanique et la radiation des étoiles massives. La physique des bulles interstellaires est appliquée à chaque population d’étoiles qui se forme dans le modèle afin de relier l’activité stellaire à la production des vents galactiques propulsés par l’énergie mécanique. Nous utilisons des modèles stellaires à jour pour générer l’évolution de chacune des populations d’étoiles en fonction de leur masse, de leur métallicité et de leur âge. Cela permet d’inclure, dans le processus d’enrichissement, les vents stellaires des étoiles massives, les supernovae de Type II, Ib et Ic, les hypernovae, les vents stellaires des étoiles de faible masse et de masse intermédiaire ainsi que les supernovae de Type Ia. Avec ces ingrédients, notre modèle peut reproduire les abondances de plusieurs éléments observées dans les étoiles du voisinage solaire. De manière plus générale, notre MSA peut reproduire la relation actuelle observée entre la masse stellaire des galaxies et la masse de leur halo de matière sombre. Il peut aussi reproduire la métallicité, la quantité d’hydrogène et le taux de formation stellaire spécifique observés dans les galaxies de l’Univers local. Notre modèle est également consistant avec les observations suggérant que les galaxies de faible masse sont davantage affectées par la rétroaction stellaire que les galaxies plus massives. De plus, le modèle peut reproduire les différents comportements, soit oscillatoire ou stable, observés dans l’évolution du taux de formation stellaire des galaxies. Tous ces résultats démontrent que notre MSA est suffisamment qualifié pour traiter l’évolution des galaxies à l’intérieur d’une simulation cosmologique. / We present a semi-analytical model (SAM) designed to be used in a large-scale hydrodynamical simulation as a sub-grid treatment in order to generate the evolution of galaxies in a cosmological context. The ultimate goal of this project is to study the chemical enrichment history of the intergalactic medium (IGM) and the interactions between galaxies and their surrounding. Presently, the SAM takes into account all the ingredients needed to compute the evolution of low- and intermediate-mass galaxies. This includes the accretion of the galactic halo and the IGM, radiative cooling, star formation, chemical enrichment, and the production of galactic outflows driven by the mechanical energy and the radiation of massive stars. The physics of interstellar bubbles is applied to every stellar population which forms in the model in order to link the stellar activity to the production of outflows driven by mechanical energy. We use up-to-date stellar models to generate the evolution of each stellar population as a function of their mass, metallicity, and age. This enables us to include, in the enrichment process, the stellar winds from massive stars, Type II, Ib, and Ic supernovae, hypernovae, the stellar winds from low- and intermediate-mass stars in the asymptotic giant branch, and Type Ia supernovae. With these ingredients, our model can reproduce the abundances of several elements observed in the stars located in the solar neighborhood. More generally, our SAM reproduces the current stellar-to-dark-halo mass relation observed in galaxies. It can also reproduce the metallicity, the hydrogen mass fraction, and the specific star formation rate observed in galaxies as a function of their stellar mass. Our model is also consistent with observations which suggest that low-mass galaxies are more affected by stellar feedback than higher-mass galaxies. Moreover, the model can reproduce the periodic and the stable behaviors observed in the star formation rate of galaxies. All these results show that our SAM is sufficiently qualified to treat the evolution of low- and intermediate-mass galaxies inside a large-scale cosmological simulation.
144

Control and optimization of the primary drying of lyophilization in vials

Chia, Andrea 07 July 2023 (has links)
Titre de l'écran-titre (visionné le 28 juin 2023) / La lyophilisation est devenue un sujet essentiel de développement dans l'industrie pharmaceutique. Il s'agit d'une technique de séchage reposant sur le principe de la sublimation qui est utilisée pour stabiliser et conserver des matériaux qui ne peuvent pas être séchés par des techniques conventionnelles. La lyophilisation comporte trois étapes : la congélation, le séchage primaire et le séchage secondaire. L'efficacité globale du procédé dépend principalement de la performance du séchage primaire, qui représente l'étape la plus longue et la plus énergivore et détermine en grande partie la qualité du produit final. La pratique courante consiste à opérer le procédé sous des profils pré-calculés avec des marges de sécurité, ce qui conduit à des cycles conservateurs et sous-performants. La commande automatique est donc une voie prometteuse pour réduire la durée de séchage, mais elle se limite généralement à des applications en flacon unique négligeant l'hétérogénéité spatiale affectant la dynamique de séchage intra-lot. D'autres défis sont liés à l'inaccessibilité des variables clés du processus ou à l'utilisation d'instruments intrusifs pour leur mesure. Ce projet de recherche étudie la commande et l'optimisation du séchage primaire de la lyophilisation en flacons, en abordant trois aspects principaux : la modélisation, l'estimation et la commande. La conception des stratégies d'estimation et de contrôle exige d'abord une représentation fiable du procédé. Le modèle proposé intègre les équations fondamentales du séchage primaire dans un modèle linéaire à paramètres variables, fournissant un compromis approprié entre la précision du modèle et le coût de calcul. Cette étude explore également la conception d'estimateurs en ligne de variables clés du procédé à l'aide d'instruments non invasifs, applicables à des équipements pilotes et industriels. La mesure globale est convertie pour tenir compte des contributions des flacons individuels, et cette mesure locale est utilisée dans la conception des estimateurs en ligne de la température du produit. Trois estimateurs sont formulés à l'aide des algorithmes suivants : filtre de Kalman étendu, l'estimation à fenêtre glissante et l'estimation non linéaire par moindres carrés. Des résultats satisfaisants ouvrent la voie à la possibilité de concevoir des estimateurs multi-flacons avec la mesure globale de la vapeur d'eau et englobant l'hétérogénéité spatiale du séchage. Le principe de commande initial a été développé et évalué en simulation pour un cas à flacon unique. Il a considéré deux algorithmes : une commande proportionnelle-intégrale et la commande prédictive. Le schéma de contrôle a été étendu à un problème à multiples flacons et validé dans une unité à l'échelle pilote. Les résultats ont été concluants, la commande automatique a conduit à des réductions significatives du temps de séchage par rapport aux conditions de fonctionnement typiques, et l'approche multi-flacons a permis d'obtenir un cycle très fiable. / Lyophilization, or freeze-drying, has become an essential subject of ongoing development in the pharmaceutical industry. It is a drying technique relying on the sublimation principle and is used to stabilize and preserve materials that cannot be dried by conventional techniques. Lyophilization involves three stages: freezing, primary drying, and secondary drying. The global efficiency of the process relies mainly on the performance of primary drying, as it represents the most time and energy-consuming stage and largely determines the quality of the final product. The common practice runs the process under pre-calculated profiles with safety margins, leading to conservative and underperforming cycles. Process control is thus a promising avenue to decrease drying duration, but it is generally confined to single-vial applications neglecting the spatial heterogeneity affecting the drying dynamics intra-lot. Additional challenges are related to the inaccessibility of key process variables or the use of intrusive instrumentation for their measurement. This research project investigates the control and optimization of the primary drying of lyophilization in vials, addressing three main aspects: modeling, estimation, and control. The conception of estimation and control strategies first requires a reliable process representation. The proposed model accommodates the fundamental equations of primary drying into a linear parameter-varying model, providing a suitable compromise between model accuracy and computational cost. This study also explores the design of in-line estimators of key process variables using non-invasive instrumentation, with applicability to pilot and industrial scale equipment. The global reading is converted to account for the contributions of individual vials, and this local measurement is used in the design of in-line estimators of the product temperature. Three estimators are formulated using the following algorithms: extended Kalman filter, moving horizon estimation, and nonlinear least square estimation. Satisfactory results open the door to the possibility of designing multi-vial estimators with the global reading of water vapor and encompassing the spatial heterogeneity of drying. The initial control framework was developed and benchmarked in simulation for a single-vial case. It considered two algorithms: a standard proportional integral control and a model predictive control. The control scheme was extended to a multi-vial problem and validated in a pilot-scale unit. Results were conclusive, process control led to significant drying time reductions compared to typical operating conditions, and the multi-vial approach yielded a highly dependable cycle.
145

Modes de vibration dans le modèle de Skyrme avec un terme de masse modifié

Davies, Merlin 13 April 2018 (has links)
Le modèle de Skyrme, proposé il y a près de cinquante ans par T.H.R. Skyrme [1, 2, 3, 4], est d'abord passé presque inaperçu, à cette époque où la compréhension du zoo de particules créées par les accélérateurs se faisait plus pressante et retenait plus l'attention. Quelques vingt ans plus tard, avec l'acquisition d'une connaissance plus complète de la force nucléaire et des particules hadroniques, les physiciens tentèrent de répliquer les succès de l'électrodynamique quantique (EDQ) à la chromo dynamique quantique (CDQ), la théorie de champs relativiste de l'interaction forte. Dans ce nouveau contexte de recherche, Edward Witten montra que dans la limite Nc --> infini [15] (où Nc est le nombre de charge couleur) le lagrangien de la CDQ possède les mêmes symétries que le modèle de Skyrme. Ce fut une trouvaille importante en raison de la nécessité d 'avoir une théorie efficace de la CDQ à basse énergie et elle engendra la renaissance du modèle dans le milieu de la physique théorique. Aujourd'hui, le modèle peut prétendre à un succès relatif dans la prédiction de plusieurs propriétés physiques des nucléons (proton, neutron, Delta, etc ... ), c'est-à-dire à 30% des valeurs expérimentales ou mieux[5]. Toutefois, le modèle a ses lacunes. Plus le nombre baryonique (B) augmente, plus le modèle perd ses qualités de bien représenter la géométrie des noyaux atomiques. L'exemple classique est celui pour B = 2. La solution d'énergie minimale a la forme d'un tore, ce qui est loin de la forme attendu, soit de deux sphères légèrement liées ensemble (la forme présumée du deutéron). Cette hypothèse est motivée par l'observation que les nucléons semble conserver leurs individualités dans les noyaux. En plus, le modèle prédit une énergie de liaison d'environ 80 MeV pour le tore, ce qui est beaucoup trop élevée par rapport à celle du deutéron qui n'est que de 2.224 MeV. Qualitativement, il semble donc que la matière baryonique soit plus rigide que ce que le modèle de Skyrme sous-entend. Ces caractéristiques plutôt indésirables du modèle ont poussé les chercheurs à proposer des variations au modèle dans l'espoir de remédier à cette lacune. Dans le présent mémoire, nous allons justement tenter de déterminer à l'aide de l'étude des énergies vibratoires, comment un terme de masse proposé récemment par v. B. Kopeliovich, B. Piette, et W. J. Zakrzewski [8, 9] réussira à améliorer le modèle à l'égard des propriétés mentionnées ci-haut. Les énergies de vibration sont en quelque sorte une mesure de la rigidité des solitons solitoniques et leur comportement pourrait suggérer une approche visant à obtenir des noyaux où les nucléons préservent leurs identités.
146

Modélisation du comportement des composites thermoplastiques à renforts continus dans les procédés de mise en forme

Chaouki, Hicham 18 April 2018 (has links)
Les matériaux composites constituent de nos jours, de par leurs propriétés très prisées, des matériaux incontournables dans plusieurs secteurs industriels telles les industries aéronautique, automobile et navale. Bien que les applications industrielles aient été axées durant des décennies sur les matériaux composites à matrices thermodurcissables, les composites thermoplastiques à renforts continus connaissent actuellement un grand essor. Dans ce sens, des recherches considérables ont été menées sur la modélisation du comportement des matériaux thermoplastiques chargés de fibres continues à température ambiante. Cependant, la modélisation du comportement de ces matériaux à hautes températures et dans les conditions de mise en forme demeure une problématique d'actualité et relativement peu étudiée. Ce travail de thèse se veut une contribution à la modélisation du comportement des composites thermoplastiques à renforts continus dans les procédés de mise en forme. Deux directions de recherches ont été explorées. La première direction consiste à développer une loi constitutive viscoélastique orthotrope pour les milieux incompressibles, et sous l'hypothèse d'un processus isotherme. Dans cette optique, on se propose d'exploiter la théorie du modèle K-BKZ, destiné à la rhéologie des fluides viscoélastiques isotropes, pour une extension aux cas orthotrope et transversalement isotrope. Les tenseurs d'orientation des fibres sont introduits comme arguments de la fonctionnelle densité d'énergie libre pour tenir compte de la symétrie matérielle. La réponse du milieu est formulée en considérant les apports des constituants du milieu, pris séparément, augmentés de la réponse due aux interactions entre la résine et les fibres. Ce faisant, la densité d'énergie libre sera décomposée en un produit d'une fonction mémoire, responsable de la relaxation, et d'une fonction des déformations, laquelle a été scindée en la somme de quatre composantes : i) une fonction rendant compte du comportement de la matrice, ii) une composante responsable de la réponse de la première famille de fibres, iii) une composante responsable de la seconde famille de fibres et iv) une fonction rendant compte des interactions matrice-fibres. La seconde direction vise l'étude du phénomène de l'endommagement susceptible de toucher les composites thermoplastiques à renforts continus dans des conditions proches de celles de la mise en forme. Dans cette perspective, une loi constitutive hyperélastique orthotrope avec endommagement sera proposée. On fait appel à une approche thermodynamique classique, basée sur l'existence d'un potentiel d'énergie libre duquel découle le tenseur de contraintes, et au principe de la contrainte effective, bien connu de la théorie de l'endommagement. À l'instar du modèle viscoélastique orthotrope, la fonctionnelle densité d'énergie libre sera décomposée en la somme de quatre composantes responsables des réponses de la résine, des deux familles de fibres et des interactions matrice-fibres. Pour introduire le phénomène de l'endommagement, on associe à chaque constituant du milieu (i.e. les fibres et la résine) une variable d'endommagement isotrope. Chacune de ces variables est associée à la composante de l'énergie libre rendant compte du comportement du constituant qu'elle caractérise. Une loi d'évolution de l'endommagement isotrope est également associée à la composante de l'énergie libre responsable des interactions matrice-fibres. Les hypothèses d'un milieu incompressible et d'un processus isotherme ont été notamment retenues. Une campagne d'essais expérimentaux, axée sur des essais de traction dans les directions 0°/90° et ±45°, a été réalisée pour caractériser l'endommagement d'une classe de composite thermoplastique à renforts continus. Les résultats de ces essais ainsi que ceux rencontrés dans la littérature ont été exploités afin de réaliser une procédure d'identification inverse visant à tester l'aptitude des modèles de comportement proposés à reproduire des résultats expérimentaux. Des simulations par éléments finis de la mise en forme d'un composite thermoplastique à renforts continus ont été réalisées. Les résultats obtenus montrent que les modèles utilisés reproduisent des résultats physiquement admissibles et en concordance avec des observations expérimentales.
147

Discrete element method modeling of mechanical behavior of coke aggregates during compaction process

Sadeghi Chahardeh, Alireza 21 February 2022 (has links)
Les anodes en carbone font partie de la réaction chimique de réduction de l'alumine, qui est consommée lors du procédé d'électrolyse Hall-Héroult. Le comportement des agrégats secs de coke en tant que composant principal des anodes de carbone (environ 85 %) a un rôle clé et exceptionnel dans leurs propriétés finales. L'analyse de défaillance des agrégats de coke sec permet non seulement de mieux comprendre les mécanismes de déformation des matériaux granulaires sous charge compressive, mais peut également identifier les causes potentielles de défauts structurels des anodes en carbone, telles que les fissures horizontales. Dans ce travail, il sera montré qu'un mode de défaillance particulier peut être responsable de la génération de fissures dans les anodes en carbone. Le comportement de rupture des agrégats de coke n 'est pas seulement affecté par les paramètres du processus de compactage, tels que la pression de confinement et la vitesse de déformation axiale, mais il dépend également fortement de la distribution granulométrique et de la forme des particules de coke. La méthode des éléments discrets (DEM) est utilisée pour modéliser le comportement micromécanique des agrégats de coke sec pendant le processus de compactage. De plus, le critère de travail de second ordre est utilisé pour analyser la rupture des éprouvettes de granulats de coke. Les résultats révèlent que l'augmentation de la pression de confinement augmente la probabilité du mode de diffusion de la rupture dans l'éprouvette. D'autre part, l'augmentation de la vitesse de déformation augmente les chances du mode de localisation de la déformation de la rupture dans l'éprouvette. De plus, les résultats indiquent que l'utilisation de fines particules ainsi que la diminution de la sphéricité des particules de coke augmenteront la plage de stabilité des agrégats de coke. De plus, en utilisant l'analyse des évaluations de contour de micro-déformation pendant le processus de compactage, il est montré que, à la fois en ajoutant des particules fines aux agrégats de coke et en diminuant la sphéricité des particules de coke, la possibilité de créer une bande de compression dans le coke agrégats est réduit. Étant donné que la présence des bandes de compactage dans la pâte d'anode crée une zone sujette à la génération de fissures horizontales, les résultats de cette étude pourraient conduire à la production d'anodes en carbone avec moins de défauts structurels. / Carbon anodes are part of the chemical reaction of alumina reduction, that is consumed during the Hall-Héroult electrolysis process. The behavior of dry coke aggregates as the main component of carbon anodes (about 85 %) has an exceptional key role in their final properties. The failure analysis of dry coke aggregates not only leads to a better understanding of the deformation mechanisms of granular materials under compressive loading but also can also identify the potential causes of structural defects in carbon anodes, such as horizontal cracks. In this work, it will be shown that a particular failure mode can be responsible for the crack generation in the carbon anodes. The failure behavior of the coke aggregates is not only affected by the compaction process parameters, such as the confining pressure and axial strain rate, but it is also strongly dependent on the size distribution and shape of coke particles. The discrete element method (DEM) is employed to model the micro-mechanical behavior of the dry coke aggregates during the compaction process. In addition, the second-order work criterion is used to analyze the failure of the coke aggregate specimens. The results reveal that increasing the confining pressure enhances the probability of the diffusing mode of the failure in the specimen. On the other hand, the increase of the strain rate augments the chance of the strain localization mode of the failure in the specimen. In addition, the results indicate the fact that the use of fine particles as well as decreasing the sphericity of coke particles will increase the stability range of the coke aggregates. Moreover, by using the analysis of micro-strain contour evaluations during the compaction process, it is shown that, both by adding fine particles to the coke aggregates and by decreasing the sphericity of coke particles, the possibility of creating a compression band in the coke aggregates is reduced. Since the presence of the compaction bands in the anode paste creates an area that is prone to horizontal crack generation, the results of this study could lead to the production of carbon anode with fewer structural defects.
148

Estimation d'un modèle agrégé du nombre de kilomètres parcourus, du taux de consommation moyen de carburant et du nombre de véhicules légers au Canada

Lamonde, Bernard 12 April 2018 (has links)
L'objectif de ce projet de recherche est de mesurer, à un niveau agrégé, l'influence qu'ont les facteurs économiques de base tels le prix de l'essence et le revenu sur les déterminants de la demande de carburant des véhicules légers au Canada. L'approche retenue repose sur un modèle économétrique d'équations simultanées visant à expliquer le nombre de kilomètres parcourus, le taux de consommation moyen de carburant ainsi que le nombre de véhicules. Les données dont nous disposons sont de type panel et proviennent de la Base de données nationale sur la consommation d'énergie de Ressources Naturelles Canada. Les élasticités obtenues sont assez conformes à la littérature recensée. À court terme, une hausse du prix de l'essence provoque une réduction limitée de l'usage (-0,16 à -0,08) alors que l'augmentation du revenu influence surtout le niveau de possession (0,27 à 0,35). Nous estimons également qu'il existe un effet rebond qui est compris entre 19 % et 24 % à long terme.
149

Un modèle d’évaluation des coûts agrégés liés aux assurances pour les professionnels de la santé

Hamel, Emmanuel 19 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Dans ce mémoire, un processus d’évaluation des coûts agrégés liés aux assurances pour les professionnels de la santé est considéré. Au chapitre 1, nous décrivons les principales caractéristiques de l’assurance pour les professionnels de la santé : l’environnement, les types de couverture d’assurance, la prime, les coûts liés aux réclamations, les types de dépendances stochastiques dans le processus des coûts et dans les taux d’actualisation du processus des coûts. Au chapitre 2, une description des concepts théoriques préalables à l’élaboration et à l’application du modèle mathématique est faite : la dépendance (avec copules), le processus de renouvellement, la force d’intérêt et les méthodes numériques utilisées. Au chapitre 3, le modèle théorique du processus des coûts est établi et les premiers moments de ce processus sont obtenus, par des calculs numériques déterministes et par simulations. Au chapitre 4, plusieurs applications du modèle sont présentées : moments avec force d’intérêt stochastique (Vasicek), incidences de la dépendance sur le modèle, calculs de primes, mesures de risque (VaR et TVaR). Au chapitre 5, nous concluons ce mémoire. / In this master’s degree thesis, an aggregate loss model for health professionals is considered. The introduction describes some characteristics related to the insurance for health professionals: environment, type of insurance coverage, premium, cost of a claim, stochastic dependencies in the claim process and discount rate. In chapter 2, a description of theoretical concepts related to the proposed mathematical model is done: stochastic dependence (by copulas), renewal processes, discount rate (i.e. stochastic differential equations) and numerical methods. In chapter 3, the theoretical model is presented and the first moments are obtained, with deterministic numerical calculations and simulations. In chapter 4, some applications of the model are presented: first moments calculations with stochastic interest rate (Vasicek), impact of dependence on the model, premium calculations, risk measures (VaR and TVaR). In chapter 5, the conclusion follows.
150

Référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif

Marif, Anouar 24 September 2021 (has links)
Le travail de cette thèse porte sur l'élaboration d'un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif, interface entre plusieurs méthodes distinctes et complémentaires. Le référentiel proposé intègre des principes clés de pilotage par la performance et propose une alternative améliorée et prometteuse par rapport aux systèmes de mesures de la performance traditionnels. Un système de pilotage de la performance est un outil indispensable pour une organisation. Sa conception demeure par ailleurs une démarche complexe étant donné les différents aspects et éléments que l'organisation doit intégrer dans son processus d'évaluation et d'amélioration de la performance, en particulier les événements perturbateurs, souvent négligés dans la littérature et très difficile à intégrer dans l'élaboration d'un mécanisme de pilotage de la performance. En effet, le choix de la variable de décision pour contrecarrer les effets d'un évènement perturbateur n'est pas toujours immédiate, il possède une certaine inertie qui peut entraîner une perte de la performance globale. Également, les décideurs ne disposent pas souvent des mécanismes et des outils susceptibles de vérifier que les composantes clés de pilotage de la performance (Objectifs-Variables de décision-Indicateurs de performance) engagées par chacun d'eux soient cohérentes et aident à faire évoluer l'organisation vers l'atteinte de ses objectifs escomptés. De ce fait, l'organisation évolue dans un contexte souvent incertain et doivent faire preuve d'adaptabilité pour garantir leur viabilité. Ce projet de recherche est motivé par un besoin criant soulevé suite à une revue de littérature soulignant la nécessité de développer un système de pilotage de la performance qui répond aux défis actuels en terme de pilotage, à savoir : la cohérence entre les composantes clés de pilotage de la performance et la réactivité pour faire face aux évènements perturbateurs. De ce fait, notre volonté dans ce travail a été de proposer un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif. Les contributions de cette thèse sont présentées en quatre phases. Dans une première phase, à partir du constat réalisé durant la revue de littérature, nous avons souligné la nécessité de proposer une démarche structurale SIPCo (Système d'Indicateurs de Performance Cohérent) pour identifier les composantes clés de pilotage de la performance et assurer leur cohérence à travers deux démarches. Une démarche logique basée sur (1) une approche de modélisation de système décisionnel afin d'identifier les centres de décision et (2) une approche de modélisation de système informationnel afin de d'établir une représentation de la part interactive des composantes clés de pilotage de la performance de chaque centre de décision. La méthode SIPCo repose aussi sur une démarche participative pour accompagner la démarche logique afin de définir les différentes composantes clés de pilotage de la performance auprès des futurs utilisateurs. Dans une deuxième phase, nous avons proposé une démarche procédurale SYPCo-R (Système de Pilotage de la Performance Cohérent et Réactif) en intégrant un élément jamais intégré par les autres systèmes d'évaluation de la performance, à savoir "évènement potentiel". En effet, la plupart des systèmes de pilotage par la performance sont basés sur le triplet "Objectif - Variable de Décision - Indicateur de performance". Alors que, SYPCo-R que nous proposons est basé sur le quadruplet "Objectif - Évènement potentiel - Variable de Décision - Indicateur de performance". L'objectif de SYPCo-R est d'apporter une cohérence globale dans l'exploitation des composantes clés de pilotage de la performance et une réactivité en intégrant la notion d'évènement potentiel dans la prise de décision à travers une méthodologie de classement des variables de décision qui permettent de contrecarrer les évènements potentiels susceptibles d'entraver l'atteinte des objectifs. Dans une troisième phase, nous avons proposé un modèle conceptuel MCR (Modèle Conceptuel de Réactivité) qui reprend les propriétés fondamentales de la notion de réactivité sous forme d'algorithme composé d'un ensemble des règles opératoires pour identifier les défaillances de performance en terme de réactivité et leurs origines afin d'ajuster et consolider SYPCo-R. Dans une quatrième phase, nous avons proposé une démarche prédictive basée sur la simulation pour évaluer et apprécier l'impact des valeurs fixées aux alternatives associées à chaque variable de décision choisie parmi le classement résultant de la démarche SYPCo-R. Cette démarche vise aussi à anticiper les défaillances de performance pour ajuster les paramètres de MCR et SYPCo-R. Les décideurs pourront ainsi disposer d'un outil supplémentaire pour garantir la cohérence, la réactivité basée sur l'anticipation et la prédiction. Les travaux de cette thèse apportent des solutions innovantes dans la démarche de l'élaboration d'un système de pilotage de la performance en proposant un référentiel interface entre plusieurs méthodes distinctes et complémentaires qui répond efficacement aux préoccupations des décideurs. Le référentiel proposé permet de cerner la complexité d'un système et de la rendre intelligible par les décideurs. De plus, il s'apprête bien à des extensions futures basées sur une exploitation optimisée des données en temps réel. / This thesis aims at elaborating a framework for the development of a coherent and responsive performance management system, interface between several distinct and complementary methods. The proposed framework integrates key performance management principle s and offers an improved and promising alternative to traditional performance measurement systems. A performance management system is an essential tool for an organization. Otherwise, the conception of this system remains a complex process given the several aspects and elements that the organization must integrate into its process of evaluating and improving performance, in particular disruptive events, often neglected in the literature and very difficult to take into account in the development of a performance management mechanism. Decision-making to cover the effects of a disruptive event is not immediate as it has an inertia which can lead to a loss of overall performance. Also, decision-makers rarely have the necessary tools to verify that the used key performance management components (Objectives-Decision variables-Performance indicators) are coherent and help to move the organization towards achievement of its expected objectives. Hence, the organization operates in an uncertain environment and must be adaptable to ensure its viability. This research is motivated by a strong need raised by the achieved literature review highlighting the need to develop a performance management system that responds to current management challenges, namely : consistency between the key management components performance and responsiveness to deal with disruptive events. As a result, the main objective of this thesis is to propose a framework for the development of a coherent and responsive performance management system. The contributions of this thesis are presented in four phases. In a first phase, based on the findings of the literature review, we underlined the need to propose a structural approach SIPCo (Consistent Performance Indicator System) to identify the key components of performance management and to ensure their consistency through two methods. A logical method based on (1) a decision-making system modeling approach in order to identify the decision-making centers and (2) an informational system modeling approach in order to establish a representation of the interactive part of the key components of the performance management of each of the decision-making centers. The SIPCo method is also based on a participatory method to support the logical approach in order to define the various key components of performance management with future users. In a second phase, we proposed a procedural approach SYPCo-R (Coherent and Responsive Performance Management System) by integrating "potential event", an essential element nowadays never integrated by other performance evaluation systems. Most performance management systems are based on the triplet "Objective - Decision variable - Performance indicator" while the proposed SYPCo-R is based on the quadruplet "Objective - Potential event - Decision variable - Performance indicator". The objective of SYPCo-R is to provide overall consistency in the use of the key performance management components, and responsiveness by integrating the notion of potential event into decision-making through a methodology for classifying decision variables allowing to thwart potential events that may hinder the achievement of objectives. In a third phase, we proposed a conceptual model MCR (Conceptual Model of Reactivity) which uses the fundamental properties of the notion of reactivity in the form of an algorithm composed of a set of operating rules to identify performance failures in terms of reactivity and their origins in order to adjust and consolidate SYPCo-R. In a fourth phase, we proposed a predictive approach based on simulation to evaluate and assess the impact of the values fixed on the alternatives associated with each decision variable chosen from the ranking resulting from the SYPCo-R approach. Furthermore, this approach aims to anticipate performance failures to adjust the parameters of MCR and SYPCo-R. This will provide decision-makers with an additional tool to ensure consistency and responsiveness based on anticipation and prediction. This thesis provides innovative solutions in the process of developing a performance management system by proposing an interface by proposing an interface framework between several distinct and complementary methods that effectively responds to the concerns of decision-makers. The proposed framework allows to identify the complexity of a system and to make it intelligible to decision-makers. Moreover, this framework accepts future extensions based on an optimized exploitation of real-time data.

Page generated in 0.1238 seconds