• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 316
  • 90
  • 22
  • 2
  • Tagged with
  • 437
  • 198
  • 105
  • 71
  • 65
  • 54
  • 52
  • 48
  • 44
  • 41
  • 38
  • 37
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

L’incidence des facteurs socioculturels dans le reporting financier et le reporting sociétal : Un essai de comparaison entre la France et l’Allemagne / The incidence of socio-cultural factors on financial reporting and corporate social reporting : an attempt of comparison between France and Germany

Cretté, Olivier 10 July 2012 (has links)
Nos travaux, dans le prolongement de recherches envisageant l’harmonisation comptable internationale (IAS/IFRS) et la mise en place des indicateurs de Responsabilité Sociale de l’Entreprise (RSE) sous un angle processuel et « historico évolutif », tendent à s’en démarquer en recherchant les moyens d’analyser l’information issue du reporting financier (IAS/IFRS) et extra-financier (RSE) dispensée durant la période 2006-2010 par les sociétés cotées composant les indices boursiers français du CAC 40 et du SBF 120, d’une part, et allemands du DAX 30 et du DAX 100, d’autre part, et en substituant à une approche souvent inductive dans ce domaine une démarche hypothético-déductive. Ils mettent en regard, d’une part, les données recueillies et, d’autre part, les intérêts des actionnaires/investisseurs ainsi que de l’ensemble des parties prenantes de part et d’autre du Rhin, sur le fondement théorique de la théorie de l’agence et la théorie des parties prenantes. La méthode employée, à la fois quantitative et qualitative, vise d’abord à utiliser des outils de mesure se fondant sur des moyennes, médianes et analyses de régression combinant plusieurs variables exprimées pour l’essentiel sous la forme de ratios comptables et financiers (IAS/IFRS) ; cette mesure s’étend à un recensement de l’occurrence de mots dans les supports d’information extra-financière (rapports RSE et de développement durable). Puis à interroger les responsables administratifs et financiers en charge de l’application du référentiel IAS/IFRS ainsi que les responsables de la communication RSE et du développement durable des sociétés de notre panel, au moyen de questionnaires se fondant sur les outils de « logique floue ». Nous ne cherchons pas à mesurer l’incidence des normes IAS/IFRS et des indicateurs RSE ni sur la performance financière, ni en taux de retour sur la valeur boursière. Nous observons par nos résultats des nuances de perception des normes IAS/IFRS et des objectifs de RSE dans le reporting financier et extra-financier susceptibles d’être imputées à des facteurs socioculturels, et répondant à une gouvernance plus actionnariale en France qu’en Allemagne. / This study, in the extension of researches aimed at harmonising accounting internationally (IAS/IFRS) and implementing Corporate Social Responsibility (CSR) indicators from a processual and “historical evolutional” angle, tends to differ from them by focusing on the means to analyse the information issued from financial (IAS/IFRS) and extra-financial (CSR) reporting released during the 2006-2010 period by the listed companies which compose the French and German stock market indexes respectively CAC40/SBF120 and DAX30/DAX100, and replacing an oftentimes inductive approach in this field with a hypothetical and deductive process. It compares the collected data on the one hand, and the needs of shareholders/investors and third parties as a whole on the other hand, on either side of the Rhine, on the basis of the theoretical frame of the agency theory and the stakeholder theory.The method employed, which is both quantitative and qualitative, aims to do as follows. First use of tools for measuring based on averages, medians and regression studies combining many variables essentially expressed in the form of accounting and financial ratios (IAS/IFRS); this measure extends to the listing of words occurrence in the extra-financial information supports (CSR and sustainability reports). Then question the administrative and financial managers in charge of the application of the IAS/IFRS referential and the managers responsible for the CSR and sustainability communication within these companies we selected with reference to matrixes based on the “fuzzy logic” theory tools. We do not investigate the influence of IAS/IFRS standards/CSR indicators neither on financial performance nor in terms of expected return on the capital asset. We can observe that our results show nuances of perception of IAS/IFRS standards and CSR goals in the financial and extra-financial reporting that are likely to be attributed to socio-cultural factors, and reflecting a governance much more aimed at shareholders in France than in Germany.
412

Contributions au développement d'outils computationnels de design de protéine : méthodes et algorithmes de comptage avec garantie / Contribution to protein design tools : counting methods and algorithms

Viricel, Clement 18 December 2017 (has links)
Cette thèse porte sur deux sujets intrinsèquement liés : le calcul de la constante de normalisation d’un champ de Markov et l’estimation de l’affinité de liaison d’un complexe de protéines. Premièrement, afin d’aborder ce problème de comptage #P complet, nous avons développé Z*, basé sur un élagage des quantités de potentiels négligeables. Il s’est montré plus performant que des méthodes de l’état de l’art sur des instances issues d’interaction protéine-protéine. Par la suite, nous avons développé #HBFS, un algorithme avec une garantie anytime, qui s’est révélé plus performant que son prédécesseur. Enfin, nous avons développé BTDZ, un algorithme exact basé sur une décomposition arborescente qui a fait ses preuves sur des instances issues d’interaction intermoléculaire appelées “superhélices”. Ces algorithmes s’appuient sur des méthodes issuse des modèles graphiques : cohérences locales, élimination de variable et décompositions arborescentes. A l’aide de méthodes d’optimisation existantes, de Z* et des fonctions d’énergie de Rosetta, nous avons développé un logiciel open source estimant la constante d’affinité d’un complexe protéine protéine sur une librairie de mutants. Nous avons analysé nos estimations sur un jeu de données de complexes de protéines et nous les avons confronté à deux approches de l’état de l’art. Il en est ressorti que notre outil était qualitativement meilleur que ces méthodes. / This thesis is focused on two intrinsically related subjects : the computation of the normalizing constant of a Markov random field and the estimation of the binding affinity of protein-protein interactions. First, to tackle this #P-complete counting problem, we developed Z*, based on the pruning of negligible potential quantities. It has been shown to be more efficient than various state-of-the-art methods on instances derived from protein-protein interaction models. Then, we developed #HBFS, an anytime guaranteed counting algorithm which proved to be even better than its predecessor. Finally, we developed BTDZ, an exact algorithm based on tree decomposition. BTDZ has already proven its efficiency on intances from coiled coil protein interactions. These algorithms all rely on methods stemming from graphical models : local consistencies, variable elimination and tree decomposition. With the help of existing optimization algorithms, Z* and Rosetta energy functions, we developed a package that estimates the binding affinity of a set of mutants in a protein-protein interaction. We statistically analyzed our esti- mation on a database of binding affinities and confronted it with state-of-the-art methods. It appears that our software is qualitatively better than these methods.
413

Data-driven fault diagnosis for PEMFC systems

Li, Zhongliang 16 September 2014 (has links)
Cette thèse est consacrée à l'étude de diagnostic de pannes pour les systèmes pile à combustible de type PEMFC. Le but est d'améliorer la fiabilité et la durabilité de la membrane électrolyte polymère afin de promouvoir la commercialisation de la technologie des piles à combustible. Les approches explorées dans cette thèse sont celles du diagnostic guidé par les données. Les techniques basées sur la reconnaissance de forme sont les plus utilisées. Dans ce travail, les variables considérées sont les tensions des cellules. Les résultats établis dans le cadre de la thèse peuvent être regroupés en trois contributions principales.La première contribution est constituée d'une étude comparative. Plus précisément, plusieurs méthodes sont explorées puis comparées en vue de déterminer une stratégie précise et offrant un coût de calcul optimal.La deuxième contribution concerne le diagnostic online sans connaissance complète des défauts au préalable. Il s'agit d'une technique adaptative qui permet d'appréhender l'apparition de nouveaux types de défauts. Cette technique est fondée sur la méthodologie SSM-SVM et les règles de détection et de localisation ont été améliorées pour répondre au problème du diagnostic en temps réel.La troisième contribution est obtenue à partir méthodologie fondée sur l'utilisation partielle de modèles dynamiques. Le principe de détection et localisation de défauts est fondé sur des techniques d'identification et sur la génération de résidus directement à partir des données d'exploitation.Toutes les stratégies proposées dans le cadre de la thèse ont été testées à travers des données expérimentales et validées sur un système embarqué. / Aiming at improving the reliability and durability of Polymer Electrolyte Membrane Fuel Cell (PEMFC) systems and promote the commercialization of fuel cell technologies, this thesis work is dedicated to the fault diagnosis study for PEMFC systems. Data-driven fault diagnosis is the main focus in this thesis. As a main branch of data-driven fault diagnosis, the methods based on pattern classification techniques are firstly studied. Taking individual fuel cell voltages as original diagnosis variables, several representative methodologies are investigated and compared from the perspective of online implementation.Specific to the defects of conventional classification based diagnosis methods, a novel diagnosis strategy is proposed. A new classifier named Sphere-Shaped Multi-class Support Vector Machine (SSM-SVM) and modified diagnostic rules are utilized to realize the novel fault recognition. While an incremental learning method is extended to achieve the online adaptation.Apart from the classification based diagnosis approach, a so-called partial model-based data-driven approach is introduced to handle PEMFC diagnosis in dynamic processes. With the aid of a subspace identification method (SIM), the model-based residual generation is designed directly from the normal and dynamic operating data. Then, fault detection and isolation are further realized by evaluating the generated residuals.The proposed diagnosis strategies have been verified using the experimental data which cover a set of representative faults and different PEMFC stacks. The preliminary online implementation results with an embedded system are also supplied.
414

Transport optimal : régularité et applications / Optimal Transport : Regularity and applications

Gallouët, Thomas 10 December 2012 (has links)
Cette thèse comporte deux parties distinctes, toutes les deux liées à la théorie du transport optimal. Dans la première partie, nous considérons une variété riemannienne, deux mesures à densité régulière et un coût de transport, typiquement la distance géodésique quadratique et nous nous intéressons à la régularité de l’application de transport optimal. Le critère décisif à cette régularité s’avère être le signe du tenseur de Ma-Trudinger-Wang (MTW). Nous présentons tout d’abord une synthèse des travaux réalisés sur ce tenseur. Nous nous intéressons ensuite au lien entre la géométrie des lieux d’injectivité et le tenseur MTW. Nous montrons que dans de nombreux cas, la positivité du tenseur MTW implique la convexité des lieux d’injectivité. La deuxième partie de cette thèse est liée aux équations aux dérivées partielles. Certaines peuvent être considérées comme des flots gradients dans l’espace de Wasserstein W2. C’est le cas de l’équation de Keller-Segel en dimension 2. Pour cette équation nous nous intéressons au problème de quantification de la masse lors de l’explosion des solutions ; cette explosion apparaît lorsque la masse initiale est supérieure à un seuil critique Mc. Nous cherchons alors à montrer qu’elle consiste en la formation d’un Dirac de masse Mc. Nous considérons ici un modèle particulaire en dimension 1 ayant le même comportement que l’équation de Keller-Segel. Pour ce modèle nous exhibons des bassins d’attractions à l’intérieur desquels l’explosion se produit avec seulement le nombre critique de particules. Finalement nous nous intéressons au profil d’explosion : à l’aide d’un changement d’échelle parabolique nous montrons que la structure de l’explosion correspond aux points critiques d’une certaine fonctionnelle. / This thesis consists in two distinct parts both related to the optimal transport theory.The first part deals with the regularity of the optimal transport map. The key tool is the Ma-Trundinger-Wang tensor and especially its positivity. We first give a review of the known results about the MTW tensor. We then explore the geometrical consequences of the MTW tensor on the injectivity domain. We prove that in many cases the positivity of MTW implies the convexity of the injectivity domain. The second part is devoted to the behaviour of a Keller-Segel solution in the super critical case. In particular we are interested in the mass quantization problem: we wish to quantify the mass aggregated when the blow-up occurs. In order to study the behaviour of the solution we consider a particle approximation of a Keller-Segel type equation in dimension 1. We define this approximation using the gradient flow interpretation of the Keller-Segel equation and the particular structure of the Wasserstein space in dimension 1. We show two kinds of results; we first prove a stability theorem for the blow-up mechanism: we exhibit basins of attraction in which the solution blows up with only the critical number of particles. We then prove a rigidity theorem for the blow-up mechanism: thanks to a parabolic rescaling we prove that the structure of the blow-up is given by the critical points of a certain functional.
415

Maîtriser les stratégies de décision : positionnement prescriptif, ébauche et test d'un modèle-outil d'aide à la résolution de problèmes pour les dirigeants des organisations / Mastering Decision Strategies : prescriptive positioning, draft and test of a problem solving model-tool for managers of organizations

Vachon, Marc 01 September 2017 (has links)
Il existe une inefficience du processus de décision [...] due à un dysfonctionnement de compétence des dirigeants [...]. Pour augmenter l'efficience du processus de décision, les dirigeants doivent maîtriser les Stratégies de Décision, par l'utilisation d'un Modèle-Outil [...] PPPERFFS [qui] répertorie 36 Stratégies de Décision dans les catégories Domaines managériaux, Postures cognitives et Mécanismes cognitifs... / Inefficiency of decision process exists and is characterised by:- simple loop learning,- strictly limited rationality,- and hidden costs of the decision process.The inefficiency of decision process is due to a dysfunction of managers’ competence, who:- lose their decision marks,- lack reflexivity,- use Decision Strategies in beneficial and toxic way, such as:· lack of contradictory mindset (strongly validated hypothesis),· lack of perfectionism (weakly validated hypothesis).To increase the efficiency of decision process, managers should master DecisionStrategies, by using a problem solving support Model-Tool, integrator-facilitator ofDecision Strategies steering, and endowed with PPPERFFS qualities:- "Practical",- "Paradoxical",- "Polyvalent / Exhaustive" (Multi-Skilled / Comprehensive),- "Rapid / Fluent" (Fast / Easy)- "Faithfull" (Reliable),- "Schematic" (Diagrammatic).This Model-Tool has to be drafted and its performance has to be tested.[This has been done:]The drafted PPPERFFS Model-Tool itemises 36 Decision Strategies into the followingcategories: managerial Domains, cognitive Postures and cognitive Mechanisms. Firsttests demonstrate a contingent performance.
416

Analyse micro-économique du coût du chômage en Belgique: réflexions en matière de perspectives sur le marché du travail et de pauvreté

Gangji, Amynah 09 September 2008 (has links)
L’objectif général de la thèse consistait à mieux comprendre les difficultés vécues par les chômeurs et les locataires en Belgique ainsi qu’à déterminer les moyens à mettre en œuvre pour les aider à les surmonter. Pour pouvoir répondre de manière adéquate à cette problématique relativement vaste, la thèse a été scindée en deux parties. <p><p>La première partie avait pour objectif d’analyser les entraves rencontrées par les chômeurs en Belgique lors de leur réinsertion, qu’elle soit professionnelle et sociale. <p><p>A partir du Panel Démographie Familiale, on peut observer qu’il n’y a pas réellement de rotation dans le phénomène du chômage en Belgique. Au contraire, ce sont souvent les mêmes individus qui y retournent régulièrement. Le premier chapitre de cette thèse a donc eu pour objectif d’étudier les causes de cette récurrence du chômage. A partir d’un modèle probit à effets aléatoires, on a montré que le phénomène est expliqué à hauteur de 57-82% par les caractéristiques des individus (observables ou non). La différence serait issue de la présence d’une dépendance d’état. Ainsi, par rapport à une personne identique en emploi, un individu qui aurait connu une expérience de chômage fera face à un risque accru (compris entre 11 et 33 points de pourcentage) de revivre cette expérience un an plus tard. Ces résultats montrent l’importance qu’il y a à concentrer les efforts sur la prévention du chômage. <p><p>Le deuxième chapitre a, quant à lui, plutôt étudié les conditions salariales auxquelles était confrontés le chômeur une fois réemployé. Pour ce faire, on a estimé une équation de salaires sur laquelle on a appliqué un modèle à effets fixes. Cette analyse s’est faite sur base du PSBH pour une période courant de 1994 à 2002. Les résultats démontrent qu’une expérience de chômage engendre une pénalité salariale de l’ordre de 6%. En outre, cette dernière s’accroît de manière linéaire à mesure que la période de chômage s’allonge dans le temps. Enfin, on a démontré que le chômeur peut recouvrir partiellement le différentiel de salaire si tant est qu’il reste suffisamment longtemps dans son nouvel emploi. Néanmoins, la présence de dépendance d’état dans le chômage implique qu’il y a un risque que certains individus n’arrivent jamais à créer une relation d’emploi durable dans le temps. Dans ce cas, la pénalité perdurera. <p><p>Si une expérience de chômage mène effectivement à des emplois moins bien payés ou plus instables, cela aura des implications en termes de conditions de vie. L'objectif du troisième chapitre a donc consisté à mesurer l’impact d’évènements dit « déclencheurs » (transitions sur le marché du travail des différents membres du ménage, bouleversement dans la structure familiale) sur les probabilités d’entrée dans et de sortie de la pauvreté en Belgique. La notion de pauvreté est approchée à l’aide de trois concepts recouvrant des réalités différentes :la pauvreté monétaire, la pauvreté subjective et la pauvreté des conditions de vie. L’étude montre qu’il n’y a pas de trajectoire unique qui mène ou qui permet de sortir de la pauvreté, tous les évènements déclencheurs ayant un rôle à jouer. Cependant l’ampleur et le sens des effets peuvent varier en fonction de l’approche considérée. Ainsi, les flux d’entrée et de sortie à partir des indicateurs subjectif et d’existence sont influencés plus fortement par les changements dans la situation conjugale des individus. Les pauvretés monétaires sont, quant à elles, plutôt affectées par l’arrivée ou le départ de personnes à charge. Enfin, les transitions sur le marché du travail affecteront de manière plus importante les flux d’entrée et de sortie de la pauvreté lorsque celle-ci est approchée par l’indicateur de privation relative. Dès lors, l’utilisation de l’approche subjective et de l’indicateur des conditions de vie nous ont apporté un éclairage nouveau quant à l’impact de certains évènements déclencheurs sur la situation de précarité vécue par les individus. <p><p>La deuxième partie s’est concentrée sur les solutions existantes qui permettraient d’améliorer les conditions de vie des locataires aux revenus les plus bas pour la Région spécifique que constitue Bruxelles. <p><p>Plus spécifiquement, le quatrième chapitre de la thèse a analysé les effets de la mise en place du Plan pour l’avenir du logement (construction de 5000 logements publics endéans les cinq ans) sur le cycle immobilier à Bruxelles. Pour ce faire, un modèle économétrique déterminant l’investissement privé et l’indice du prix immobilier pour les appartements et les maisons individuelles a été estimé. A partir des résultats obtenus, nous avons été à même d’effectuer des simulations de l’effet attendu de la construction de 5.000 à 10.000 logements publics sur les prix immobiliers ainsi que sur l’investissement privé sur une période courant de 20 à 30 ans. Les résultats indiquent que l’investissement public dans la construction de logements sociaux a des effets positifs en termes d’encouragement de l’investissement résidentiel privé (9.000 logements supplémentaires dans l’hypothèse de 5.000 logements publics construits) et de baisse du prix immobilier (de l’ordre de 1 à 2% après une dizaine d’années). A Bruxelles, l’explication résiderait dans un assainissement de la concurrence dans le « bas de gamme » du marché immobilier et un ralentissement du « filtering down ». A très long terme, le différentiel de prix se résorberait (dissipation du choc) mais l’effet multiplicateur de l’investissement public initial sur l’investissement résidentiel privé cumulé serait de l’ordre de 1,8.<p><p>Le reproche fait au Plan pour l’avenir du logement est que la construction de 5.000 logements sociaux ne suffira pas à aider la totalité des ménages en difficulté à accéder à un logement décent. Or, à côté de cette politique d’offre, il existe, à disposition du gouvernement, un deuxième outil pour améliorer les conditions d’habitation des ménages devant se loger sur le marché locatif privé, qui cette fois agit du côté de la demande: l’attribution d’allocations-loyers, qui existe actuellement dans une grande majorité de pays européens. <p><p>Le cinquième chapitre de la thèse a donc étudié la faisabilité de l’implémentation d’un programme d’allocation en RBC et les conséquences qu’il engendrerait sur le marché immobilier bruxellois. Face au double constat d’un déficit excessif de l’offre de logements décents dans le segment « faibles revenus » à Bruxelles et de danger d’inflation des loyers, nous ne recommandons pas la mise en œuvre d’un programme d’allocations-loyers dans cette ville. Avant d’y envisager une telle politique de stimulation de la demande, il faudrait d’abord accroître l’offre de logements sociaux et/ou subventionner la construction en général. L’idée est d’assainir d’abord la concurrence dans ce segment de marché pour y stabiliser les prix.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
417

Estimation des paramètres pour les séquences de Markov avec application dans des problèmes médico-économiques / On parameter estimation for Markov sequences and applications in health economics

Motrunich, Anastasiia 28 September 2015 (has links)
Dans la première partie de cette thèse, nous considérons plusieurs problèmes d'estimation de paramètre de dimension finie pour les séquences de Markov dans l'asymptotique des grands échantillons. Le comportement asymptotique des estimateurs bayésiens et les estimateurs obtenus par la méthode des moments sont décrits. Nous montrons que sous les conditions de régularité ces estimateurs sont consistants et asymptotiquement normaux et que l'estimateur bayésien est asymptotiquement efficace. Les estimateur-processus du maximum de vraisemblance un-pas et deux-pas sont étudiés. Ces estimateurs nous permettent de construire des estimateurs asymptotiquement efficaces sur la base de certainsestimateurs préliminaires, par exemple, les estimateurs obtenus par la méthode des moments ou l'estimateur deBayes et la structure de l'estimateur du maximum de vraisemblance un-pas. Nous proposons notamment des processus autorégressifs non linéaires comme exemple et nous illustrons les propriétés de ces estimateurs à l'aide de simulations numériques. Dans la deuxième partie, nous donnons les applications de processus de Markov en économie de la santé. Nous comparons les modèles de Markov homogènes et non-homogènes pour l'analyse coût-efficacité de l'utilisation depansements transparents contenant un gel de gluconate de chlorhexidine par rapport aux pansements transparents standard. Le pansement antimicrobien protège les accès vasculaire centrale et réduit le risque de bactériémies liées aux cathéters. L'impact de l'approche de modélisation sur la décision d'adopter des pansements antimicrobiens pour les patients gravement malades est discuté. / In the first part of this dissertation we consider several problems of finite-dimensional parameter estimation for Markov sequences in the asymptotics of large samples. The asymptotic behavior of the Bayesian estimators and the estimators of the method of moments are described. It is shown that under regularity conditions these estimators are consistent and asymptotically normal. We show that the Bayesian estimator is asymptotically efficient. The one-step and two-step maximum likelihood estimator-processes are studied. These estimators allow us to construct the asymptotically efficient estimators based on some preliminary estimators, say, the estimators of the method of moments or Bayes estimator and the one-step maximum likelihood estimator structure. We propose particular non-linear autoregressive processes as examples and we illustrate the properties of these estimators with the help of numerical simulations. In the second part we give theapplications of Markov processes in health economics. We compare homogeneous and non-homogeneous Markov models for cost-effectiveness analysis of routine use of transparent dressings containing a chlorhexidine gluconate gel pad versus standard transparent dressings. The antimicrobial dressing protects central vascular accesses reducing the risk of catheter-related bloodstream infections. The impact of the modeling approach on the decision of adopting antimicrobialdressings for critically-ill patients is discussed.
418

Modélisation mathématique et numérique des comportements sociaux en milieu incertain. Application à l'épidémiologie / Mathematical and numerical modeling of social behavior in an uncertain environment

Laguzet, Laetitia 20 November 2015 (has links)
Cette thèse propose une étude mathématique des stratégies de vaccination.La partie I présente le cadre mathématique, notamment le modèle à compartiments Susceptible - Infected – Recovered.La partie II aborde les techniques mathématiques de type contrôle optimal employées afin de trouver une stratégie optimale de vaccination au niveau de la société. Ceci se fait en minimisant le coût de la société. Nous montrons que la fonction valeur associée peut avoir une régularité plus faible que celle attendue dans la littérature. Enfin, nous appliquons les résultats à la vaccination contre la coqueluche.La partie III présente un modèle où le coût est défini au niveau de l'individu. Nous reformulons le problème comme un équilibre de Nash et comparons le coût obtenu avec celui de la stratégie sociétale. Une application à la grippe A(H1N1) indique la présence de perceptions différentes liées à la vaccination.La partie IV propose une implémentation numérique directe des stratégies présentées. / This thesis propose a mathematical analysis of the vaccination strategies.The first part introduces the mathematical framework, in particular the Susceptible – Infected – Recovered compartmental model.The second part introduces the optimal control tools used to find an optimal vaccination strategy from the societal point of view, which is a minimizer of the societal cost. We show that the associated value function can have a less regularity than what was assumed in the literature. These results are then applied to the vaccination against the whooping cough.The third part defines a model where the cost is defined at the level of the individual. We rephrase this problem as a Nash equilibrium and compare this results with the societal strategy. An application to the Influenza A(H1N1) 2009-10 indicates the presence of inhomogeneous perceptions concerning the vaccination risks.The fourth and last part proposes a direct numerical implementation of the different strategies.
419

Comment calculer le montant de la contribution alimentaire pour les enfants en cas de séparation? Elaboration d’une méthode dans le contexte belge

El Imayem, Nesrine 28 January 2021 (has links) (PDF)
En cas de séparation, la loi belge ne prévoit pas de méthode obligatoire de calcul de la contribution alimentaire pour les enfants. Cette dernière est fixée généralement arbitrairement. L’objectif de cette thèse est d’élaborer une méthode de calcul de la contribution alimentaire dans le contexte belge, une méthode qui se base sur le coût de l’enfant.L’objectif de la première partie de la thèse est d’étudier la notion de « contribution alimentaire » d’un point de vue théorique. L’accent est mis sur plusieurs éléments :le lien existant entre « obligation alimentaire » et « contribution alimentaire », l’environnement légal belge en matière de fixation de la contribution alimentaire, les principes de base de la méthode à élaborer…La deuxième partie de la thèse s’intéresse à l’estimation du coût de l’enfant, étape nécessaire dans le calcul de la contribution alimentaire. Dans cet exercice, nous nous sommes basés sur l’enquête budget des ménages de 2016. Deux types de coût sont estimés :le coût global et les coûts spécifiques. Afin de calculer le coût global, nous avons estimé une équation de demande en se basant sur un modèle linéaire (MCO pour la méthode d’Engel et Tobit pour la méthode de Rothbarth). Les résultats de l’estimation du coût de l’enfant montrent que le coût moyen de l’enfant diminue entre ]0-2,5 ans] et]2,5-6 ans] et augmente à partir de 6 ans jusqu’à 25 ans. Afin d’estimer les coûts spécifiques de l’enfant, en d’autres termes « combien coûte l’enfant en alimentation, habillement… », nous avons estimé un système d’équations basé sur un modèle Tobit. En Belgique, la seule méthode prévoyant un calcul explicite du coût de l’enfant a été développée par Roland Renard dans les années quatre-vingt. L’originalité de cette partie consiste donc à fournir une estimation récente du coût de l’enfant dans le contexte belge. L’estimation du coût de l’enfant nous mène à la troisième partie de la thèse qui consiste en l’élaboration de la méthode de calcul de la contribution alimentaire. Au niveau international, l’étude des méthodes existantes en matière de calcul de la contribution alimentaire montre une absence de consensus concernant la liste des critères à prendre en compte. Au niveau belge, les méthodes existantes se basent soit sur les coefficients de la méthode Renard soit sur des moyennes statistiques. L’objectif de cette partie réside dans l’élaboration d’une méthode de calcul de la contribution alimentaire, méthode s’inspirant des méthodes internationales et prenant en compte les critiques adressées aux méthodes nationales. L’originalité de la méthode élaborée se rattache à plusieurs éléments. Premièrement, la méthode se base sur des principes biens définis (objectifs et critères à prendre en compte). Le montant de la contribution alimentaire n’est pas déterminé arbitrairement mais en se basant sur des étapes bien précises. Deuxièmement, la méthode rencontre les différents problèmes qui se posent en matière de calcul de la contribution alimentaire et sur lesquels on n’a pas réellement réfléchi jusqu’à présent. C’est le cas par exemple de la problématique des frais extraordinaires. Le troisième avantage de la méthode réside dans le fait qu’elle est facilement compréhensible par les parents. Ceci est d’une importance majeure. En effet, « une décision mieux comprise est mieux acceptée et donc mieux exécutée ». Le quatrième avantage réside dans sa souplesse, en d’autres termes sa capacité à être applicable à toutes les situations familiales et à toutes les situations d’hébergement. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
420

Contribution à la validation d'instruments de mesure de la dépendance des personnes âgées

Falez, Freddy 22 November 2006 (has links)
Résumé.<p>Introduction.<p>Le premier chapitre de l’introduction expose les problèmes posés à la sécurité sociale par le vieillissement de la population et plus particulièrement par le développement de la dépendance des personnes âgées. Ces problèmes sont illustrés par l’évolution des dépenses en soins de santé pour les aides aux actes de la vie journalière en institutions d’hébergement des personnes âgées, et à domicile. <p>Le deuxième chapitre décrit les instruments d’évaluation qui sont étudiés dans la présente dissertation. En effet, en Belgique, le financement des soins à la dépendance est réalisé sur base d’une évaluation à l’aide d’une échelle de l’INAMI ;une allocation à la personne âgée peut être obtenue par les personnes âgées dont la dépendance est alors évaluée à l’aide de l’échelle de la prévoyance sociale que nous appellerons aussi APA. Nous les comparons à l’outil d’évaluation utilisé en France et dénommé AGGIR pour autonomie gérontologique, groupes iso-resources.<p>Méthodes et populations.<p>Méthodes.<p>Nous validons les trois instruments sur le plan du construit à l’aide la Classification Internationale du Fonctionnement (CIF) de l’OMS. La validité est évaluée de différentes manières :validité concurrentielle entre les trois instruments ;validité concomitante des trois instruments par comparaison aux temps de soins nécessaires par les méthodes de corrélation, leur capacité de discriminer des catégories de dépendance ;la fidélité des instruments est également étudiée. <p>Populations<p>Quatre enquêtes ont été réalisée :la première en institutions de personnes âgées, la seconde à domicile, la troisième à domicile et la quatrième en institutions de personnes âgées avec la collaboration de différents professionnels :infirmières soignantes, infirmiers conseils de mutualité et l’auteur de la dissertation.<p>Résultats.<p>La troisième partie de la dissertation expose les résultats démographiques et des tests de validation.<p>Discussion.<p>La quatrième partie évalue les résultats. L’échelle de l’INAMI est de conception ancienne pour son contenu. Sa validité est suffisante pour étudier les charges en soins de populations de patients mais insuffisantes pour l’évaluation des besoins individuels, car elle n’évalue pas les besoins pour les actes instrumentaux de la vie journalière.<p>L’échelle APA a une mauvaise validité de contenu ;sa validité de construit est la moins bonne des trois instruments étudiés. Sa fidélité est médiocre. Cette échelle est à déconseiller.<p>La grille AGGIR a une validité de contenu moderne et bonne, une bonne validité de construit et une bonne fidélité.<p>Conclusions.<p>Des trois instruments étudiés, la grille AGGIR est la plus performante et permet à la fois le financement des soins à des populations des patients et l’évaluation de critères d’éligibilité pour l’octroi d’avantages sociaux. / Doctorat en sciences médicales / info:eu-repo/semantics/nonPublished

Page generated in 0.061 seconds