• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 53
  • 10
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 83
  • 83
  • 66
  • 63
  • 26
  • 22
  • 21
  • 18
  • 17
  • 12
  • 11
  • 10
  • 10
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Versorgungsqualität im Krankenhaus, Sekundärprophylaxe, Kosten

Milde, Sonja 02 August 2011 (has links) (PDF)
1. Ziel Schlaganfall ist mit deutschlandweit jährlich bis zu 200.000 neuen Fällen ein weit verbreitetes Krankheitsbild. Schlaganfall führt häufig zu neurologischen Schädigungen, Pflegebedürftigkeit oder zum Tod. Das Statistische Bundesamt beziffert die Ausgaben für Schlaganfälle (Hirninfarkte, Schlaganfälle, die nicht als Blutung oder Infarkt bezeichnet werden, Subarachnoidalblutungen und intrazerebrale Blutungen) auf 5,875 Milliarden Euro im Jahr (2008). In entwickelten Ländern entfallen ca. 3% der Gesundheitsausgaben auf Schlaganfall. Vor diesem Hintergrund interessiert, welche Faktoren Sterblichkeit und Pflegebedürftigkeit nach Schlaganfall sowie die Versorgungskosten von Schlaganfallpatienten beeinflussen. Die vorliegende Analyse setzte sich zum Ziel, diese Frage anhand einer retrospektiven, empirischen Analyse von fast 13.000 hessischen Schlaganfallpatienten der Jahre 2005 bis 2007 zu beantworten. Im Einzelnen wird analysiert, (1) welche Faktoren schlechtes Outcome nach der akutstationären Versorgung beeinflussen, (2) welche Faktoren hinsichtlich akutstationärer Versorgungsqualität bzw. hinsichtlich der nachstationären Versorgung das Überleben nach Schlaganfall beeinflussen und (3) welche Aspekte die aus Sicht der Kranken- und Pflegeversicherung entstehenden Versorgungskosten von Schlaganfallpatienten determinieren. Eine retrospektive Analyse der Versorgungsrealität für hessische Schlaganfallpatienten wird unter anderem folgende Detailfragen beantworten: Welche (patientenspezifischen) Faktoren begünstigen die Umsetzung von akutstationären Qualitätsindikatoren? Welche Aspekte verkürzen oder verlängern die Zeit zwischen Schlaganfall und Krankenhausaufnahme (Prähospitalisierungszeit)? Welche Patienten werden in Krankenhäusern mit neurologischen Fachabteilungen betreut und welche Patienten erhalten Rehabilitationsmaßnahmen? Darüber hinaus wird aufgezeigt, wie die Umsetzung von Empfehlungen zur medikamentösen Sekundärprophylaxe erfolgt. 2. Forschungsstand Für Deutschland wurden bereits mehrere Studien zum Outcome nach Schlaganfall durchgeführt. In den meisten Studien wurde das Outcome drei Monate nach Krankenhausentlassung analysiert [z. B. Schneider u. a. (2009), Marquart (2009),Weimar und Diener (2003), Audebert u. a. (2006)], wobei dann die untersuchte Stichprobe aufgrund des Erfassungsaufwandes jeweils bei maximal 3.000 Patienten lag. Einige Studien bewerteten dagegen das Outcome bei Krankenhausentlassung [z. B. Heuschmann u. a. (2004)]. Diesen Studien liegen zumeist Daten aus krankenhausbasierten Registern zugrunde, die eine breite Datenbasis bieten. Wenig Aussagen gibt es dagegen zur Umsetzung der Sekundärprophylaxe nach Schlaganfall [vgl. Schneider u. a. (2009)], gar keine zu deren Einfluss auf die Überlebenswahrscheinlichkeit. Verschiedene Qualitätsregister erfassen seit geraumer Zeit Qualitätsindikatoren für die akutstationäre Versorgung des Schlaganfalls. Inwieweit diese Qualitätsindikatoren jedoch Faktoren abbilden, die mittel- und/ oder langfristige Auswirkungen auf Outcome, Überlebenszeit oder Versorgungskosten haben, ist bisher nicht analysiert worden. Auch zu den Versorgungskosten des Schlaganfalls existieren aktuell nur wenige Studien, in denen eine detaillierte Darstellung von Teilkosten etwa für Pflegebedürftigkeit oder Krankhausaufenthalte aufgrund von Folgeerkrankungen fehlt. Eine Studie, in der Daten krankenhausbasierter Schlaganfallregister mit Abrechnungsdaten der Sozialversicherung verknüpft wurden, ist bisher nicht publiziert worden. 3. Vorgehensweise Die in vorliegender Analyse durchgeführte Verknüpfung der zwei genannten Datenquellen (krankenhausbasiertes Schlaganfallregister - Gesellschaft für Qualitätssicherung Hessen (GQH) und Daten eines Kostenträgers - AOK Hessen) ermöglicht neben einer externen Validierung der Daten die Auswertung von Langzeitdaten (hier: bis 2 Jahre) zu Mortalität und Kosten für eine große Stichprobe von Schlaganfallpatienten. Im Einzelnen werden folgende Fragestellungen untersucht: - Sind die zugrunde liegenden Daten valide? - Sind die hier betrachteten, bei der AOK Hessen versicherten Patienten mit den hessischen Schlaganfallpatienten vergleichbar? - Wie hoch ist die Neuerkrankungsrate bezüglich Schlaganfall? - Welche Prognose hat ein Schlaganfallpatient? - Wie teuer ist ein Schlaganfallpatient? - Welche Bedeutung hat Versorgungsqualität (Struktur- und Prozessqualität) in der akutversorgenden Einrichtung für Outcome und Überlebenszeit nach dem Schlaganfall? bzw. Sind die Indikatoren, die die Versorgungsqualität aktuell abbilden, prognoserelevant für Outcome und Überlebenszeit nach dem Schlaganfall? - Welche Kriterien beeinflussen die Prähospitalisierungszeit und die Wahl der akutversorgenden Einrichtung? - Welche Faktoren beeinflussen die Versorgungsqualität im Krankenhaus? - Wie beeinflusst die der akutstationären Versorgung folgende Versorgung (Rehabilitation, medikamentöse Sekundärprophylaxe, Integrierte Versorgung) die Prognose nach dem Schlaganfall? - Wie beeinflussen Versorgungsqualität und die der akutstationären Versorgung folgende Versorgung (Rehabilitation, medikamentöse Sekundärprophylaxe, Integrierte Versorgung) die Versorgungskosten nach dem Schlaganfall? - Welche Empfehlungen können für die Qualitätssicherung in der akutstationären Versorgung und die Nachbetreuung von Schlaganfallpatienten abgeleitet werden? Die Beantwortung der genannten Fragestellungen erfolgt unter Nutzung multivariater Regressionsmodelle zur Prognose nach dem Schlaganfall und zu den Versorgungskosten nach dem Schlaganfall. Ergänzend werden LOGIT-Modelle eingesetzt, mit deren Hilfe Faktoren ermittelt werden, die die Wahrscheinlichkeit schnell in einem Krankenhaus hoher Strukturqualität (d.h. in einem Krankenhaus mit neurologischer Fachabteilung) versorgt zu werden und die Wahrscheinlichkeit einer qualitativ hochwertigen Versorgung (gemessen in Qualitätsindikatoren) beeinflussen. Außerdem erfolgt eine detaillierte Analyse der Umsetzung medikamentöser Sekundärprophylaxe nach einem Schlaganfall oder einer Transitorischen Ischämischen Attacke (TIA). 4. Ergebnisse Die vorliegende Analyse ist geeignet, die Versorgungsrealität für Schlaganfall- und TIA-Patienten anhand einer vergleichsweise großen Teilgesamtheit dieser Patienten und über einen vergleichsweise großen Follow-Up-Zeitraum zu beschreiben und so Empfehlungen für weitergehende Analysen abzuleiten. Über ein Fünftel der hessischen Schlaganfall- und TIA-Patienten im Betrachtungszeitraum wurden im Median 556 Tage nach Schlaganfall, knapp 60% der Patienten wurden über einen Zwei-Jahreszeitraum analysiert. Im Rahmen der Analyse konnte gezeigt werden, dass die aus dem krankenhausbasierten Register stammenden Angaben zur medikamentösen Sekundärprophylaxe sich nur in geringem Ausmaß durch Abrechnungsdaten bestätigen lassen. Die Chance auf eine, gemessen an den erfassten Qualitätsindikatoren, hohe akutstationäre Versorgungsqualität ist deutlich höher, wenn die akutstationäre Versorgung in Krankenhäusern mit neurologischer Fachabteilung erfolgt. Erfolgt die Einlieferung ins Krankenhaus durch den Rettungsdienst, ist die Chance, innerhalb von drei Stunden nach dem Schlaganfall in einem solchen Krankenhaus behandelt zu werden, gegenüber Einlieferung durch einen anderen Arzt, ein anderes Krankenhaus oder Selbsteinweisung, deutlich erhöht. Fast alle von der GQH erfassten Qualitätsindikatoren haben hinsichtlich des Outcomes bei Krankenhausentlassung Prognoserelevanz. Einzelne Qualitätsindikatoren haben darüberhinaus direkten Einfluss auf die Überlebenszeit nach Schlaganfall. Innerhalb des ersten Jahres nach Schlaganfall verstirbt fast ein Fünftel der betrachteten Patienten, das sind gegenüber Menschen der gleichen Alters- und Geschlechtsgruppe mehr als dreimal so viele Todesfälle. Auf Basis der in der Analyse ermittelten Werte zur Neuerkrankungsrate bei Versicherten der AOK Hessen kann deutschlandweit von 250.000 neuen Schlaganfällen und TIAs ausgegangen werden. Bei Bewertung mit den in der Analyse ermittelten Ein-Jahres-Versorgungskosten ergeben sich für diese Patienten jährlich Kosten von 4,03 Mrd. EUR. Die Betreuung im Rahmen des hessischen Vertrags zur Integrierten Versorgung führte - das konnte die vorliegende Analyse zeigen - zu einer Verlängerung der Überlebenszeit nach Schlaganfall. Die Effekte der Integrierten Versorgung ergaben sich jedoch im Wesentlichen aus einer besseren Umsetzung der medikamentösen Sekundärprophylaxe und häufigeren rehabilitativen Maßnahmen. Aktuell gibt es insbesondere hinsichtlich der Umsetzung medikamentöser Sekundärprophylaxe Probleme an der Schnittstelle zwischen Krankenhausentlassung und der nachfolgenden Versorgung. Eine bessere Abstimmung an dieser Schnittstelle kann die Überlebenszeit nach Schlaganfall verlängern und zusätzlich zu Kosteneinsparungen (aus Sicht der Sozialversicherung) führen. Die Letalität nach Schlaganfall ist, gegenüber der Allgemeinbevölkerung, insbesondere im ersten halben Jahr nach Schlaganfall deutlich erhöht. In diesem Zeitraum entsteht auch der mit Abstand größte Teil der Versorgungskosten. Daher sollten sich Maßnahmen zur Optimierung der Sekundärprophylaxe auf diesen Zeitraum konzentrieren.
72

Propriétés asymtpotiques et inférence avec des données manquantes pour les modèles de maintenance imparfaite / Asymptotic properties and inference with missing data for imperfect maintenance models

Nguyen, Dinh Tuan 01 December 2015 (has links)
Cette thèse est consacrée à la modélisation de la maintenance imparfaite par les modèles statistiques. La maintenance imparfaite est le cas intermédiaire de deux situations extrêmes : la maintenance minimale où le système est remis en état qu’il se trouve juste avant la défaillance, et la maintenance parfaite où le système est remplacé à neuf. Dans ce cadre, les expressions analytiques des grandeurs de fiabilité d’un modèle de maintenance imparfaite sont développées. La convergence du modèle est soulignée, et les lois asymptotiques dans le régime stationnaire sont proposées. Ensuite, les lois sont appliquées pour proposer des politiques de maintenance préventive avec des maintenances imparfaites. Le deuxième thème consiste à proposer une adaptation de procédure d’estimation pour les fenêtres d’observation. Seuls les événements pendant ces périodes sont observés. La modélisation et l’inférence s’appuient sur la convergence de modèles vers leurs régimes stationnaires, ou sur la modélisation de l’âge du système au début des fenêtres. Enfin, l’inférence bayésienne d’un modèle de maintenance imparfaite y est présentée. On étudie l’impact des choix des lois a priori sur la qualité des estimations par des simulations numériques. La sélection des modèles de maintenance imparfaite par le facteur de Bayes est proposée. Dans chaque partie, les modélisations statistiques sont appliquées à des données issues de l’industrie / The thesis analyses imperfect maintenance processes of industrial systems by statistical models. Imperfect maintenance is an intermediate situation of two extremes ones: minimal maintenance where the system is restored to the state immediately prior to failure, and perfect maintenance where the system is renewed after the failure. Analytical expressions of reliability quantities of an imperfect maintenance model are developed. The convergence of the model is highlighted and the asymptotic expressions are proposed. The results are applied to build some preventive maintenance policies that contain only imperfect maintenances. The second part of the thesis consists of analyzing failure data contained in observation windows. An observation window is a period of the entire functioning history that only the events occurring in this period are recorded. The modelling and the inference are based on the convergence property or the modelling of initial age. Finally, Bayesian inference of an imperfect maintenance model is presented. The impact of the choices of a priori distributions is analyzed by numerical simulations. A selection method of imperfect maintenance models using the Bayes factor is also introduced.The statistical modelling in each section is applied to real data
73

An?lise de res?duos em modelos de tempo de falha acelerado com efeito aleat?rio

Rodrigues, Elis?ngela da Silva 15 April 2013 (has links)
Made available in DSpace on 2014-12-17T15:26:39Z (GMT). No. of bitstreams: 1 ElisangelaSR_Parcial.pdf: 3958937 bytes, checksum: ab2ba14c6737760ff8b9b0b1ac7f9db2 (MD5) Previous issue date: 2013-04-15 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / We present residual analysis techniques to assess the fit of correlated survival data by Accelerated Failure Time Models (AFTM) with random effects. We propose an imputation procedure for censored observations and consider three types of residuals to evaluate different model characteristics. We illustrate the proposal with the analysis of AFTM with random effects to a real data set involving times between failures of oil well equipment / Apresentamos t?cnicas de an?lise de res?duos para avaliar o ajuste de dados de sobreviv?ncia correlacionados por meio de Modelos de Tempo de Falha Acelerado (MTFA) com efeitos aleat?rios. Propomos um procedimento de imputa??o para as informa??es censuradas e consideramos tr?s tipos de res?duos para avaliar diferentes caracter?sticas do modelo. Ilustramos as propostas com a an?lise do ajuste de um MTFA com efeito aleat?rio a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de po?os de petr?leo / 2020-01-01
74

Degradation modeling based on a time-dependent Ornstein-Uhlenbeck process and prognosis of system failures / Modélisation des dégradations par un processus d’Ornstein-Uhlenbeck et pronostic de défaillances du système

Deng, Yingjun 24 February 2015 (has links)
Cette thèse est consacrée à la description, la prédiction et la prévention des défaillances de systèmes. Elle se compose de quatre parties relatives à la modélisation stochastique de dégradation, au pronostic de défaillance du système, à l'estimation du niveau de défaillance et à l'optimisation de maintenance.Le processus d'Ornstein-Uhlenbeck (OU) dépendant du temps est introduit dans un objectif de modélisation des dégradations. Sur la base de ce processus, le premier instant de passage d’un niveau de défaillance prédéfini est considéré comme l’instant de défaillance du système considéré. Différentes méthodes sont ensuite proposées pour réaliser le pronostic de défaillance. Dans la suite, le niveau de défaillance associé au processus de dégradation est estimé à partir de la distribution de durée de vie en résolvant un problème inverse de premier passage. Cette approche permet d’associer les enregistrements de défaillance et le suivi de dégradation pour améliorer la qualité du pronostic posé comme un problème de premier passage. Le pronostic de défaillances du système permet d'optimiser sa maintenance. Le cas d'un système contrôlé en permanence est considéré. La caractérisation de l’instant de premier passage permet une rationalisation de la prise de décision de maintenance préventive. L’aide à la décision se fait par la recherche d'un niveau virtuel de défaillance dont le calcul est optimisé en fonction de critères proposés / This thesis is dedicated to describe, predict and prevent system failures. It consists of four issues: i) stochastic degradation modeling, ii) prognosis of system failures, iii) failure level estimation and iv) maintenance optimization. The time-dependent Ornstein-Uhlenbeck (OU) process is introduced for degradation modeling. The time-dependent OU process is interesting from its statistical properties on controllable mean, variance and correlation. Based on such a process, the first passage time is considered as the system failure time to a pre-set failure level. Different methods are then proposed for the prognosis of system failures, which can be classified into three categories: analytical approximations, numerical algorithms and Monte-Carlo simulation methods. Moreover, the failure level is estimated from the lifetime distribution by solving inverse first passage problems. This is to make up the potential gap between failure and degradation records to reinforce the prognosis process via first passage problems. From the prognosis of system failures, the maintenance optimization for a continuously monitored system is performed. By introducing first passage problems, the arrangement of preventive maintenance is simplified. The maintenance decision rule is based on a virtual failure level, which is solution of an optimization problem for proposed objective functions
75

On validation of parametric models applied in survival analysis and reliability / Sur la validation des modèles paramétriques appliqués en analyse de survie et fiabilité

Tahir, Muhammad-Ramzan 02 July 2012 (has links)
Le premier objectif de la thèse est de présenter un test d'ajustement pour les modèles paramétriques couramment utilisés en l'analyse de survie, la fiabilité, les sciences sociales, l'ingénierie, la santé publique et la démographie, en présence de censure à droite. Nous développons un logiciel en langue R pour les modèles paramétrique. Le modèle de Birnbaum-Saunders (BS) est utilisé pour la test d'ajustement pour les modèles AFT paramétriques et en analyse de système redondant. L'autre contribution porte sur l'analyse de système redondant composé avec une composante en état hot et l'autre en réserve fonctionnent en état warm pour augmenter la fiabilité de systeme. Nous calculons la fiabilité du système en termes de Fonction de répartition et nous donnons l'intervalle de confiance asymptotique. / This is an increasing importance in survival analysis and reliability to select a suitable basic model for further inquiries of the data. Little deviation in basic model can cause serious problems in final results. The presence of censoring and accelerated stresses make this task more difficult. Chi-square type goodness of fit tests are most commonly used for model selection. Many modifications in chi-square tests have been proposed by various researcher. The first aim of the thesis is to present a goodness of fit test for wide rage of parametric models (shape-scale families) commonly used in survival analysis, social sciences, engineering, public health and demography, in presence of right censoring. We give the explicit forms of the quadratic form of the test statistic (NRR test) for various models and apply the test on real data. We develop a computer program in R-language for all models. A separate section is dedicated for the test in demography. We focus on the Birnbaum-Saunders (BS) distribution for goodness of fit test for parametric AFT-model and analysis of redundant system.The other purpose of the thesis is to give the analysis of redundant system. To ensure high reliability of the main components of the systems, standby units are used. The main component is replaced by the standby unit automatically, if it fails. The standby unit can be in warm, hot, or cold state. We give the procedure of one main and (n-1) standby units placed in hot state, and give the detailed analysis of one main and one standby unit using BS parametric family. We use Sedyakin's physical principal and the approach of accelerated failure time model for the analysis of redundant system. This approach is different from the traditional ones in the literature but difficulties in calculations. We calculate the reliability of the system in terms of distribution function (unreliability function) and asymptotic confidence interval.
76

Bostad till salu : En analys av tid-till-försäljning på Uppsalas bostadsmarknad

Eriksson, Fabian, Ajdert, Alexander January 2022 (has links)
Denna uppsats har undersökt tid-till-försäljning på Uppsala kommuns bostadsmarknad för lägenheter under året 2021. För att analysera tid-till-försäljning har metoder från överlevnadsanalys använts. Överlevnadsfunktionen och den kumulativa hasardfunktionen har skattats med Kaplan-Meier-skattningen och Nelson-Aalen-skattningen. Därutöver har tre modeller skattats; en Cox proportionell hasardmodell och två 'Accelerated Failure Time'-modeller varav en var en Weibullmodell och en var en Loglogistiskmodell. Resultaten indikerar att tid-till-försäljning har en hög hasard efter två veckor på marknaden varefter en avtagande hasard. Resultaten indikerar att kovariat har en statistisk signifikant effekt på tid-till-försäljning. Grafiska tester indikerar att antagandet om proportionalitet för Cox proportionella hasardmodell och antagandet om den underliggande hasardfunktionen för Weibullmodellen är orimliga. Antagandet om den underliggande hasardfunktionen för loglogistiskamodellen verkar rimlig. Goodness-of-fit indikerar att Weibullmodellen och loglogistiskamodellen var mer välanpassade till datamaterialet än Cox proportionella hasardmodell. / This bachelor's thesis has investigated time-to-sale on the Uppsala municipality property market for apartments during 2021. Analysis has been performed utilising methods from survival analysis. Both the survival function and cumulative hazard function were estimated using the Kaplan-Meier estimate and the Nelson-Aalen estimate respectively. Furthermore, three models were estimated; a Cox Proportional Hazards model as well as two Accelerated Failure Time models of which one was a Weibullmodell and the other was a loglogistic model. The results indicate that time-to-sale has a high hazard after two weeks on the market followed by a decreasing hazard. The results also indicate that covariates have a statistically significant effect on time-to-sale. Graphical tests indicate that the assumption of proportionality for the Cox Proportional Hazards model and the assumption of the underlying hazard function for the Weibullmodell are unreasonable. The assumed hazardfunction of the loglogistic model was found to be reasonable. Goodness of fit indicates that the Weibull model and loglogistic model were a better fit to the data than the Cox proportional Hazardsmodel.
77

Hodnocení zdravotní technologie (HTA): léčba karcinomu prsu, případová studie ČR / Health technology assessment: case study on breast carcinoma treatment in the Czech Republic

Šlegerová, Lenka January 2019 (has links)
Health technology assessment: case study on breast carcinoma treatment in the Czech Republic Bc. Lenka Šlegerová January 4, 2019 Abstract This thesis proposes an original method for assessing total costs of med- ical treatment. It defines the semi-Markov model with four states that are associated with specific costs of the treatment, and not with patients' health statuses. This method is applied to individuals' treatment data drawn from the Czech clinical practice in the treatment of the metastatic HER2+ breast cancer. The aim is to assess the cost-effectiveness of adding medication per- tuzumab to the combination of trastuzumab+docetaxel within first-line therapy and to examine whether using individual data on Czech patients and the economic conditions leads to different results from foreign stud- ies. Furthermore, employing censored data from the clinical practice in the thesis complicates the estimation of patients' overall survival in compari- son to clinical-trials data that form random samples. Therefore, survival functions were not only estimated by the Kaplan-Meier estimator but also using the Cox proportional hazard model and the Accelerated failure time model that both control for the effects of included covariates. The addition of pertuzumab does not result in significantly longer pa- tients'...
78

Modélisation des stratégies de remplacement de composant et de systèmes soumis à l'obsolescence technologique

Clavareau, Julien 12 September 2008 (has links)
Ce travail s’inscrit dans le cadre d’étude de la sûreté de fonctionnement.<p>La sûreté de fonctionnement est progressivement devenue partie intégrante de l’évaluation des performances des systèmes industriels. En effet, les pannes d’équipements, les pertes de production consécutives, et la maintenance des installations ont un impact économique majeur dans les entreprises. Il est donc essentiel pour un manager de pouvoir estimer de manière cohérente et réaliste les coûts de fonctionnement de l’entreprise, en tenant notamment compte des caractéristiques fiabilistes des équipements utilisés, ainsi que des coûts induits entre autres par le non-fonctionnement du système et la restauration des performances de ses composants après défaillance.<p><p>Le travail que nous avons réalisé dans le cadre de ce doctorat se concentre sur un aspect particulier de la sûreté de fonctionnement, à savoir les politiques de remplacement d’équipements basées sur la fiabilité des systèmes qu’ils constituent. La recherche menée part de l’observation suivante :si la littérature consacrée aux politiques de remplacement est abondante, elle repose généralement sur l’hypothèse implicite que les nouveaux équipements envisagés présentent les mêmes caractéristiques et performances que celles que possédaient initialement les composants objets du remplacement.<p>La réalité technologique est souvent bien différente de cette approche, quelle que soit la discipline industrielle envisagée. En effet, de nouveaux équipements sont régulièrement disponibles sur le marché ;ils assurent les mêmes fonctions que des composants plus anciens utilisés par une entreprise, mais présentent de meilleures performances, par exemple en termes de taux de défaillance, consommation d’énergie, " intelligence " (aptitude à transmettre des informations sur leur état de détérioration).<p>De plus, il peut devenir de plus en plus difficile de se procurer des composants de l’ancienne génération pour remplacer ceux qui ont été déclassés. Cette situation est généralement appelée obsolescence technologique.<p><p>Le but de ce travail est de prolonger et d’approfondir, dans le cadre de la sûreté de fonctionnement, les réflexions engagées par les différents articles présentés dans la section état de l’art afin de définir et de modéliser des stratégies de remplacements d’équipements soumis à obsolescence technologique. Il s’agira de proposer un modèle, faisant le lien entre les approches plus économiques et celles plus fiabilistes, permettant de définir et d’évaluer l’efficacité, au sens large, des différentes stratégies de remplacement des unités obsolètes. L’efficacité d’une stratégie peut se mesurer par rapport à plusieurs critères parfois contradictoires. Parmi ceux-ci citons, évidemment, le coût total moyen engendré par la stratégie de remplacement, seul critère considéré dans les articles cités au chapitre 2, mais aussi la façon dont ces coûts sont répartis au cours du temps tout au long de la stratégie, la variabilité de ces coûts autour de leur moyenne, le fait de remplir certaines conditions comme par exemple d’avoir remplacé toutes les unités d’une génération par des unités d’une autre génération avant une date donnée ou de respecter certaines contraintes sur les temps de remplacement.<p><p>Pour arriver à évaluer les différentes stratégies, la première étape sera de définir un modèle réaliste des performances des unités considérées, et en particulier de leur loi de probabilité de défaillance. Etant donné le lien direct entre la probabilité de défaillance d’un équipement et la politique de maintenance qui lui est appliquée, notamment la fréquence des maintenances préventives, leur effet, l’effet des réparations après défaillance ou les critères de remplacement de l’équipement, un modèle complet devra considérer la description mathématique des effets des interventions effectuées sur les équipements. On verra que la volonté de décrire correctement les effets des interventions nous a amené à proposer une extension des modèles d’âge effectif habituellement utilisés dans la littérature.<p>Une fois le modèle interne des unités défini, nous développerons le modèle de remplacement des équipements obsolètes proprement dit. <p><p>Nous appuyant sur la notion de stratégie K proposée dans de précédents travaux, nous verrons comment adapter cette stratégie K à un modèle pour lequel les temps d’intervention ne sont pas négligeables et le nombre d’équipes limité. Nous verrons aussi comment tenir compte dans le cadre de cette stratégie K d’une part des contraintes de gestion d’un budget demandant en général de répartir les coûts au cours du temps et d’autre part de la volonté de passer d’une génération d’unités à l’autre en un temps limité, ces deux conditions pouvant être contradictoires.<p>Un autre problème auquel on est confronté quand on parle de l’obsolescence technologique est le modèle d’obsolescence à adopter. La manière dont on va gérer le risque d’obsolescence dépendra fortement de la manière dont on pense que les technologies vont évoluer et en particulier du rythme de cette évolution. Selon que l’on considère que le temps probable d’apparition d’une nouvelle génération est inférieur au temps de vie des composants ou supérieur à son temps de vie les solutions envisagées vont être différentes. Lors de deux applications numériques spécifiques.<p><p>Nous verrons au chapitre 12 comment envisager le problème lorsque l’intervalle de temps entre les différentes générations successives est largement inférieur à la durée de vie des équipements et au chapitre 13 comment traiter le problème lorsque le délai entre deux générations est de l’ordre de grandeur de la durée de vie des équipements considérés.<p><p>Le texte est structuré de la manière suivante :Après une première partie permettant de situer le contexte dans lequel s’inscrit ce travail, la deuxième partie décrit le modèle interne des unités tel que nous l’avons utilisé dans les différentes applications. La troisième partie reprend la description des stratégies de remplacement et des différentes applications traitées. La dernière partie permet de conclure par quelques commentaires sur les résultats obtenus et de discuter des perspectives de recherche dans le domaine.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
79

Versorgungsqualität im Krankenhaus, Sekundärprophylaxe, Kosten: Die Versorgung von Schlaganfallpatienten in Hessen

Milde, Sonja 05 July 2011 (has links)
1. Ziel Schlaganfall ist mit deutschlandweit jährlich bis zu 200.000 neuen Fällen ein weit verbreitetes Krankheitsbild. Schlaganfall führt häufig zu neurologischen Schädigungen, Pflegebedürftigkeit oder zum Tod. Das Statistische Bundesamt beziffert die Ausgaben für Schlaganfälle (Hirninfarkte, Schlaganfälle, die nicht als Blutung oder Infarkt bezeichnet werden, Subarachnoidalblutungen und intrazerebrale Blutungen) auf 5,875 Milliarden Euro im Jahr (2008). In entwickelten Ländern entfallen ca. 3% der Gesundheitsausgaben auf Schlaganfall. Vor diesem Hintergrund interessiert, welche Faktoren Sterblichkeit und Pflegebedürftigkeit nach Schlaganfall sowie die Versorgungskosten von Schlaganfallpatienten beeinflussen. Die vorliegende Analyse setzte sich zum Ziel, diese Frage anhand einer retrospektiven, empirischen Analyse von fast 13.000 hessischen Schlaganfallpatienten der Jahre 2005 bis 2007 zu beantworten. Im Einzelnen wird analysiert, (1) welche Faktoren schlechtes Outcome nach der akutstationären Versorgung beeinflussen, (2) welche Faktoren hinsichtlich akutstationärer Versorgungsqualität bzw. hinsichtlich der nachstationären Versorgung das Überleben nach Schlaganfall beeinflussen und (3) welche Aspekte die aus Sicht der Kranken- und Pflegeversicherung entstehenden Versorgungskosten von Schlaganfallpatienten determinieren. Eine retrospektive Analyse der Versorgungsrealität für hessische Schlaganfallpatienten wird unter anderem folgende Detailfragen beantworten: Welche (patientenspezifischen) Faktoren begünstigen die Umsetzung von akutstationären Qualitätsindikatoren? Welche Aspekte verkürzen oder verlängern die Zeit zwischen Schlaganfall und Krankenhausaufnahme (Prähospitalisierungszeit)? Welche Patienten werden in Krankenhäusern mit neurologischen Fachabteilungen betreut und welche Patienten erhalten Rehabilitationsmaßnahmen? Darüber hinaus wird aufgezeigt, wie die Umsetzung von Empfehlungen zur medikamentösen Sekundärprophylaxe erfolgt. 2. Forschungsstand Für Deutschland wurden bereits mehrere Studien zum Outcome nach Schlaganfall durchgeführt. In den meisten Studien wurde das Outcome drei Monate nach Krankenhausentlassung analysiert [z. B. Schneider u. a. (2009), Marquart (2009),Weimar und Diener (2003), Audebert u. a. (2006)], wobei dann die untersuchte Stichprobe aufgrund des Erfassungsaufwandes jeweils bei maximal 3.000 Patienten lag. Einige Studien bewerteten dagegen das Outcome bei Krankenhausentlassung [z. B. Heuschmann u. a. (2004)]. Diesen Studien liegen zumeist Daten aus krankenhausbasierten Registern zugrunde, die eine breite Datenbasis bieten. Wenig Aussagen gibt es dagegen zur Umsetzung der Sekundärprophylaxe nach Schlaganfall [vgl. Schneider u. a. (2009)], gar keine zu deren Einfluss auf die Überlebenswahrscheinlichkeit. Verschiedene Qualitätsregister erfassen seit geraumer Zeit Qualitätsindikatoren für die akutstationäre Versorgung des Schlaganfalls. Inwieweit diese Qualitätsindikatoren jedoch Faktoren abbilden, die mittel- und/ oder langfristige Auswirkungen auf Outcome, Überlebenszeit oder Versorgungskosten haben, ist bisher nicht analysiert worden. Auch zu den Versorgungskosten des Schlaganfalls existieren aktuell nur wenige Studien, in denen eine detaillierte Darstellung von Teilkosten etwa für Pflegebedürftigkeit oder Krankhausaufenthalte aufgrund von Folgeerkrankungen fehlt. Eine Studie, in der Daten krankenhausbasierter Schlaganfallregister mit Abrechnungsdaten der Sozialversicherung verknüpft wurden, ist bisher nicht publiziert worden. 3. Vorgehensweise Die in vorliegender Analyse durchgeführte Verknüpfung der zwei genannten Datenquellen (krankenhausbasiertes Schlaganfallregister - Gesellschaft für Qualitätssicherung Hessen (GQH) und Daten eines Kostenträgers - AOK Hessen) ermöglicht neben einer externen Validierung der Daten die Auswertung von Langzeitdaten (hier: bis 2 Jahre) zu Mortalität und Kosten für eine große Stichprobe von Schlaganfallpatienten. Im Einzelnen werden folgende Fragestellungen untersucht: - Sind die zugrunde liegenden Daten valide? - Sind die hier betrachteten, bei der AOK Hessen versicherten Patienten mit den hessischen Schlaganfallpatienten vergleichbar? - Wie hoch ist die Neuerkrankungsrate bezüglich Schlaganfall? - Welche Prognose hat ein Schlaganfallpatient? - Wie teuer ist ein Schlaganfallpatient? - Welche Bedeutung hat Versorgungsqualität (Struktur- und Prozessqualität) in der akutversorgenden Einrichtung für Outcome und Überlebenszeit nach dem Schlaganfall? bzw. Sind die Indikatoren, die die Versorgungsqualität aktuell abbilden, prognoserelevant für Outcome und Überlebenszeit nach dem Schlaganfall? - Welche Kriterien beeinflussen die Prähospitalisierungszeit und die Wahl der akutversorgenden Einrichtung? - Welche Faktoren beeinflussen die Versorgungsqualität im Krankenhaus? - Wie beeinflusst die der akutstationären Versorgung folgende Versorgung (Rehabilitation, medikamentöse Sekundärprophylaxe, Integrierte Versorgung) die Prognose nach dem Schlaganfall? - Wie beeinflussen Versorgungsqualität und die der akutstationären Versorgung folgende Versorgung (Rehabilitation, medikamentöse Sekundärprophylaxe, Integrierte Versorgung) die Versorgungskosten nach dem Schlaganfall? - Welche Empfehlungen können für die Qualitätssicherung in der akutstationären Versorgung und die Nachbetreuung von Schlaganfallpatienten abgeleitet werden? Die Beantwortung der genannten Fragestellungen erfolgt unter Nutzung multivariater Regressionsmodelle zur Prognose nach dem Schlaganfall und zu den Versorgungskosten nach dem Schlaganfall. Ergänzend werden LOGIT-Modelle eingesetzt, mit deren Hilfe Faktoren ermittelt werden, die die Wahrscheinlichkeit schnell in einem Krankenhaus hoher Strukturqualität (d.h. in einem Krankenhaus mit neurologischer Fachabteilung) versorgt zu werden und die Wahrscheinlichkeit einer qualitativ hochwertigen Versorgung (gemessen in Qualitätsindikatoren) beeinflussen. Außerdem erfolgt eine detaillierte Analyse der Umsetzung medikamentöser Sekundärprophylaxe nach einem Schlaganfall oder einer Transitorischen Ischämischen Attacke (TIA). 4. Ergebnisse Die vorliegende Analyse ist geeignet, die Versorgungsrealität für Schlaganfall- und TIA-Patienten anhand einer vergleichsweise großen Teilgesamtheit dieser Patienten und über einen vergleichsweise großen Follow-Up-Zeitraum zu beschreiben und so Empfehlungen für weitergehende Analysen abzuleiten. Über ein Fünftel der hessischen Schlaganfall- und TIA-Patienten im Betrachtungszeitraum wurden im Median 556 Tage nach Schlaganfall, knapp 60% der Patienten wurden über einen Zwei-Jahreszeitraum analysiert. Im Rahmen der Analyse konnte gezeigt werden, dass die aus dem krankenhausbasierten Register stammenden Angaben zur medikamentösen Sekundärprophylaxe sich nur in geringem Ausmaß durch Abrechnungsdaten bestätigen lassen. Die Chance auf eine, gemessen an den erfassten Qualitätsindikatoren, hohe akutstationäre Versorgungsqualität ist deutlich höher, wenn die akutstationäre Versorgung in Krankenhäusern mit neurologischer Fachabteilung erfolgt. Erfolgt die Einlieferung ins Krankenhaus durch den Rettungsdienst, ist die Chance, innerhalb von drei Stunden nach dem Schlaganfall in einem solchen Krankenhaus behandelt zu werden, gegenüber Einlieferung durch einen anderen Arzt, ein anderes Krankenhaus oder Selbsteinweisung, deutlich erhöht. Fast alle von der GQH erfassten Qualitätsindikatoren haben hinsichtlich des Outcomes bei Krankenhausentlassung Prognoserelevanz. Einzelne Qualitätsindikatoren haben darüberhinaus direkten Einfluss auf die Überlebenszeit nach Schlaganfall. Innerhalb des ersten Jahres nach Schlaganfall verstirbt fast ein Fünftel der betrachteten Patienten, das sind gegenüber Menschen der gleichen Alters- und Geschlechtsgruppe mehr als dreimal so viele Todesfälle. Auf Basis der in der Analyse ermittelten Werte zur Neuerkrankungsrate bei Versicherten der AOK Hessen kann deutschlandweit von 250.000 neuen Schlaganfällen und TIAs ausgegangen werden. Bei Bewertung mit den in der Analyse ermittelten Ein-Jahres-Versorgungskosten ergeben sich für diese Patienten jährlich Kosten von 4,03 Mrd. EUR. Die Betreuung im Rahmen des hessischen Vertrags zur Integrierten Versorgung führte - das konnte die vorliegende Analyse zeigen - zu einer Verlängerung der Überlebenszeit nach Schlaganfall. Die Effekte der Integrierten Versorgung ergaben sich jedoch im Wesentlichen aus einer besseren Umsetzung der medikamentösen Sekundärprophylaxe und häufigeren rehabilitativen Maßnahmen. Aktuell gibt es insbesondere hinsichtlich der Umsetzung medikamentöser Sekundärprophylaxe Probleme an der Schnittstelle zwischen Krankenhausentlassung und der nachfolgenden Versorgung. Eine bessere Abstimmung an dieser Schnittstelle kann die Überlebenszeit nach Schlaganfall verlängern und zusätzlich zu Kosteneinsparungen (aus Sicht der Sozialversicherung) führen. Die Letalität nach Schlaganfall ist, gegenüber der Allgemeinbevölkerung, insbesondere im ersten halben Jahr nach Schlaganfall deutlich erhöht. In diesem Zeitraum entsteht auch der mit Abstand größte Teil der Versorgungskosten. Daher sollten sich Maßnahmen zur Optimierung der Sekundärprophylaxe auf diesen Zeitraum konzentrieren.:1 Zielstellung 2 Stand der Forschung 2.1 Das Krankheitsbild 2.2 Versorgung des Schlaganfalls in Deutschland 2.3 Epidemiologie des Schlaganfalls 2.4 Outcome nach Schlaganfall 2.5 Kosten des Schlaganfalls 3 Perspektive/ Fragestellungen 4 Daten 4.1 Datengrundlage 4.2 Variablen 4.2.1 Übersicht 4.2.2 Bewusstseinslage 4.2.3 Risikofaktoren 4.2.4 Diagnoseklassen 4.2.5 TOAST-Klassen 4.2.6 Modifizierter Rankin-Scale und Barthel-Index 4.2.7 Qualitätsindikatoren 4.2.8 Pflegebedürftigkeit 4.2.9 Rehabilitation 4.2.10 Sekundärprophylaxe 4.2.11 Teilnahme an der Integrierten Versorgung 4.3 Plausibilisierung der Daten 4.4 Betrachtungszeitraum 5 Statistische Methoden 5.1 Kaplan-Meier-Funktion 5.2 Logit-Modelle 5.3 Accelerated Failure Time - Modelle 5.4 Cox - Modelle 5.5 Multivariate lineare Regressionsmodelle 6 Vorgehensweise 6.1 Übersicht 6.2 Betrachtete Patienten und deren Repräsentativität 6.3 Überlebenszeit nach Schlaganfall, Letalität 6.4 Versorgungskosten nach Schlaganfall 6.5 Modellierung von Einflussgrößen auf Outcome und Überlebenszeit nach Schlaganfall 6.6 Prähospitalisierungszeit und akutstationär versorgende Einrichtung 6.7 Qualitätsindikatoren 6.8 Modellierung von Einflussgrößen auf Überlebenszeit nach akutstationärer Versorgung von Schlaganfall 6.9 Umsetzung der medikamentösen Sekundärprophylaxe 6.10 Modellierung von Einflussgrößen auf Versorgungskosten nach Schlaganfall 7 Ergebnisse 7.1 Plausibilisierung der Daten 7.2 Betrachtete Patienten und deren Repräsentativität 7.3 Überlebenszeit nach Schlaganfall, Letalität 7.4 Versorgungskosten nach Schlaganfall 7.5 Modellierung von Einflussgrößen auf Outcome und Überlebenszeit nach Schlaganfall 7.5.1 Outcome 7.5.2 Einflussgrößen auf Outcome 7.5.3 Einflussgrößen auf Überlebenszeit 7.6 Prähospitalisierungszeit und akutstationär versorgende Einrichtung 7.7 Qualitätsindikatoren 7.8 Modellierung von Einflussgrößen auf Überlebenszeit nach akutstationärer Versorgung von Schlaganfall 7.9 Umsetzung der medikamentösen Sekundärprophylaxe 7.10 Modellierung von Einflussgrößen auf Versorgungskosten nach Schlaganfall 8 Diskussion 8.1 Schlussfolgerungen 8.2 Methodenkritik 8.3 Ausblick A Anhang A.1 Tabellen A.2 Abbildungen
80

Les modèles de régression dynamique et leurs applications en analyse de survie et fiabilité / Dynamic regression models and their applications in survival and reliability analysis

Tran, Xuan Quang 26 September 2014 (has links)
Cette thèse a été conçu pour explorer les modèles dynamiques de régression, d’évaluer les inférences statistiques pour l’analyse des données de survie et de fiabilité. Ces modèles de régression dynamiques que nous avons considérés, y compris le modèle des hasards proportionnels paramétriques et celui de la vie accélérée avec les variables qui peut-être dépendent du temps. Nous avons discuté des problèmes suivants dans cette thèse.Nous avons présenté tout d’abord une statistique de test du chi-deux généraliséeY2nquiest adaptative pour les données de survie et fiabilité en présence de trois cas, complètes,censurées à droite et censurées à droite avec les covariables. Nous avons présenté en détailla forme pratique deY2nstatistique en analyse des données de survie. Ensuite, nous avons considéré deux modèles paramétriques très flexibles, d’évaluer les significations statistiques pour ces modèles proposées en utilisantY2nstatistique. Ces modèles incluent du modèle de vie accélérés (AFT) et celui de hasards proportionnels (PH) basés sur la distribution de Hypertabastic. Ces deux modèles sont proposés pour étudier la distribution de l’analyse de la duré de survie en comparaison avec d’autre modèles paramétriques. Nous avons validé ces modèles paramétriques en utilisantY2n. Les études de simulation ont été conçus.Dans le dernier chapitre, nous avons proposé les applications de ces modèles paramétriques à trois données de bio-médicale. Le premier a été fait les données étendues des temps de rémission des patients de leucémie aiguë qui ont été proposées par Freireich et al. sur la comparaison de deux groupes de traitement avec des informations supplémentaires sur les log du blanc du nombre de globules. Elle a montré que le modèle Hypertabastic AFT est un modèle précis pour ces données. Le second a été fait sur l’étude de tumeur cérébrale avec les patients de gliome malin, ont été proposées par Sauerbrei & Schumacher. Elle a montré que le meilleur modèle est Hypertabastic PH à l’ajout de cinq variables de signification. La troisième demande a été faite sur les données de Semenova & Bitukov, à concernant les patients de myélome multiple. Nous n’avons pas proposé un modèle exactement pour ces données. En raison de cela était les intersections de temps de survie.Par conséquent, nous vous conseillons d’utiliser un autre modèle dynamique que le modèle de la Simple Cross-Effect à installer ces données. / This thesis was designed to explore the dynamic regression models, assessing the sta-tistical inference for the survival and reliability data analysis. These dynamic regressionmodels that we have been considered including the parametric proportional hazards andaccelerated failure time models contain the possibly time-dependent covariates. We dis-cussed the following problems in this thesis.At first, we presented a generalized chi-squared test statisticsY2nthat is a convenient tofit the survival and reliability data analysis in presence of three cases: complete, censoredand censored with covariates. We described in detail the theory and the mechanism to usedofY2ntest statistic in the survival and reliability data analysis. Next, we considered theflexible parametric models, evaluating the statistical significance of them by usingY2nandlog-likelihood test statistics. These parametric models include the accelerated failure time(AFT) and a proportional hazards (PH) models based on the Hypertabastic distribution.These two models are proposed to investigate the distribution of the survival and reliabilitydata in comparison with some other parametric models. The simulation studies were de-signed, to demonstrate the asymptotically normally distributed of the maximum likelihood estimators of Hypertabastic’s parameter, to validate of the asymptotically property of Y2n test statistic for Hypertabastic distribution when the right censoring probability equal 0% and 20%.n the last chapter, we applied those two parametric models above to three scenes ofthe real-life data. The first one was done the data set given by Freireich et al. on thecomparison of two treatment groups with additional information about log white blood cellcount, to test the ability of a therapy to prolong the remission times of the acute leukemiapatients. It showed that Hypertabastic AFT model is an accurate model for this dataset.The second one was done on the brain tumour study with malignant glioma patients, givenby Sauerbrei & Schumacher. It showed that the best model is Hypertabastic PH onadding five significance covariates. The third application was done on the data set given by Semenova & Bitukov on the survival times of the multiple myeloma patients. We did not propose an exactly model for this dataset. Because of that was an existing oneintersection of survival times. We, therefore, suggest fitting other dynamic model as SimpleCross-Effect model for this dataset.

Page generated in 0.063 seconds