• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 181
  • 122
  • 16
  • 12
  • 12
  • 9
  • 6
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 640
  • 161
  • 143
  • 130
  • 96
  • 66
  • 60
  • 55
  • 46
  • 46
  • 43
  • 39
  • 39
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

EXAMINING CALIFORNIA’S ASSEMBLY BILL 1629 AND THE LONG-TERM CARE REIMBURSEMENT ACT: DID NURSING HOME NURSE STAFFING CHANGE?

Krauchunas, Matthew 13 April 2011 (has links)
California’s elderly population over age 85 is estimated to grow 361% by the year 2050. Many of these elders are frail and highly dependent on caregivers making them more likely to need nursing home care. A 1998 United States Government Accountability Office report identified poor quality of care in California nursing homes. This report spurred multiple Assembly Bills in California designed to increase nursing home nurse staffing, change the state’s Medi-Cal reimbursement methodology, or both. The legislation culminated in Assembly Bill (AB) 1629, signed into law in September 2004, which included the Long-Term Care Reimbursement Act. This legislation changed the state’s Medi-Cal reimbursement from a prospective, flat rate to a prospective, cost-based methodology and was designed in part to increase nursing home nurse staffing. It is estimated that this methodology change moved California from the bottom 10% of Medicaid nursing home reimbursement rates nationwide to the top 25%. This study analyzed the effect of AB 1629 on a panel of 567 free-standing nursing homes that were in continuous operation between the years 2002 – 2007. Resource Dependence Theory was used to construct the conceptual framework. Ordinary least squares (OLS) and first differencing with instrumental variable estimation procedures were used to test five hypotheses concerning Medi-Cal resource dependence, bed size, competition (including assisted living facilities and home health agencies), resource munificence, and slack resources. Both a 15 and 25 mile fixed radius were used as alternative market definitions instead of counties. The OLS results supported that case-mix adjusted licensed vocational nurse (LVN) and total nurse staffing hours per resident day increased overall. Nursing homes with the highest Medi-Cal dependence increased only increased NA staffing more than nursing homes with the lowest Medi-Cal dependence post AB 1629. The fixed effects with instrumental variable estimation procedure provided marginal support that nursing homes with more home health agency competition, in a 15 mile market, had higher LVN staffing. This estimation procedure also supported that nursing homes with more slack resources (post AB 1629) increased nurse aide and total nurse staffing while nursing homes located in markets with a greater percentage of residents over the age of 85 had more nurse aide staffing.
282

Cross-sectional and longitudinal analyses of the effects of aging on memory in healthy young, middle-aged, and oldest-old adults : a thesis presented in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Pyschology at Massey University, Palmerston North, New Zealand

Lamont, Allison Unknown Date (has links)
While a growing body of research indicates that older adults typically perform more poorly on many types of memory tasks than do younger adults, relatively little research has addressed the question of whether this trend continues unchanged into the late ninth and tenth decades of life. Such decrements in memory have been reported as linear declines from early adulthood up until about 80 years of age. Questions arise as to whether such memory declines slow or accelerate in very advanced aging, and to what extent differences are due to aging, per se, or variables that intervene between age and memory.To address these two questions, six memory types - verbal recall, nonverbal recall, short-term memory, working memory, face recognition, and prospective memory - were examined using both cross-sectional and longitudinal methodologies. The six types of memory and the influence of verbal processing speed, nonverbal processing speed, and intelligence were examined in mixed-gender groups of 20 - 40 (n = 40, M = 30.7, SD = 5.52), 50 - 70 (n = 44, M = 59.2, SD = 4.94), and 85+ year olds (n = 42, M = 87.8, SD = 2.43), at two points, the second occurring two years after the first. Each participant completed tests of word recall, geometric shapes recall, short-term memory (digit span), working memory (letter-number sequencing), face recognition, and prospective memory. Additionally, there were two processing speed tasks (Identical Pictures and Finding As), and the National Adult Reading Test of verbal fluency was used to estimate intelligence. The Mini-Mental State Examination and the Beck Depression Inventory (BDI-II) were used to screen for dementia and depression, respectively.At Time 1 testing the 85+ participants showed declines in all memory types (compared to the 20 - 40 year olds). Nonverbal recall (66.2% lower than the young group), working memory (46.2%), verbal recall (45%), and prospective memory (38.2%) produced the largest differences, short-term memory (12.3%) and face recognition (14.7%) the least. Two years later, the 85+ years old participants had shown further declines, relative to the 20 - 40 years group. Nonverbal recall (72.3% lower than the young group), prospective memory (63.2%), working memory (55.3%), and verbal recall (54.7%) continued to produce the largest decrements, with short-term memory (18.9%) and face recognition (19.8%) the least. The results for the young and middle participants did not change appreciably between Time 1 and Time 2. The difference between unadjusted scores and scores adjusted for intelligence, verbal processing speed, and nonverbal processing speed, increased markedly between Time 1 and Time 2 testing for the oldest-old participants.These findings support the view that while memory declines may be approximately linear from age 20 to 80 years, there is a sharp decline in most types of memory after the age of 85 years, recall and working memory suffering the most. Intelligence and processing speed have an effect on some types of memory, but age is by far the largest contributor to memory decline. Furthermore, as expected, all memory types declined over the two-year period, with prospective memory, verbal recall, nonverbal recall, and working memory showing the greatest declines. Short-term memory and face recognition declined at a noticeably slower rate.
283

Modèles de précaution en économie: introduction aux probabilités imprécises

Ha-Duong, Minh 07 December 2005 (has links) (PDF)
Ce mémoire présente une recherche pour mieux traiter les problèmes d'environnement globaux en améliorant la prise en compte du risque et de l'incertitude dans les modèles numériques interdisciplinaires. La revue des approches de la décision ---utilisant ou non les probabilités subjectives--- montre que la première représentation de la précaution est le modèle de décision séquentielle. Dans ce cadre, ce texte présente les résultats du modèle intégré DIAM résolu en programmation dynamique stochastique concernant la question du tempo de l'action contre le changement climatique. La seconde partie de l'ouvrage propose une vision alternative de la précaution, basée sur le rejet de l'axiome de complétude des préférences de Savage. Cela conduit à définir un critère de décision rationnel en situation d'information imprécise. Ce critère est discuté avec la théorie des probabilités imprécises, en visant à unifier les différentes approches proposées dans la littérature (Shackle et Zadeh, Dempster et Shafer, Smets, Gilboa et Schmeidler, Walley). Les applications présentées en troisième partie concernent la causalité en épidémiologie, l'élicitation et la fusion des opinions d'experts ainsi que les règles de la prospective.
284

Modélisation des crues des rivières de moyenne montagne pour la gestion intégrée du risque d'inondation. Application à la vallée de la Thur (Haut-Rhin)

Kreis, Nicolas 11 1900 (has links) (PDF)
Les dommages dus aux inondations sont en constante augmentation malgré la réglementation de l'urbanisation. La politique traditionnelle de lutte contre les crues ne donne pas satisfaction, tant du point de vue de la sécurité que des impacts sur les milieux naturels. La gestion du risque d'inondation doit s'inscrire à l'échelle du bassin versant et respecter le fonctionnement naturel des rivières. Il est nécessaire de développer des outils techniques nouveaux pour l'aide à la décision. Nous proposons une méthodologie de modélisation opérationnelle pour la gestion intégrée du risque d'inondation dans le contexte des rivières de moyenne montagne. La recherche de solutions techniques adaptées à chaque rivière peut s'appuyer sur un diagnostic complet du risque et l'exploration de scénarios de prospective. Pour permettre une approche à grande échelle, nous proposons une méthode de production et de sélection d'événements de référence conservant la même fréquence en tout point du bassin versant. Ces événements sont utilisés en simulation pour produire une cartographie précise de l'aléa en intensité et en fréquence. Le diagnostic du risque d'inondation permet d'identifier les enjeux à protéger et les hydrosystèmes à réhabiliter. Pour répondre à ces attentes, nous avons testé en prospective une renaturation de la rivière. L'application à la vallée de la Thur (68) et la simulation à l'aide d'une rivière virtuelle montrent que ce type de projet ne permet pas de réduire sensiblement l'aléa pour les rivières à pente forte. La pertinence des événements de référence choisis fait l'objet d'une discussion. Nous avons par ailleurs montré que les endiguements ne constituent pas une protection durable contre les crues. L'étude de scénarios de changement climatique annonce une aggravation des crues à moyen terme. Ainsi, nous intégrons dans la méthodologie l'étude de stratégies de résilience, encore peu explorées en France. La société doit réapprendre à vivre avec les crues pour concilier développement économique et équilibre des milieux naturels.
285

Modélisation prospective de l'industrie diffuse pour l'évaluation de l'impact de politiques de Maîtrise De l'Énergie (MDE) à partir du générateur de modèle TIMES : la récupération de chaleur par Pompes à Chaleur (PAC) dans l'industrie agroalimentaire

Seck, Gondia 04 January 2012 (has links) (PDF)
L'augmentation des prix de l'énergie due à la raréfaction des énergies fossiles et la prise en compte des impacts environnementaux rend inéluctable l'engagement des industriels dans une démarche de maitrise de leurs consommations énergétiques et leurs émissions. L'Industrie Diffuse (ID), par opposition aux IGCE, est de plus en plus importante sur le plan économique, énergétique et environnemental. Elle devient ainsi une cible prioritaire d'autant plus que l'on constate qu'elle a été peu traitée dans les analyses énergétiques malgré l'intérêt des politiques en matière d'efficacité énergétique et le nombre considérable d'articles et de livres sur l'énergie. Comment quantifier alors l'implication de l'ID dans la contrainte réglementaire liée au changement climatique ? Quelles technologies et politiques à mettre en œuvre pour contribuer aux objectifs fixés par les plans d'actions pour l'efficacité énergétique ?Le travail de cette thèse repose ainsi sur une optimisation technico-économique de la chaine énergétique, à partir du modèle " bottom-up " de TIMES, dans une approche prospective pertinente des conséquences énergétique et environnementale de politiques MDE dans l'ID. Ce modèle s'appuie notamment sur une représentation par usages à l'inverse des IGCE du fait de l'inadaptabilité de l'approche produit/procédé. Dans ce cadre, l'analyse de la valorisation de la chaleur perdue en sortie des procédés à travers le déploiement de PAC dans l'agroalimentaire a été réalisée.Le recours à la modélisation prospective permet notamment d'observer le profil technologique et le timing des investissements des PAC en réponse à des contraintes énergétiques ou de mesures incitatives dans le cadre de Certificat d'Économie d'Énergie ou de valorisation des émissions de CO2. Il peut mettre aussi en lumière, d'une part, une possibilité d'étude sur un ajustement incrémentiel d'une taxe sur les émissions par les autorités de régulation pour atteindre leurs objectifs environnemental et énergétique sur le court, moyen et long-terme. D'autre part, il constitue un bon outil d'aide à la décision en déterminant des coûts différenciés d'économies d'énergie dans le cadre d'investissements de technologies MDE pour un meilleur criblage sectoriel.
286

La ville nouvelle de Marne-la-Vallée et son insertion dans la dynamique francilienne : évaluation des enjeux du renforcement de la structure polycentrique sur les systèmes de déplacements

Aw, Thierno 06 December 2010 (has links) (PDF)
Pour planifier le devenir d'un territoire, il est classique de projeter l'évolution de l'usage du sol et du système de transport. La projection est fondée sur le principe que les lieux d'activités, selon leurs fonctions urbaines respectives, sont en relations de complémentarité : cette complémentarité induit des besoins de déplacements, lesquels se concrétisent en des flux de transport. Souvent les projections sont réalisées de manière séparée par grand domaine, occupation des sols d'une part et transport de l'autre, or il y a des interactions. La politique polycentrique poursuivie depuis plus d'une génération en région francilienne part de cette volonté de répartition spatiale optimale des activités humaines avec la création des Villes Nouvelles. Leur localisation dans des zones préférentielles d'extension urbaine desservies par des axes structurants de transports devait apporter une cohérence d'ensemble à la région urbaine et contribuer efficacement à une meilleure gestion des flux de déplacements à la fois en termes de structure géographique, pour limiter la congestion en direction du centre, et de répartition modale en faveur des transports collectifs. L'analyse récente des données d'occupation des sols comme celle des comportements de mobilité tend à confirmer que l'Ile-de- France reste encore caractérisée par une forme urbaine à dominante monocentrique. Le niveau de masse et de centralité défini dans le schéma initial d'aménagement n'a pas été atteint pour les " centres urbains nouveaux ", la dépendance au cœur de l'agglomération est toujours vérifiée, et la voiture particulière reste privilégiée comme mode de déplacement.Pour vérifier la capacité de la forme urbaine polycentrique à favoriser une mobilité durable, notre thèse prospecte deux partis d'aménagement pour la période 2004-2030, tous deux favorisant la densification de l'agglomération mais l'un de manière homogène et l'autre de manière ciblée, orientant davantage la localisation des activités humaines dans les grands pôles d'urbanisation. Dans cet objectif, nous avons simulé de manière intégrée l'usage du sol et les transports en mobilisant le modèle d'offre de transport et de demande de déplacements de la Driea-IDF, et une méthode de projection démographique spatialisée basée sur le modèle Omphale de l'Insee et ajoutant une focalisation par sous-ensemble territorial.Dans ces conditions, nous avons montré que l'évolution démographique prévue d'ici 2030, canalisée dans l'espace selon une logique de densification, devrait permettre un renforcement de la centralité urbaine dans les grands pôles d'aménagement que sont les Villes Nouvelles, avec une intensification de la cohérence urbaine entre les domiciles et les emplois, une réduction des distances moyennes entre domicile et travail, une proportion accrue de déplacements effectués par des modes non motorisés, et une amélioration de la performance territoriale des réseaux de transport. Ces effets seraient plus forts avec le scénario de densification ciblée qu'avec celui de densification homogène. Les transformations dans la structure des interactions spatiales et dans les besoins de déplacement, couplées au développement programmé des réseaux routiers et collectifs de transport, mais confrontées à l'accroissement démographique, sembleraient permettre de maintenir la qualité de service pour les modes individuels de transport. Cette stabilisation reposerait notamment sur un recours accru aux voies rapides urbaines. Dans le scénario de densification ciblée, l'emprise du trafic routier sur le reste du réseau pourrait même décroître quelque peu dans certains secteurs, permettant de mieux y répartir la capacité viaire en faveur des circulations douces. Le développement démographique et le maintien de la qualité de service en transport concourraient à améliorer non seulement les centralités secondaires donc l'accessibilité dans un cadre de proximité, mais encore les effectifs de population susceptibles d'atteindre une destination en un temps limité, ou le nombre d'emplois pouvant être visés depuis un lieu de domicile
287

Aide au pilotage d'une démarche en conception de produits : vers un cahier des charges "augmenté"

Lattuf, José Antonio 18 December 2006 (has links) (PDF)
Le contexte économique qui règne dans l'industrie et les marchés nationaux et mondiaux impose aux entreprises la nécessité d'innover pour rester compétitif. Ce besoin n'est plus à démontrer. Innover signifie mener un processus capable de produire des résultats novateurs exploitables et exploités. Ce processus d'innovation est difficile à maîtriser car complexe et incertain en degré et nature variables (par projet, par entreprise, par technologie ... ). Il n'est donc ni figé ni prédictible. La conception et utilisation de méthodes et outils s'inscrivant dans une démarche d'innovation visent une certaine reproductibilité des différents sous-processus impliqués. Cette contradiction en apparence est au coeur de nos réflexions: ce qui doit être reproductible (voire anticipé) tout en intégrant des incertitudes, est censé garantir la variabilité. Pour y faire face, nous proposons une approche méthodologique basée sur des concepts issus des théories d'évolution en biologie et en technologie. Une structuration « évolutionniste» de plusieurs techniques de créativité est formulée et une représentation intermédiaire du produit dite « augmentée» est préconisée. Comme résultat de nos recherches un cahier des charges évolutif et transversal à changements intentionnels et contrôlés: Le Cahier des Charges Augmenté (CDCEVA). Le tout pour favoriser le processus de conception innovante et aider à l'apprentissage et l'appropriation du projet par l'entreprise en l'appuyant dans la construction de sa stratégie prospective-produit. Nous privilégions le contexte des petites structures industrielles comme les PME et nous plaçons le processus de conception de produit comme source d'innovation et des connaissances pour l'entreprise. Deux expérimentations industrielles sur des produits « non techniques » ont montré la pertinence de l'approche et ont permis l'amélioration du modèle initial proposé vers le modèle PIANO qui intègre une démarche globale de pilotage.
288

Risk Prediction at the Emergency Department

Olsson, Thomas January 2004 (has links)
<p>The severity of illness was scored in a cohort of 11751 non-surgical patients presenting at the Emergency Department (ED) during 12 consecutive months and followed for 4.7 years. The scoring system Rapid Acute Physiology score (RAPS) (including blood pressure, respiratory rate, pulse rate and Glasgow coma scale) was calculated for all arrivals at the ED. The RAPS system was also additionally developed by including the peripheral oxygen saturation and patient age, resulting in the new Rapid Emergency Medicine Score, (REMS). REMS was superior to RAPS in predicting in-hospital mortality according to ROC-curve analysis. An increase of one point in the 26 point REMS scale was associated with an Odds ratio of 1.40 for in-hospital death (95% CI 1.36-1.45, p<0.0001). Similar results were obtained in the major patient groups (chest pain, stroke, coma, dyspnea and diabetes). The association between REMS and length of stay in hospital was modest. Charlson Co-morbidity Index could add prognostic information to REMS in a long-term (4.7 years), but not in a short-term perspective (3 and 7 days). REMS was shown to be as powerful a predictor of in-hospital mortality as the more complicated APACHE II. REMS at the ED could also predict long-term mortality (4.7 years) in the total cohort (Hazard ratio 1.26, p<0.0001).</p><p>REMS is a potentially useful prognostic tool for non-surgical patients at the ED, regarding both in-hospital and long-term mortality. It is less complicated to use than APACHE II and has equal predictive accuracy.</p>
289

Risk Prediction at the Emergency Department

Olsson, Thomas January 2004 (has links)
The severity of illness was scored in a cohort of 11751 non-surgical patients presenting at the Emergency Department (ED) during 12 consecutive months and followed for 4.7 years. The scoring system Rapid Acute Physiology score (RAPS) (including blood pressure, respiratory rate, pulse rate and Glasgow coma scale) was calculated for all arrivals at the ED. The RAPS system was also additionally developed by including the peripheral oxygen saturation and patient age, resulting in the new Rapid Emergency Medicine Score, (REMS). REMS was superior to RAPS in predicting in-hospital mortality according to ROC-curve analysis. An increase of one point in the 26 point REMS scale was associated with an Odds ratio of 1.40 for in-hospital death (95% CI 1.36-1.45, p&lt;0.0001). Similar results were obtained in the major patient groups (chest pain, stroke, coma, dyspnea and diabetes). The association between REMS and length of stay in hospital was modest. Charlson Co-morbidity Index could add prognostic information to REMS in a long-term (4.7 years), but not in a short-term perspective (3 and 7 days). REMS was shown to be as powerful a predictor of in-hospital mortality as the more complicated APACHE II. REMS at the ED could also predict long-term mortality (4.7 years) in the total cohort (Hazard ratio 1.26, p&lt;0.0001). REMS is a potentially useful prognostic tool for non-surgical patients at the ED, regarding both in-hospital and long-term mortality. It is less complicated to use than APACHE II and has equal predictive accuracy.
290

Investigating Beliefs And Perceived Self-efficacy Beliefs Of Prospective Elementary Mathematics Teachers Towards Using Origami In Mathematics Education

Arslan, Okan 01 September 2012 (has links) (PDF)
The purpose of this study is developing valid and reliable scales in order to measure beliefs and perceived self-efficacy beliefs towards using origami in mathematics education and then, investigating beliefs and perceived self-efficacy beliefs of Turkish prospective elementary mathematics teachers in using origami in mathematics education. Furthermore, gender differences in prospective teachers&#039 / beliefs and perceived self-efficacy beliefs in using origami in mathematics education were investigated. Data for the current study was collected in the spring term of 2011-2012 academic year from 299 prospective elementary mathematics teachers. These teacher candidates are from three universities located in three different regions of Turkey and all the participants have elective origami course experience. Origami in Mathematics Education Belief Scale (OMEBS) and Origami in Mathematics Education Self-Efficacy Scale (OMESS) were used as data collection instruments. Exploratory and confirmatory factor analysis results showed that OMEBS and OMESS are valid and reliable instruments in order to measure beliefs and perceived self-efficacy beliefs in using origami in mathematics education. Descriptive analysis results indicated that, Turkish prospective elementary mathematics teachers strongly believe that origami is beneficial and suitable to be used in mathematics education. However, their perceived self-efficacy belief level is at little higher than moderate level. Lastly, independent sample t-test results revealed that female teacher candidates have significantly higher belief and perceived self-efficacy beliefs in using origami in mathematics education when compared with male teacher candidates.

Page generated in 0.0536 seconds