281 |
Cross-sectional and longitudinal analyses of the effects of aging on memory in healthy young, middle-aged, and oldest-old adults : a thesis presented in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Pyschology at Massey University, Palmerston North, New ZealandLamont, Allison Unknown Date (has links)
While a growing body of research indicates that older adults typically perform more poorly on many types of memory tasks than do younger adults, relatively little research has addressed the question of whether this trend continues unchanged into the late ninth and tenth decades of life. Such decrements in memory have been reported as linear declines from early adulthood up until about 80 years of age. Questions arise as to whether such memory declines slow or accelerate in very advanced aging, and to what extent differences are due to aging, per se, or variables that intervene between age and memory.To address these two questions, six memory types - verbal recall, nonverbal recall, short-term memory, working memory, face recognition, and prospective memory - were examined using both cross-sectional and longitudinal methodologies. The six types of memory and the influence of verbal processing speed, nonverbal processing speed, and intelligence were examined in mixed-gender groups of 20 - 40 (n = 40, M = 30.7, SD = 5.52), 50 - 70 (n = 44, M = 59.2, SD = 4.94), and 85+ year olds (n = 42, M = 87.8, SD = 2.43), at two points, the second occurring two years after the first. Each participant completed tests of word recall, geometric shapes recall, short-term memory (digit span), working memory (letter-number sequencing), face recognition, and prospective memory. Additionally, there were two processing speed tasks (Identical Pictures and Finding As), and the National Adult Reading Test of verbal fluency was used to estimate intelligence. The Mini-Mental State Examination and the Beck Depression Inventory (BDI-II) were used to screen for dementia and depression, respectively.At Time 1 testing the 85+ participants showed declines in all memory types (compared to the 20 - 40 year olds). Nonverbal recall (66.2% lower than the young group), working memory (46.2%), verbal recall (45%), and prospective memory (38.2%) produced the largest differences, short-term memory (12.3%) and face recognition (14.7%) the least. Two years later, the 85+ years old participants had shown further declines, relative to the 20 - 40 years group. Nonverbal recall (72.3% lower than the young group), prospective memory (63.2%), working memory (55.3%), and verbal recall (54.7%) continued to produce the largest decrements, with short-term memory (18.9%) and face recognition (19.8%) the least. The results for the young and middle participants did not change appreciably between Time 1 and Time 2. The difference between unadjusted scores and scores adjusted for intelligence, verbal processing speed, and nonverbal processing speed, increased markedly between Time 1 and Time 2 testing for the oldest-old participants.These findings support the view that while memory declines may be approximately linear from age 20 to 80 years, there is a sharp decline in most types of memory after the age of 85 years, recall and working memory suffering the most. Intelligence and processing speed have an effect on some types of memory, but age is by far the largest contributor to memory decline. Furthermore, as expected, all memory types declined over the two-year period, with prospective memory, verbal recall, nonverbal recall, and working memory showing the greatest declines. Short-term memory and face recognition declined at a noticeably slower rate.
|
282 |
Modèles de précaution en économie: introduction aux probabilités imprécisesHa-Duong, Minh 07 December 2005 (has links) (PDF)
Ce mémoire présente une recherche pour mieux traiter les problèmes d'environnement globaux en améliorant la prise en compte du risque et de l'incertitude dans les modèles numériques interdisciplinaires. La revue des approches de la décision ---utilisant ou non les probabilités subjectives--- montre que la première représentation de la précaution est le modèle de décision séquentielle. Dans ce cadre, ce texte présente les résultats du modèle intégré DIAM résolu en programmation dynamique stochastique concernant la question du tempo de l'action contre le changement climatique. La seconde partie de l'ouvrage propose une vision alternative de la précaution, basée sur le rejet de l'axiome de complétude des préférences de Savage. Cela conduit à définir un critère de décision rationnel en situation d'information imprécise. Ce critère est discuté avec la théorie des probabilités imprécises, en visant à unifier les différentes approches proposées dans la littérature (Shackle et Zadeh, Dempster et Shafer, Smets, Gilboa et Schmeidler, Walley). Les applications présentées en troisième partie concernent la causalité en épidémiologie, l'élicitation et la fusion des opinions d'experts ainsi que les règles de la prospective.
|
283 |
Modélisation des crues des rivières de moyenne montagne pour la gestion intégrée du risque d'inondation. Application à la vallée de la Thur (Haut-Rhin)Kreis, Nicolas 11 1900 (has links) (PDF)
Les dommages dus aux inondations sont en constante augmentation malgré la réglementation de l'urbanisation. La politique traditionnelle de lutte contre les crues ne donne pas satisfaction, tant du point de vue de la sécurité que des impacts sur les milieux naturels. La gestion du risque d'inondation doit s'inscrire à l'échelle du bassin versant et respecter le fonctionnement naturel des rivières. Il est nécessaire de développer des outils techniques nouveaux pour l'aide à la décision. Nous proposons une méthodologie de modélisation opérationnelle pour la gestion intégrée du risque d'inondation dans le contexte des rivières de moyenne montagne. La recherche de solutions techniques adaptées à chaque rivière peut s'appuyer sur un diagnostic complet du risque et l'exploration de scénarios de prospective. Pour permettre une approche à grande échelle, nous proposons une méthode de production et de sélection d'événements de référence conservant la même fréquence en tout point du bassin versant. Ces événements sont utilisés en simulation pour produire une cartographie précise de l'aléa en intensité et en fréquence. Le diagnostic du risque d'inondation permet d'identifier les enjeux à protéger et les hydrosystèmes à réhabiliter. Pour répondre à ces attentes, nous avons testé en prospective une renaturation de la rivière. L'application à la vallée de la Thur (68) et la simulation à l'aide d'une rivière virtuelle montrent que ce type de projet ne permet pas de réduire sensiblement l'aléa pour les rivières à pente forte. La pertinence des événements de référence choisis fait l'objet d'une discussion. Nous avons par ailleurs montré que les endiguements ne constituent pas une protection durable contre les crues. L'étude de scénarios de changement climatique annonce une aggravation des crues à moyen terme. Ainsi, nous intégrons dans la méthodologie l'étude de stratégies de résilience, encore peu explorées en France. La société doit réapprendre à vivre avec les crues pour concilier développement économique et équilibre des milieux naturels.
|
284 |
Modélisation prospective de l'industrie diffuse pour l'évaluation de l'impact de politiques de Maîtrise De l'Énergie (MDE) à partir du générateur de modèle TIMES : la récupération de chaleur par Pompes à Chaleur (PAC) dans l'industrie agroalimentaireSeck, Gondia 04 January 2012 (has links) (PDF)
L'augmentation des prix de l'énergie due à la raréfaction des énergies fossiles et la prise en compte des impacts environnementaux rend inéluctable l'engagement des industriels dans une démarche de maitrise de leurs consommations énergétiques et leurs émissions. L'Industrie Diffuse (ID), par opposition aux IGCE, est de plus en plus importante sur le plan économique, énergétique et environnemental. Elle devient ainsi une cible prioritaire d'autant plus que l'on constate qu'elle a été peu traitée dans les analyses énergétiques malgré l'intérêt des politiques en matière d'efficacité énergétique et le nombre considérable d'articles et de livres sur l'énergie. Comment quantifier alors l'implication de l'ID dans la contrainte réglementaire liée au changement climatique ? Quelles technologies et politiques à mettre en œuvre pour contribuer aux objectifs fixés par les plans d'actions pour l'efficacité énergétique ?Le travail de cette thèse repose ainsi sur une optimisation technico-économique de la chaine énergétique, à partir du modèle " bottom-up " de TIMES, dans une approche prospective pertinente des conséquences énergétique et environnementale de politiques MDE dans l'ID. Ce modèle s'appuie notamment sur une représentation par usages à l'inverse des IGCE du fait de l'inadaptabilité de l'approche produit/procédé. Dans ce cadre, l'analyse de la valorisation de la chaleur perdue en sortie des procédés à travers le déploiement de PAC dans l'agroalimentaire a été réalisée.Le recours à la modélisation prospective permet notamment d'observer le profil technologique et le timing des investissements des PAC en réponse à des contraintes énergétiques ou de mesures incitatives dans le cadre de Certificat d'Économie d'Énergie ou de valorisation des émissions de CO2. Il peut mettre aussi en lumière, d'une part, une possibilité d'étude sur un ajustement incrémentiel d'une taxe sur les émissions par les autorités de régulation pour atteindre leurs objectifs environnemental et énergétique sur le court, moyen et long-terme. D'autre part, il constitue un bon outil d'aide à la décision en déterminant des coûts différenciés d'économies d'énergie dans le cadre d'investissements de technologies MDE pour un meilleur criblage sectoriel.
|
285 |
La ville nouvelle de Marne-la-Vallée et son insertion dans la dynamique francilienne : évaluation des enjeux du renforcement de la structure polycentrique sur les systèmes de déplacementsAw, Thierno 06 December 2010 (has links) (PDF)
Pour planifier le devenir d'un territoire, il est classique de projeter l'évolution de l'usage du sol et du système de transport. La projection est fondée sur le principe que les lieux d'activités, selon leurs fonctions urbaines respectives, sont en relations de complémentarité : cette complémentarité induit des besoins de déplacements, lesquels se concrétisent en des flux de transport. Souvent les projections sont réalisées de manière séparée par grand domaine, occupation des sols d'une part et transport de l'autre, or il y a des interactions. La politique polycentrique poursuivie depuis plus d'une génération en région francilienne part de cette volonté de répartition spatiale optimale des activités humaines avec la création des Villes Nouvelles. Leur localisation dans des zones préférentielles d'extension urbaine desservies par des axes structurants de transports devait apporter une cohérence d'ensemble à la région urbaine et contribuer efficacement à une meilleure gestion des flux de déplacements à la fois en termes de structure géographique, pour limiter la congestion en direction du centre, et de répartition modale en faveur des transports collectifs. L'analyse récente des données d'occupation des sols comme celle des comportements de mobilité tend à confirmer que l'Ile-de- France reste encore caractérisée par une forme urbaine à dominante monocentrique. Le niveau de masse et de centralité défini dans le schéma initial d'aménagement n'a pas été atteint pour les " centres urbains nouveaux ", la dépendance au cœur de l'agglomération est toujours vérifiée, et la voiture particulière reste privilégiée comme mode de déplacement.Pour vérifier la capacité de la forme urbaine polycentrique à favoriser une mobilité durable, notre thèse prospecte deux partis d'aménagement pour la période 2004-2030, tous deux favorisant la densification de l'agglomération mais l'un de manière homogène et l'autre de manière ciblée, orientant davantage la localisation des activités humaines dans les grands pôles d'urbanisation. Dans cet objectif, nous avons simulé de manière intégrée l'usage du sol et les transports en mobilisant le modèle d'offre de transport et de demande de déplacements de la Driea-IDF, et une méthode de projection démographique spatialisée basée sur le modèle Omphale de l'Insee et ajoutant une focalisation par sous-ensemble territorial.Dans ces conditions, nous avons montré que l'évolution démographique prévue d'ici 2030, canalisée dans l'espace selon une logique de densification, devrait permettre un renforcement de la centralité urbaine dans les grands pôles d'aménagement que sont les Villes Nouvelles, avec une intensification de la cohérence urbaine entre les domiciles et les emplois, une réduction des distances moyennes entre domicile et travail, une proportion accrue de déplacements effectués par des modes non motorisés, et une amélioration de la performance territoriale des réseaux de transport. Ces effets seraient plus forts avec le scénario de densification ciblée qu'avec celui de densification homogène. Les transformations dans la structure des interactions spatiales et dans les besoins de déplacement, couplées au développement programmé des réseaux routiers et collectifs de transport, mais confrontées à l'accroissement démographique, sembleraient permettre de maintenir la qualité de service pour les modes individuels de transport. Cette stabilisation reposerait notamment sur un recours accru aux voies rapides urbaines. Dans le scénario de densification ciblée, l'emprise du trafic routier sur le reste du réseau pourrait même décroître quelque peu dans certains secteurs, permettant de mieux y répartir la capacité viaire en faveur des circulations douces. Le développement démographique et le maintien de la qualité de service en transport concourraient à améliorer non seulement les centralités secondaires donc l'accessibilité dans un cadre de proximité, mais encore les effectifs de population susceptibles d'atteindre une destination en un temps limité, ou le nombre d'emplois pouvant être visés depuis un lieu de domicile
|
286 |
Aide au pilotage d'une démarche en conception de produits : vers un cahier des charges "augmenté"Lattuf, José Antonio 18 December 2006 (has links) (PDF)
Le contexte économique qui règne dans l'industrie et les marchés nationaux et mondiaux impose aux entreprises la nécessité d'innover pour rester compétitif. Ce besoin n'est plus à démontrer. Innover signifie mener un processus capable de produire des résultats novateurs exploitables et exploités. Ce processus d'innovation est difficile à maîtriser car complexe et incertain en degré et nature variables (par projet, par entreprise, par technologie ... ). Il n'est donc ni figé ni prédictible. La conception et utilisation de méthodes et outils s'inscrivant dans une démarche d'innovation visent une certaine reproductibilité des différents sous-processus impliqués. Cette contradiction en apparence est au coeur de nos réflexions: ce qui doit être reproductible (voire anticipé) tout en intégrant des incertitudes, est censé garantir la variabilité. Pour y faire face, nous proposons une approche méthodologique basée sur des concepts issus des théories d'évolution en biologie et en technologie. Une structuration « évolutionniste» de plusieurs techniques de créativité est formulée et une représentation intermédiaire du produit dite « augmentée» est préconisée. Comme résultat de nos recherches un cahier des charges évolutif et transversal à changements intentionnels et contrôlés: Le Cahier des Charges Augmenté (CDCEVA). Le tout pour favoriser le processus de conception innovante et aider à l'apprentissage et l'appropriation du projet par l'entreprise en l'appuyant dans la construction de sa stratégie prospective-produit. Nous privilégions le contexte des petites structures industrielles comme les PME et nous plaçons le processus de conception de produit comme source d'innovation et des connaissances pour l'entreprise. Deux expérimentations industrielles sur des produits « non techniques » ont montré la pertinence de l'approche et ont permis l'amélioration du modèle initial proposé vers le modèle PIANO qui intègre une démarche globale de pilotage.
|
287 |
Risk Prediction at the Emergency DepartmentOlsson, Thomas January 2004 (has links)
<p>The severity of illness was scored in a cohort of 11751 non-surgical patients presenting at the Emergency Department (ED) during 12 consecutive months and followed for 4.7 years. The scoring system Rapid Acute Physiology score (RAPS) (including blood pressure, respiratory rate, pulse rate and Glasgow coma scale) was calculated for all arrivals at the ED. The RAPS system was also additionally developed by including the peripheral oxygen saturation and patient age, resulting in the new Rapid Emergency Medicine Score, (REMS). REMS was superior to RAPS in predicting in-hospital mortality according to ROC-curve analysis. An increase of one point in the 26 point REMS scale was associated with an Odds ratio of 1.40 for in-hospital death (95% CI 1.36-1.45, p<0.0001). Similar results were obtained in the major patient groups (chest pain, stroke, coma, dyspnea and diabetes). The association between REMS and length of stay in hospital was modest. Charlson Co-morbidity Index could add prognostic information to REMS in a long-term (4.7 years), but not in a short-term perspective (3 and 7 days). REMS was shown to be as powerful a predictor of in-hospital mortality as the more complicated APACHE II. REMS at the ED could also predict long-term mortality (4.7 years) in the total cohort (Hazard ratio 1.26, p<0.0001).</p><p>REMS is a potentially useful prognostic tool for non-surgical patients at the ED, regarding both in-hospital and long-term mortality. It is less complicated to use than APACHE II and has equal predictive accuracy.</p>
|
288 |
Risk Prediction at the Emergency DepartmentOlsson, Thomas January 2004 (has links)
The severity of illness was scored in a cohort of 11751 non-surgical patients presenting at the Emergency Department (ED) during 12 consecutive months and followed for 4.7 years. The scoring system Rapid Acute Physiology score (RAPS) (including blood pressure, respiratory rate, pulse rate and Glasgow coma scale) was calculated for all arrivals at the ED. The RAPS system was also additionally developed by including the peripheral oxygen saturation and patient age, resulting in the new Rapid Emergency Medicine Score, (REMS). REMS was superior to RAPS in predicting in-hospital mortality according to ROC-curve analysis. An increase of one point in the 26 point REMS scale was associated with an Odds ratio of 1.40 for in-hospital death (95% CI 1.36-1.45, p<0.0001). Similar results were obtained in the major patient groups (chest pain, stroke, coma, dyspnea and diabetes). The association between REMS and length of stay in hospital was modest. Charlson Co-morbidity Index could add prognostic information to REMS in a long-term (4.7 years), but not in a short-term perspective (3 and 7 days). REMS was shown to be as powerful a predictor of in-hospital mortality as the more complicated APACHE II. REMS at the ED could also predict long-term mortality (4.7 years) in the total cohort (Hazard ratio 1.26, p<0.0001). REMS is a potentially useful prognostic tool for non-surgical patients at the ED, regarding both in-hospital and long-term mortality. It is less complicated to use than APACHE II and has equal predictive accuracy.
|
289 |
Investigating Beliefs And Perceived Self-efficacy Beliefs Of Prospective Elementary Mathematics Teachers Towards Using Origami In Mathematics EducationArslan, Okan 01 September 2012 (has links) (PDF)
The purpose of this study is developing valid and reliable scales in order to measure beliefs and perceived self-efficacy beliefs towards using origami in mathematics education and then, investigating beliefs and perceived self-efficacy beliefs of Turkish prospective elementary mathematics teachers in using origami in mathematics education. Furthermore, gender differences in prospective teachers' / beliefs and perceived self-efficacy beliefs in using origami in mathematics education were investigated.
Data for the current study was collected in the spring term of 2011-2012 academic year from 299 prospective elementary mathematics teachers. These teacher candidates are from three universities located in three different regions of Turkey and all the participants have elective origami course experience. Origami in Mathematics Education Belief Scale (OMEBS) and Origami in Mathematics Education Self-Efficacy Scale (OMESS) were used as data collection instruments.
Exploratory and confirmatory factor analysis results showed that OMEBS and OMESS are valid and reliable instruments in order to measure beliefs and perceived self-efficacy beliefs in using origami in mathematics education. Descriptive analysis results indicated that, Turkish prospective elementary mathematics teachers strongly believe that origami is beneficial and suitable to be used in mathematics education. However, their perceived self-efficacy belief level is at little higher than moderate level. Lastly, independent sample t-test results revealed that female teacher candidates have significantly higher belief and perceived self-efficacy beliefs in using origami in mathematics education when compared with male teacher candidates.
|
290 |
Temporomandibular disorders : incidence, course, and risk factors / Käkfunktionsstörning : förlopp och riskfaktorerMarklund, Susanna January 2009 (has links)
Temporomandibular disorders (TMD) embrace pain and dysfunction in the temporomandibular joint (TMJ) and jaw muscles. TMD is a prevalent condition in the population and constitutes a significant health problem. Knowledge of factors influencing the onset and course of TMD is important in preventive care and development of treatment strategies as well as in clinical decision making. The aim of this thesis was to gain knowledge of whether variations in dental occlusion, bruxism, spinal pain and gender predicted the development and course of TMD. The study population comprised 371 undergraduate dental students. A questionnaire was used to obtain case histories. Clinical examination included the function of the TMJ, jaw muscles, maximal jaw mobility, the morphological occlusion, and contact patterns in centric and eccentric positions. The examinations were performed at start, and after 12 and 24 months. In total, 280 subjects were examined at all three occasions. The incidence of TMJ pain and dysfunction was high among both males and females. The course composed onset, recovery and maintenance resulting in a fluctuating pattern. Females were more likely to have persistent TMJ pain and dysfunction than males. The incidence and persistence of jaw muscle signs and symptoms was high and significantly more common in females. A similar fluctuating pattern as for TMJ pain and dysfunction was found. Crossbite predicted onset and persistence of TMJ pain and dysfunction; mandibular instability in centric positions predicted persistent TMJ pain and dysfunction, as well as persistent jaw muscle signs or symptoms. Reported bruxism increased the risk for TMJ pain and dysfunction but did not significantly affect the course of jaw muscle signs and symptoms. Spinal pain at baseline predicted the onset of jaw pain, headaches, and TMD pain. Signs of TMD at baseline predicted the onset of non-pain symptoms of TMD, jaw pain, headaches, and spinal pain. In conclusion, the results in this thesis show high incidence rates for TMD, headaches, and spinal pain among dental students. Crossbite, mandibular instability, reported bruxism, as well as female gender were identified as contributing risk factors. Spinal pain and TMD mutually predicted each other, indicating common pathophysiological mechanisms and individual vulnerability. The findings support a multidisciplinary approach, and it is recommended that the status and function of the jaw system be considered in patients with spinal pain.
|
Page generated in 0.0837 seconds