• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 8
  • 5
  • 2
  • 2
  • 1
  • Tagged with
  • 43
  • 43
  • 33
  • 27
  • 13
  • 13
  • 13
  • 10
  • 10
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Clinical relevance of nalmefene versus placebo in alcohol treatment: Reduction in mortality risk

Roerecke, Michael, Sørensen, Per, Laramée, Philippe, Rahhali, Nora, Rehm, Jürgen 09 October 2019 (has links)
Reduction of long-term mortality risk, an important clinical outcome for people in alcohol dependence treatment, can rarely be established in randomized controlled trials (RCTs). We calculated the reduction in all-cause mortality risk using data from short-term (6 and 12 months) double-blind RCTs comparing as-needed nalmefene treatment to placebo, and mortality risks from meta-analyses on all-cause-mortality risk by reduction of drinking in people with alcohol dependence. A reduction in drinking in the RCTs was defined by shifts in drinking risk levels established by the European Medicines Agency. Results showed that the reduction of drinking in the nalmefene group was associated with a reduction in mortality risk by 8% (95% CI: 2%, 13%) when compared to the placebo group. Sensitivity analyses confirmed a significant effect. Thus comparing the difference between nalmefene and placebo in reduction in drinking levels with results on all-cause mortality risk from meta-analyses indicated a clinically relevant reduction in mortality risk. Given the high mortality risk of people with alcohol dependence, abstinence or a reduction in drinking have been shown to reduce mortality risk and should be considered treatment goals.
22

Measuring Cognitive Load – Opportunities and Challenges

Krieglstein, Felix 28 July 2023 (has links)
Die Cognitive Load Theory (CLT) postuliert, dass das Lernen neuer, komplexer Informationen mit einer Belastung des Arbeitsgedächtnisses des Lernenden einhergeht. Nachdem die Theorie erstmals 1988 von John Sweller postuliert wurde, arbeitete eine kleine Gruppe von Forschern an Universitäten in Australien und den Niederlanden an ihrer Weiterentwicklung. Sie entwickelte sich schnell zu einer der populärsten Theorien in der pädagogischen Psychologie und im Instruktionsdesign. Die CLT basiert auf Erkenntnissen der Kognitionspsychologie und geht davon aus, dass das Arbeitsgedächtnis nur eine begrenzte Anzahl von Informationselementen simultan verarbeiten kann, wodurch die Fähigkeit, neue Informationen zu verarbeiten, stark eingeschränkt ist. Auf der Grundlage der CLT wurden eine Reihe von Empfehlungen und Prinzipien abgeleitet, die den Lernenden helfen sollen, ihre verfügbaren kognitiven Ressourcen optimal für das Lernen zu nutzen, um Informationen in Form von Schemata in das Langzeitgedächtnis zu übertragen. Ziel ist es, eine Überlastung des Arbeitsgedächtnisses (d.h. eine kognitive Überlastung) zu vermeiden, da diese das Lernen behindern. Nach der Theorie sind drei Arten von kognitiver Belastung während des Lernens relevant. Während der Intrinsic Cognitive Load (ICL) die Komplexität der zu lernenden Informationen unter Berücksichtigung des Vorwissens des Lernenden beschreibt, wird der Extraneous Cognitive Load (ECL) durch die Gestaltung des Lernmaterials bestimmt, welcher sich negativ auf den Lernerfolg auswirken kann. Während ICL und ECL konzeptionell klar definiert sind, wird die Definition der dritten Belastungsart, des Germane Cognitive Load (GCL), innerhalb der CLT kontrovers diskutiert. In diesem Zusammenhang ist unklar, ob der GCL eine eigenständige Quelle kognitiver Belastung darstellt oder ob er sich lediglich auf die kognitiven Ressourcen bezieht, die der Lernende mental aufwendet, um Schemata aufzubauen. Daraus hat sich in den letzten Jahren eine Debatte darüber entwickelt, ob der GCL überhaupt ein Teil der CLT ist und ob es ausreicht, die kognitive Belastung während des Lernens mit dem ICL und dem ECL zu beschreiben. Auch die Annahme, dass die drei Arten unabhängig voneinander additiv zur Gesamtbelastung beitragen, wurde häufig in Frage gestellt. Neben den offenen theoretischen Fragen innerhalb der CLT stellt die Messung der verschiedenen Belastungsarten die größte Herausforderung für die Forschung dar. Latente Konstrukte wie die kognitive Belastung können nur indirekt gemessen werden, wodurch es umso wichtiger ist, die Reliabilität und Validität entsprechender Messungen zu überprüfen. Von besonderer Bedeutung ist dabei die multidimensionale Messung (d.h. die separate Messung der einzelnen Arten der kognitiven Belastung) sowie der optimale Zeitpunkt der Messung (d.h. während oder nach dem Lernen). Ziel dieser Dissertation ist es daher, die Chancen und Herausforderungen der Messung kognitiver Belastung zu diskutieren. Da die kognitive Belastung in der Praxis häufig mit Fragebögen gemessen wird, wird diese Erhebungsmethode in der vorliegenden Dissertation vorrangig betrachtet. So wurde in einer Metaanalyse überprüft, inwieweit die zu diesem Zeitpunkt verfügbaren Fragebögen in der Lage sind, die verschiedenen Arten kognitiver Belastung reliabel und valide zu messen. Dazu wurden experimentelle Studien aus dem Bereich des multimedialen Lernens herangezogen, in denen die CLT eine ganz wesentliche Rolle spielt. Darüber hinaus wurde aufgrund konzeptueller und psychometrischer Inkonsistenzen der verfügbaren Fragebögen ein neuer Fragebogen entwickelt und validiert, der vor allem den Lernenden helfen soll, besser zwischen den verschiedenen Arten der kognitiven Belastung zu unterscheiden. In einer experimentellen Studie wurde zudem untersucht, wie sich unterschiedliche Komplexitätsgrade innerhalb eines Lernmaterials auf die Gesamtbewertung der kognitiven Belastung durch den Lernenden auswirken. Damit verbunden war die Frage, ob sich Lernende einen Ankerpunkt (z.B. den ersten Eindruck) suchen, von dem aus sie das gesamte Lernmaterial hinsichtlich der kognitiven Belastung bewerten. Insgesamt zeigte sich, dass das Konstrukt der kognitiven Belastung mit hoher interner Konsistenz gemessen werden kann, wobei sich Einschränkungen hinsichtlich der Validität ergaben. So deuten die Korrelationen zwischen den einzelnen Arten der kognitiven Belastung darauf hin, dass die Lernenden nicht ausreichend zwischen ihnen differenzieren können. Dies gilt auch dann, wenn die Items im Fragebogen so formuliert sind, dass die Lernenden erkennen sollten, welche Art von kognitiver Belastung sie beurteilen sollen. Darüber hinaus spiegeln sich die theoretischen Annahmen der CLT nicht immer in den Messergebnissen wider. Es ist unklar, ob diese Ambivalenz auf theoretische Unzulänglichkeiten oder auf Messungenauigkeiten zurückzuführen ist. Forschende sollten ihre Messergebnisse vor diesem Hintergrund kritisch reflektieren. Da es sich bei der kognitiven Belastung um ein dynamisches Konstrukt handelt, dessen Intensität während des Lernprozesses stark variieren kann, werden die Forschenden dazu angehalten, die Messung zu geeigneten Zeitpunkten während des Lernprozesses durchzuführen. Basierend auf den Erkenntnissen dieser Dissertation werden Handlungsempfehlungen für den zukünftigen Einsatz von Fragebögen zur Messung kognitiver Belastung abgeleitet und theoretische Implikationen diskutiert.:Zusammenfassung 3 Summary 5 1 Introduction 7 2 Foundations of Cognitive Load Theory 9 2.1 Human Cognitive Architecture 9 2.2 Evolutionary Educational Psychology 12 2.3 The Construct of Cognitive Load 14 2.4 Types of Cognitive Load 16 3 Cognitive Load Theory in Multimedia Learning 22 4 Measuring Cognitive Load 25 4.1 Physiological Measures 25 4.2 Dual-task Approaches 26 4.3 Self-rating Scales 27 5 Conceptual and Psychometric Issues in Cognitive Load Research 31 5.1 Three-factor Model and Additivity Hypothesis 31 5.2 Reliable and Valid Measurement of Cognitive Load with Subjective Scales 33 5.3 Timing of Cognitive Load Measurement 36 6 Article 1: A systematic meta-analysis of the reliability and validity of subjective cognitive load questionnaires in experimental multimedia learning research 40 7 Article 2: Development and validation of a theory-based questionnaire to measure different types of cognitive load 98 8 Article 3: The distorting role of primacy effects when reporting cognitive load in a learning material with varying complexities 136 9 Discussion 193 9.1 Contributions of this Thesis 193 9.2 Limitations and Future Directions 196 9.3 Conclusion 197 10 References 198 Danksagung 208 / Cognitive Load Theory (CLT) postulates that learning new, complex information places a burden on the learner’s working memory. After the theory was first postulated by John Sweller in 1988, a small group of researchers at universities in Australia and the Netherlands worked to develop it further. It quickly became one of the most popular theories in educational psychology and instructional design. CLT is based on findings in cognitive psychology and posits that working memory can only process a limited number of information elements simultaneously, severely limiting its ability to process new information. Based on CLT, a set of recommendations and principles has been derived to help learners make optimal use of their available cognitive resources for learning in order to transfer information to long-term memory in the form of schemata. The goal is to avoid overloading working memory (i.e., cognitive overload), which impedes learning. According to the theory, three types of cognitive load are relevant during learning. While intrinsic cognitive load (ICL) describes the complexity of the information to be learned, taking into account the learner's prior knowledge, extraneous cognitive load (ECL) is determined by the design of the learning material and can have a negative impact on learning success. While ICL and ECL are conceptually well-defined, the definition of the third type of load, germane cognitive load (GCL), is controversial within CLT. In this context, it is unclear whether GCL is a source of cognitive load in its own right or whether it simply refers to the cognitive resources that the learner mentally expends to build schemata. This has led to a debate in recent years as to whether GCL is a part of CLT at all, and whether it is sufficient to use the ICL and ECL to describe cognitive load during learning. The assumption that the three types additively and independently contribute to the total cognitive load has also been questioned. In addition to the open theoretical questions within CLT, the measurement of the different types of cognitive load represents the greatest challenge for research. Latent constructs such as cognitive load can only be measured indirectly, making it all the more important to examine the reliability and validity of such measures. Of particular importance is multidimensional measurement (i.e., measuring each type of cognitive load separately) and the optimal timing of measurement (i.e., during or after learning). Thus, the purpose of this thesis is to discuss the opportunities and challenges of measuring cognitive load. Since cognitive load is often measured in practice with questionnaires, this thesis prioritizes this survey method. Therefore, a meta-analysis was conducted in order to examine the extent to which questionnaires available at this time are able to reliably and validly measure the different types of cognitive load. For this purpose, experimental studies from the field of multimedia learning, in which CLT plays a very important role, were used. In addition, due to conceptual and psychometric inconsistencies of available questionnaires, a new questionnaire was developed and validated, mainly to help learners better differentiate between different types of cognitive load. An experimental study was also conducted to test how different levels of complexity within a learning material affect the learner’s overall assessment of cognitive load. Related to this was the question of whether learners seek an anchor point (e.g., first impression) from which they evaluate the entire learning material in terms of cognitive load. Overall, it was found that the construct of cognitive load can be measured with a high degree of internal consistency, although there are limitations in terms of validity. For example, the correlations between the different types of cognitive load indicate that the learners cannot sufficiently differentiate between them. This is true even though the items in the questionnaire are worded in such a way that learners should be able to identify which type of cognitive load they are being asked to assess. Furthermore, the theoretical assumptions of CLT are not always reflected in the measurement results. It is unclear whether this ambivalence is due to theoretical shortcomings or measurement inaccuracies. In light of this, researchers should critically reflect on their measurement results. Because cognitive load is a dynamic construct whose intensity can vary widely during learning, researchers are encouraged to measure it at appropriate times during the learning process. Based on the findings of this thesis, recommendations for the future use of questionnaires to measure cognitive load are derived and theoretical implications are discussed.:Zusammenfassung 3 Summary 5 1 Introduction 7 2 Foundations of Cognitive Load Theory 9 2.1 Human Cognitive Architecture 9 2.2 Evolutionary Educational Psychology 12 2.3 The Construct of Cognitive Load 14 2.4 Types of Cognitive Load 16 3 Cognitive Load Theory in Multimedia Learning 22 4 Measuring Cognitive Load 25 4.1 Physiological Measures 25 4.2 Dual-task Approaches 26 4.3 Self-rating Scales 27 5 Conceptual and Psychometric Issues in Cognitive Load Research 31 5.1 Three-factor Model and Additivity Hypothesis 31 5.2 Reliable and Valid Measurement of Cognitive Load with Subjective Scales 33 5.3 Timing of Cognitive Load Measurement 36 6 Article 1: A systematic meta-analysis of the reliability and validity of subjective cognitive load questionnaires in experimental multimedia learning research 40 7 Article 2: Development and validation of a theory-based questionnaire to measure different types of cognitive load 98 8 Article 3: The distorting role of primacy effects when reporting cognitive load in a learning material with varying complexities 136 9 Discussion 193 9.1 Contributions of this Thesis 193 9.2 Limitations and Future Directions 196 9.3 Conclusion 197 10 References 198 Danksagung 208
23

Do subthreshold psychotic experiences predict clinical outcomes in unselected non-help-seeking population-based samples? A systematic review and meta-analysis, enriched with new results

Kaymaz, N., Drukker, M., Lieb, Roselind, Wittchen, Hans-Ulrich, Werbeloff, N., Weiser, M., Lataster, T., van Os, J. January 2012 (has links)
Background The base rate of transition from subthreshold psychotic experiences (the exposure) to clinical psychotic disorder (the outcome) in unselected, representative and non-help-seeking population-based samples is unknown. Method A systematic review and meta-analysis was conducted of representative, longitudinal population-based cohorts with baseline assessment of subthreshold psychotic experiences and follow-up assessment of psychotic and non-psychotic clinical outcomes. Results Six cohorts were identified with a 3–24-year follow-up of baseline subthreshold self-reported psychotic experiences. The yearly risk of conversion to a clinical psychotic outcome in exposed individuals (0.56%) was 3.5 times higher than for individuals without psychotic experiences (0.16%) and there was meta-analytic evidence of dose–response with severity/persistence of psychotic experiences. Individual studies also suggest a role for motivational impairment and social dysfunction. The evidence for conversion to non-psychotic outcome was weaker, although findings were similar in direction. Conclusions Subthreshold self-reported psychotic experiences in epidemiological non-help-seeking samples index psychometric risk for psychotic disorder, with strong modifier effects of severity/persistence. These data can serve as the population reference for selected and variable samples of help-seeking individuals at ultra-high risk, for whom much higher transition rates have been indicated.
24

Meta-analysis of the corporate planning–organizational performance relationship: A research note

Hamann, Peter Maik, Halw, Oliver, Guenther, Thomas W. 19 March 2024 (has links)
Research Summary Despite a plethora of studies, the moderating effects of contingency factors regarding the relationship between corporate planning (CP) and organizational performance (OP) remain open to discussion. Our meta-analysis analyzes 183 independent study samples, 84 of which are examined for the first time. We expand on previous meta-analyses by correcting for measurement error and dichotomization, and we use moderation analyses and meta-analytical regressions to explain heterogeneity in these studies. We find evidence for the moderating effects of task interdependence and uncertainty avoidance as contingency factors. Unexpectedly, we identify an interaction of the measurements of OP and CP with uncertainty avoidance. Our results provide new insights into the relationship between CP and OP. Management Summary Managers who may doubt whether planning is still fruitful in turbulent times obtain a clear answer from our study: Yes, it is. CP is definitely correlated with OP. The effect sizes are stable over time and for different types of planning. However, the effect of CP on performance depends on the organizational context. Manufacturing firms benefit more than nonmanufacturing firms, and larger firms benefit more than smaller firms. Organizations in countries with high uncertainty avoidance show larger effects in relation to those in countries with low uncertainty avoidance. Finally, organizations facing high environmental uncertainty show higher effects of CP than organizations in more stable environments. However, the identified effects are conditional on the type of measurement of performance and CP.
25

Comparative analysis of gene expression associations between mammalian hosts and Plasmodium

Mukherjee, Parnika 04 August 2023 (has links)
Artenübergreifende Interaktionen helfen uns, Krankheitsmechanismen zu verstehen und Targets für Therapien zu finden. Die Koexpression von Genen, gemessen an der mRNA-Häufigkeit, kann Interaktionen zwischen Wirt und Pathogen aufzeigen. Die RNA-Sequenzierung von Wirt und Pathogen wird als "duale RNA-Sequenzierung" bezeichnet. Malaria ist eine der am besten untersuchten parasitären Krankheiten, so dass eine Fülle von RNA-seq-Datensätzen öffentlich zugänglich ist. Die Autoren führen entweder duale RNA-seq durch, um den Wirt und den Parasiten gleichzeitig zu untersuchen, oder sie erhalten kontaminierende Sequenzierungs-Reads aus dem Nicht-Zielorganismus. Ich habe eine Meta-Analyse durchgeführt, bei diese beiden Arten von RNA-seq-Studien verwendet wurden, um über korrelierte Genexpression auf Wirt-Parasit-Interaktionen zu schließen. Ich habe Studien mit Homo sapiens, Mus musculus und Macaca mulatta als Wirte und ihre Plasmodium-Parasiten einbezogen. Ich benutzte orthologe Einzelkopien von Genen, um ein Repertoire von Interaktionen bei Malaria und in diesen Modellsystemen zu erstellen. Ich verknüpfte die Daten von 63 Plasmodium-Phasen-spezifischen Studien und reduzierte die Zahl der Interaktionen von potenziell 56 Millionen auf eine kleinere, relevantere Menge. Die Zentralität in den Netzwerken der Blutphasen konnte die Essentialität der Plasmodium-Gene erklären. Das aus den verketteten Daten sagte die Genessenzialität besser vor als die einzelnen Studien - ein Vorteil der Meta-Analyse. Neutrophile und Monozyten Immunmarkergene waren überrepräsentiert, was auf eine Fülle von phagozytären und respiratorischen Reaktionen hindeutet. Die Analyse der Leberphase ergab Wirts- und Parasitenprozesse in frühen und späten Entwicklungsphasen. Ich fand bekannte Wirt-Parasit-Interaktionen, die für beide Phasen gleich sind, sowie bisher unbekannte Interaktionen. Dieses Prinzip lässt sich auch auf andere Krankheiten anwenden, um Mechanismen und therapeutische Ziele zu verstehen. / Cross-species interactions help us understand disease mechanisms and find targets for therapy. Gene co-expression, measured by mRNA abundance, can identify host-pathogen interactions. The RNA-sequencing of host and pathogen is termed “dual RNA-sequencing”. Malaria is one of the most studied eukayotic parasitic diseases, making an abundance of RNA-seq data sets publicly available. Authors either perform dual RNA-seq to study the host and parasite simultaneously or acquire contaminant sequencing reads from the non-target organism. I performed a meta-analysis using these two kinds of RNA-seq studies to infer host-parasite interactions using correlated gene expression. I included studies of Homo sapiens, Mus musculus and Macaca mulatta as hosts and their corresponding Plasmodium parasites. I used single-copy orthologous genes to generate a repertoire of interactions in human malaria and in these model systems. I found 63 malaria RNA-seq studies. I concatenated sequencing runs from Plasmodium stage-specific studies and reduced the number of interactions from a potential 56 million to a smaller, more relevant set. Centrality in the blood stage networks was able to explain Plasmodium gene essentiality. The network from the concatenated data predicted gene essentiality better than the individual studies, indicating a benefit of the meta-analysis. Immune marker genes for neutrophils and monocytes were over-represented, suggesting an abundance of phagocytic and respiratory burst-related responses. The liver stage analysis revealed linked host and parasite processes at early stages until late developmental stages. I found linked host and parasite processes that are common to the two stages, e.g. parasite cell gliding and invasion and host response to hypoxia and immune response. I showed that existing data can be explored for new information. This principle can be applied to other diseases to understand mechanisms and therapeutic targets.
26

Häufige Kopfschmerzen im Kindes- und Jugendalter: / Ein Überblick zur Wirksamkeit psychologischer Behandlungsansätze und die Evaluation eines internet-basierten Selbsthilfetrainings. / Recurrent headache in childhood and adolescence / A meta-analysis of psychological treatments and the efficacy of an internet-based self-help training.

Trautmann, Ellen 03 July 2008 (has links)
No description available.
27

Efetividade de protocolos de dor torácica para alta precoce e segura de adultos com sintomas sugestivos de síndrome coronariana aguda: revisão sistemática e metanálise / Effectiveness of chest pain protocols for early and safe discharge of adults with sugestive symptoms acute coronary syndrome: systematic review and meta-analysis.

Duarte, Misa Cadidé 10 August 2018 (has links)
Introdução: O manejo inadequado dos pacientes com dor torácica sugestiva de síndrome coronariana aguda (SCA) é fator de risco para morte ou outros eventos cardíacos adversos maiores (ECAM), o que contribui para o aumento da morbidade e mortalidade, do estresse da equipe e do paciente e maiores custos com o uso de serviços de saúde. Os protocolos de dor torácica para alta precoce (protocolos de diagnósticos acelerados ADP) surgem como instrumentos de melhoria da qualidade da assistência em departamentos de emergência (DE), possibilitando alta precoce (em até 6 horas) e segura a esses pacientes. Objetivo: Sintetizar as evidências científicas sobre a efetividade de protocolos de dor torácica na alta precoce e segura de adultos com sintomas sugestivos de SCA em DE, quando comparados ao tratamento usual ou outros protocolos de dor torácica (usual ou de alta precoce). Métodos: Revisão Sistemática (RS) da literatura que seguiu as recomendações do Joanna Briggs Institute. Para a busca dos estudos foi utilizada a estratégia PICOS (P= adultos (> 18 anos) com dor torácica sugestiva de SCA; I e C= protocolos de dor torácica utilizados para alta precoce; O= alta precoce e ECAM em 30 dias; e, S= ensaios clínicos randomizados, nas bases de dados: CINAHL, PubMed, Cochrane CENTRAL, LILACS, Web of Science, Scopus, EMBASE, além de banco de teses e dissertações de universidades dos quatro continentes. Não foi determinado limite temporal para a busca e esta foi finalizada em 31 de janeiro de 2018. A seleção inicial, avaliação inicial e qualidade metodológica dos estudos foi realizada por dois revisores independentes e as discordâncias foram resolvidas por consenso. A extração dos dados dos estudos foi feita pelo revisor primário, analisada, discutida e apresentada de forma descritiva e com metanálise. Resultados: Incluídos quatro estudos do tipo ensaio clínico randomizado controlado, sendo que os protocolos para alta precoce utilizadas e testadas nesses estudos foram: ADAPT-ADP, HEART Pathway, EDACS-ADP, 2-Hour Protocol e 4-Hour Protocol. Porém, devido a alta hetergneidade (I=91%) apenas dois estudos foram agrupados em metanálise e os resultados foram apresentados com gráficos de floresta. Para a alta precoce a estimativa de efeito sugeriu que os benefícios da alta precoce superam os malefícios, recomendando o uso de protocolos acelerados de dor torácica na prática assistencial de departamentos de emergência. Para ECAM, a metanálise foi inconclusiva. Conclusão: Os protocolos estudados são efetivos na alta precoce, porém ainda não há evidência suficiente para afirmar que essa alta precoce seja segura. Contudo, essa RS é um primeiro passo importante para provar que sua utilização é viável e facilitará a alta precoce e segura de DE. / Introduction: Inadequate management of patients with chest pain suggestive of acute coronary syndrome (ACS) is a risk factor for death or other major adverse cardiac events (MACE), which contribute to increased morbidity and mortality, team and patient stress, and a higher expenses with health services. Early-onset chest pain protocols (accelerated diagnostic protocols - ADPs) appear as tools for improving the quality of care in emergency departments (ED), enabling early and safe discharge (up to 6 hours) for these patients. Objective: To synthesize the scientific evidences about the effectiveness of chest pain protocols in the early and safe discharge of adults with symptoms suggestive of ACS in ED, when compared to the usual treatment or other protocols of chest pain (usual or early discharge). Methods: Systematic Review (SR) of the literature that followed the recommendations of the Joanna Briggs Institute. In order to search for the studies, the PICOS strategy was used (P = adults (> 18 years) with chest pain suggestive of ACS, I and C = thoracic pain protocols used for early discharge; O = early discharge and MACE in 30 days and S = randomized clinical trials found in the following databases: CINAHL, PubMed, Cochrane CENTRAL, LILACS, Web of Science, Scopus, EMBASE, as well as a thesis and dissertations bank from universities of the four continents. A time limit was not determined to end this research; however this was finalized on January 31, 2018. The initial selection, initial evaluation and methodological quality of the studies were performed by two independent reviewers and the disagreements were resolved by consensus. Data extraction from the studies was done by the primary reviewer, analyzed, discussed and presented in a descriptive form with meta-analysis. Results: Four randomized controlled trials were included, the earlydischarge protocols used and tested in these studies were: ADAPT-ADP, HEART Pathway, EDACS-ADP, 2-Hour Protocol and 4-Hour Protocol. However, there is high heterogeneity between the studies (I = 91%), only two studies were grouped in meta-analysis and the results present by the funnel plot. For early discharge, the effect estimate suggested that the benefits of early discharge exceed the harm, recommending the use of accelerated chest pain protocols in emergency department assistance practice. For ECAM, the meta-analysis was inconclusive. Is not enough to affirm that early discharge is higher in the experimental groups who were discharged by the new protocol. Conclusion: The protocols studied are effective at early, however there is still insufficient evidence to affirm that this early discharge is safe. But this SR is an important first step to prove that its use is feasible and will facilitate the early and safe discharge of ED.
28

Bioinformatic analyses for T helper cell subtypes discrimination and gene regulatory network reconstruction

Kröger, Stefan 02 August 2017 (has links)
Die Etablierung von Hochdurchsatz-Technologien zur Durchführung von Genexpressionsmessungen führte in den letzten 20 Jahren zu einer stetig wachsende Menge an verfügbaren Daten. Sie ermöglichen durch Kombination einzelner Experimente neue Vergleichsstudien zu kombinieren oder Experimente aus verschiedenen Studien zu großen Datensätzen zu vereinen. Dieses Vorgehen wird als Meta-Analyse bezeichnet und in dieser Arbeit verwendet, um einen großen Genexpressionsdatensatz aus öffentlich zugänglichen T-Zell Experimenten zu erstellen. T-Zellen sind Immunzellen, die eine Vielzahl von unterschiedlichen Funktionen des Immunsystems inititiieren und steuern. Sie können in verschiedene Subtypen mit unterschiedlichen Funktionen differenzieren. Der mittels Meta-Analyse erstellte Datensatz beinhaltet nur Experimente zu einem T-Zell-Subtyp, den regulatorischen T-Zellen (Treg) bzw. der beiden Untergruppen, natürliche Treg (nTreg) und induzierte Treg (iTreg) Zellen. Eine bisher unbeantwortete Frage lautet, welche subtyp-spezifischen gen-regulatorische Mechanismen die T-Zell Differenzierung steuern. Dazu werden in dieser Arbeit zwei spezifische Herausforderungen der Treg Forschung behandelt: (i) die Identifikation von Zelloberflächenmarkern zur Unterscheidung und Charakterisierung der Subtypen, sowie (ii) die Rekonstruktion von Treg-Zell-spezifischen gen-regulatorischen Netzwerken (GRN), die die Differenzierungsmechanismen beschreiben. Die implementierte Meta-Analyse kombiniert mehr als 150 Microarray-Experimente aus über 30 Studien in einem Datensatz. Dieser wird benutzt, um mittels Machine Learning Zell-spezifische Oberflächenmarker an Hand ihres Expressionsprofils zu identifizieren. Mit der in dieser Arbeit entwickelten Methode wurden 41 Genen extrahiert, von denen sechs Oberflächenmarker sind. Zusätzliche Validierungsexperimente zeigten, dass diese sechs Gene die Experimenten beider T-Zell Subtypen sicher unterscheiden können. Zur Rekonstruktion von GRNs vergleichen wir unter Verwendung des erstellten Datensatzes 11 verschiedene Algorithmen und evaluieren die Ergebnisse mit Informationen aus Interaktionsdatenbanken. Die Evaluierung zeigt, dass die derzeit verfügbaren Methoden nicht in der Lage sind den Wissensstand Treg-spezifischer, regulatorsicher Mechanismen zu erweitern. Abschließend präsentieren wir eine Datenintegrationstrategie zur Rekonstruktion von GRN am Beispiel von Th2 Zellen. Aus Hochdurchsatzexperimenten wird ein Th2-spezifisches GRN bestehend aus 100 Genen rekonstruiert. Während 89 dieser Gene im Kontext der Th2-Zelldifferenzierung bekannt sind, wurden 11 neue Kandidatengene ohne bisherige Assoziation zur Th2-Differenzierung ermittelt. Die Ergebnisse zeigen, dass Datenintegration prinzipiell die GRN Rekonstruktion ermöglicht. Mit der Verfügbarkeit von mehr Daten mit besserer Qualität ist zu erwarten, dass Methoden zur Rekonstruktion maßgeblich zum besseren Verstehen der zellulären Differenzierung im Immunsystem und darüber hinaus beitragen können und so letztlich die Ursachenforschung von Dysfunktionen und Krankheiten des Immunsystems ermöglichen werden. / Within the last two decades high-throughput gene expression screening technologies have led to a rapid accumulation of experimental data. The amounts of information available have enabled researchers to contrast and combine multiple experiments by synthesis, one of such approaches is called meta-analysis. In this thesis, we build a large gene expression data set based on publicly available studies for further research on T cell subtype discrimination and the reconstruction of T cell specific gene regulatory events. T cells are immune cells which have the ability to differentiate into subtypes with distinct functions, initiating and contributing to a variety of immune processes. To date, an unsolved problem in understanding the immune system is how T cells obtain a specific subtype differentiation program, which relates to subtype-specific gene regulatory mechanisms. We present an assembled expression data set which describes a specific T cell subset, regulatory T (Treg) cells, which can be further categorized into natural Treg (nTreg) and induced Treg (iTreg) cells. In our analysis we have addressed specific challenges in regulatory T cell research: (i) discriminating between different Treg cell subtypes for characterization and functional analysis, and (ii) reconstructing T cell subtype specific gene regulatory mechanisms which determine the differences in subtype-specific roles for the immune system. Our meta-analysis strategy combines more than one hundred microarray experiments. This data set is applied to a machine learning based strategy of extracting surface protein markers to enable Treg cell subtype discrimination. We identified a set of 41 genes which distinguish between nTregs and iTregs based on gene expression profile only. Evaluation of six of these genes confirmed their discriminative power which indicates that our approach is suitable to extract candidates for robust discrimination between experiment classes. Next, we identify gene regulatory interactions using existing reconstruction algorithms aiming to extend the number of known gene-gene interactions for Treg cells. We applied eleven GRN reconstruction tools based on expression data only and compared their performance. Taken together, our results suggest that the available methods are not yet sufficient to extend the current knowledge by inferring so far unreported Treg specific interactions. Finally, we present an approach of integrating multiple data sets based on different high-throughput technologies to reconstruct a subtype-specific GRN. We constructed a Th2 cell specific gene regulatory network of 100 genes. While 89 of these are known to be related to Th2 cell differentiation, we were able to attribute 11 new candidate genes with a function in Th2 cell differentiation. We show that our approach to data integration does, in principle, allow for the reconstruction of a complex network. Future availability of more and more consistent data may enable the use of the concept of GRN reconstruction to improve understanding causes and mechanisms of cellular differentiation in the immune system and beyond and, ultimately, their dysfunctions and diseases.
29

Ergebnisheterogenität in der Strategischen Managementforschung - Analyse und Lösungsmöglichkeiten

Steigenberger, Norbert 21 January 2011 (has links) (PDF)
Die Arbeit befasst sich mit Methodenproblemen in der Strategischen Managementforschung. Auf Basis einer Meta-Analyse zum Zusammenhang zwischen Ressourcen im Sinne des Resource-based view und der Performance von Unternehmen werden verschiedene Erklärungen für die zu beobachtende Ergebnisheterogenität in den Primärstudien empirisch gegenübergestellt. Es kann gezeigt werden, dass die Operationalisierung des Konstrukts "organisationale Leistung" den größten Beitrag zur Erklärung der Varianz der Studienergebnisse erbringt. Die Appropriationstheorie liefert einen überzeugenden Erklärungsansatz zum systematischen Zusammenhang zwischen Leistung und Studienergebnissen. / The dissertation thesis contrasts various explanations for heterogeneity in strategic management research findings using meta-analytical techniques. I evaluate research results for a well-known research questions in strategic management research, the relation between performance and resources in the framework of resource-based view, and find that the way how the construct ‘performance’ is being operationalized explains a significant part of the observed heterogeneity in research findings, distinctly more than problems like population selection or the unclear temporal link between dependent and independent variables. Appropriation theory is shown to provide a convincing explanation for the observed outcome.
30

Méthodes de méta-analyse pour l'estimation des émissions de N2O par les sols agricoles

Philibert, Aurore 16 November 2012 (has links) (PDF)
Le terme de méta-analyse désigne l'analyse statique d'un large ensemble de résultats provenant d'études individuelles pour un même sujet donné. Cette approche est de plus en plus étudiée dans différents domaines, notamment en agronomie. Dans cette discipline, une revue bibliographique réalisée dans le cadre de la thèse a cependant montré que les méta-analyses n'étaient pas toujours de bonne qualité. Les méta-analyses effectuées en agronomie étudient ainsi très rarement la robustesse de leurs conclusions aux données utilisées et aux méthodes statistiques. L'objectif de cette thèse est de démontrer et d'illustrer l'importance des analyses de sensibilité dans le cadre de la méta-analyse en s'appuyant sur l'exemple de l'estimation des émissions de N2O provenant des sols agricoles. L'estimation des émissions de protoxyde d'azote (N2O) est réalisée à l'échelle mondaile par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Le N2O est un puissant gaz à effet de serre avec un pouvoir de réchauffement 298 fois plus puissant que le CO2 sur une période de 100 ans. Les émissions de N2O ont la particularité de présenter une forte variabilité spatiale et temporelle. Deux bases de données sont utilisées dans ce travail : la base de données de Rochette et Janzen (2005) et celle de Stehfest et Bouwman (2006). Elles recensent de nombreuses mesures d'émissions de N2O réparties dans le monde provenant d'études publiées et ont joué un rôle important lors des estimations d'émissions de N2O réalisées par le GIEC. Les résultats montrent l'intérêt des modèles à effets aléatoires pour estimer les émissions de NO2 issues de sols agricoles. Ils sont bien adaptés à la structure des données (observations répétées sur un même site pour différentes doses d'engrais, avec plusieurs sites considérés). Ils permettent de distinguer la variabilité inter-sites de la variabilité intra-site et d'estimer l'effet de la dose d'engrais azoté sur les émissions de NO2. Dans ce mémoire, l'analyse de la sensibilité des estimations à la forme de la relation "Emission de N2O / Dose d'engrais azoté" a montré qu'une relation exponentielle était plus adaptée. Il apparait ainsi souhaitable de remplacer le facteur d'émission constant du GIEC (1% d'émission quelque soit la dose d'engrais azoté) par un facteur variable qui augmenterait en fonction de la dose. Nous n'avons par contre pas identifié de différence importante entre les méthodes d'inférence fréquentiste et bayésienne. Deux approches ont été proposées pour inclure des variables de milieu et de pratiques culturales dans les estimations de N2O. La méthode Random Forest permet de gérer les données manquantes et présente les meilleures prédictions d'émission de N2O. Les modèles à effets aléatoires permettent eux de prendre en compte ces variables explicatives par le biais d'une ou plusieurs mesures d'émission de N2O. Cette méthode permet de prédire les émissions de N2O pour des doses non testées comme le cas non fertilisé en parcelles agricoles. Les résultats de cette méthode sont cependant sensibles au plan d'expérience utilisé localement pour mesurer les émissions de N2O.

Page generated in 0.0466 seconds