• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • 2
  • Tagged with
  • 8
  • 6
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Statistische Tests bei Unschärfe

Wünsche, Andreas 16 December 2009 (has links) (PDF)
Statistische Tests beim Vorliegen unscharfer Daten (Fuzzy-Daten) und zum Testen unscharfer Hypothesen werden untersucht. Tests für den (unscharfen) Erwartungswert einer unscharfen Zufallsvariable (Fuzzy-Zufallsvariable) werden konstruiert. Die Gütefunktionen werden zum Vergleich der verschiedenen Tests bestimmt. Die angegebenen Tests sind dabei zum Teil optimal. Es wird aufgezeigt, wann bei Tests für scharfe Daten deren Verunschärfung nicht mit in die Testentscheidung einbezogen werden muss und wann die Einbeziehung zu einer Verbesserung der Testentscheidung führt. Weiter wird gezeigt, wie und wann die Erweiterung der Teststatistik, des P-Wertes und des zum Test gehörigen Konfidenzintervalles zur gleichen unscharfen Testfunktion führen. Beim Testen unscharfer Hypothesen werden klassische Begriffe wie maximale Wahrscheinlichkeit für den Fehler 1.Art zum einen scharf zum anderen unscharf verallgemeinert. Für beide Fälle ist, mit diesen verallgemeinerten Begriffen und unter gewissen Voraussetzungen, ein optimaler Test bestimmbar.
2

Rescuing Statistics from the Mathematicians

Bedwell, Mike 12 April 2012 (has links) (PDF)
Drawing on some 30 years’ experience in the UK and Central Europe, the author offers four assertions, three about education generally and the fourth that of the title. There the case is argued that statistics is a branch of logic, and therefore should be taught by experts in such subjects as philosophy and law and not exclusively by athematicians. Education in both Statistics and these other subjects would profit in consequence.
3

Statistische Tests bei Unschärfe

Wünsche, Andreas 07 June 2005 (has links)
Statistische Tests beim Vorliegen unscharfer Daten (Fuzzy-Daten) und zum Testen unscharfer Hypothesen werden untersucht. Tests für den (unscharfen) Erwartungswert einer unscharfen Zufallsvariable (Fuzzy-Zufallsvariable) werden konstruiert. Die Gütefunktionen werden zum Vergleich der verschiedenen Tests bestimmt. Die angegebenen Tests sind dabei zum Teil optimal. Es wird aufgezeigt, wann bei Tests für scharfe Daten deren Verunschärfung nicht mit in die Testentscheidung einbezogen werden muss und wann die Einbeziehung zu einer Verbesserung der Testentscheidung führt. Weiter wird gezeigt, wie und wann die Erweiterung der Teststatistik, des P-Wertes und des zum Test gehörigen Konfidenzintervalles zur gleichen unscharfen Testfunktion führen. Beim Testen unscharfer Hypothesen werden klassische Begriffe wie maximale Wahrscheinlichkeit für den Fehler 1.Art zum einen scharf zum anderen unscharf verallgemeinert. Für beide Fälle ist, mit diesen verallgemeinerten Begriffen und unter gewissen Voraussetzungen, ein optimaler Test bestimmbar.
4

Rescuing Statistics from the Mathematicians

Bedwell, Mike 12 April 2012 (has links)
Drawing on some 30 years’ experience in the UK and Central Europe, the author offers four assertions, three about education generally and the fourth that of the title. There the case is argued that statistics is a branch of logic, and therefore should be taught by experts in such subjects as philosophy and law and not exclusively by athematicians. Education in both Statistics and these other subjects would profit in consequence.
5

Argumentieren beim Experimentieren in der Physik - Die Bedeutung personaler und situationaler Faktoren

Ludwig, Tobias 26 September 2017 (has links)
Argumentieren ist zentraler Bestandteil naturwissenschaftlicher Erkenntnisgewinnung. Dennoch gibt es bisher nur wenige Arbeiten, die untersuchen, wie Lernende auf der Grundlage selbstständig durchgeführter Experimente für bzw. gegen eine eigene Hypothese argumentieren. Vor diesem Hintergrund untersucht diese Arbeit, welchen Einfluss personale Faktoren (u. a. das Fachwissen und das situationale Interesse) und die Art der Lernumgebung (Realexperiment vs. Computersimulation) darauf nehmen, welche Typen von Argumenten verwendet werden. Ferner wird in dieser Arbeit untersucht, inwiefern die Verwendung dieser Argumentkategorien den Lernerfolg beeinflusst. Auf der Basis von Interviewdaten konnten zunächst für die vorgebrachten Argumente beim Wechseln bzw. Beibehalten eigener Hypothesen beim Experimentieren zehn Kategorien identifiziert werden (u. a. „Intuition“, „Expertenwissen“, „Messunsicherheiten“ sowie „Daten als Evidenz“). Zur quantitativen Erfassung wurde dann für die vier o. g. Argumentkategorien ein Likert-skaliertes Instrument entwickelt. Die aufgeführten Fragestellungen wurden schließlich in einer randomisierten Studie mit 938 Schülerinnen und Schülern untersucht. Bei der Untersuchung des Einflusses personaler Faktoren zeigt sich u. a., dass Lernende in einer Argumentation umso eher Daten als Evidenz heranziehen, je höher das fachliche Vorwissen ist. Die Verwendung dieser Argumentkategorie erhöht wiederum die Wahrscheinlichkeit dafür, dass Lernende nach dem Experimentieren eine fachlich adäquate Hypothese aufstellen. Dies impliziert, dass der Umgang mit experimentellen Daten und Beobachtungen im Physikunterricht stärker als bisher berücksichtigt werden muss, z. B. durch eine explizitere Förderung von Fähigkeiten zum Umgang mit experimentellen Daten. Bis auf einen gut erklärbaren Unterschied können grundlegende Unterschiede beim Experimentieren zwischen Gruppen, die mit einem Real- bzw. Computerexperiment gearbeitet haben, nicht belegt werden. / Argumentation from data and evidence evaluation is widely seen as a scientific core practice. One approach to engage students in a meaningful argumentation practice is to provide lab work situations where they can construct hypotheses on the basis of their own prior knowledge and consequently evaluate these hypotheses in light of self-collected data. However, until recently, only little research has analyzed students' argumentation from data. Against this backdrop this research seeks to identify: a) the influences of personal factors (such as content knowledge and situational interest); b) the type of learning environment as a situational factor (real vs. virtual experiment) on the use of different categories of argument (such as Intuition, Appeal to Authority, Measurement Uncertainties (explicit) and Data as Evidence); c) the influence of argumentation on learning outcomes through experimentation in school labs. First, an interview-study was used to identify the different types of arguments used by students. Analyses focused on the nature of justification in argument and revealed ten different categories students use while arguing for or against hypotheses. As a next step, four out of ten categories were operationalized by means of a Likert-scaled instrument to assess the use of different types of argument in a valid and reliable manner. The findings from a randomized study among 938 secondary school students in a lab work setting indicate, among others, that content knowledge is positively related to the use of data as evidence. Again, the use of data as evidence increases the probability of stating a correct hypothesis after conducting the experiment. This implies that the ability to deal with data and measurement uncertainties should be better fostered in physics classes. Besides one explicable difference, no evidence was found, which supports the hypothesis that students' argumentation would differ while working with hands-on materials vs. computer simulations.
6

Efficient hedging in incomplete markets under model uncertainty

Kirch, Michael 07 January 2002 (has links)
Wir betrachten einen Investor, der eine Option verkauft hat und den maximal erwarteten gewichteten Verlust minimieren möchte. Dabei wird das Maximum über eine Familie von Modellen, das heißt sogenannten objektiven Wahrscheinlichkeitsmaßen, gebildet. Die Minimierung erfolgt über alle zulässigen Absicherungsstrategien, welche einer vorgegebenen Kapitaleinschränkung genügen. Der Verlust wird vermöge einer strikt konvexen Verlustfunktion gewichtet. Die minimierende Strategie nennen wir robust-effizient. Das Problem, eine robust-effiziente Strategie zu bestimmen, ist eng mit dem statistischen Problem des Testens einer zusammengesetzten Hypothese gegen eine zusammengesetzte Alternative verbunden: Hat man eine Lösung für das statistische Problem, das heißt einen maximin-optimalen Test, so kann man eine modifizierte Option definieren, so daß die Superhedging-Strategie für die modifizierte Option robust-effizient ist, vgl. Theorem. Umgekehrt kann man einen maximin-optimalen Test vom Wert der robust-effizienten Strategie zum Auszahlungszeitpunkt ableiten. Das mathematische Kernstück dieser Arbeit ist die allgemeine Lösung des statistischen Testproblems mit Methoden der konvexen Dualität und Spieltheorie. Von dem bekannten klassischen Testproblem unterscheidet sich das in dieser Arbeit betrachtete Problem insofern als die Macht eines Tests anstelle durch die Identität durch eine strikt konkave zustandsabhängige Nutzenfunktion definiert ist. Zudem ist unsere einzige wesentliche Annahme, daß die Hypothese sowie die Alternative dominiert sind, das heißt die Hypothese und die Alternative sind weder stetig parametrisierbar noch notwendigerweise von der Form der Umgebungen wie sie typischerweise in der robusten Statistik verwendet werden vorausgesetzt. Die Lösung des Testproblems in dieser Arbeit erfolgt vermöge des zentralen Begriffs eines ungünstigsten Paares aus Hypothese und Alternative: Der maximin-optimale Test ist unter allen einfachen Tests für das ungünstigste Paar zu finden. Dies ist das zentrale Resultat des Kapitels über maximin-optimale Tests. Falls das ungünstigste Modell äquivalent zu der Familie aller Modelle ist, so ist der einfache Test für das ungünstigste Paar eindeutig und bereits maximin-optimal. Falls das ungünstigste Modell nicht äquivalent zur Familie ist, so approximieren wir den maximin-optimalen Test durch eine Folge von einfachen Tests, die durch eingebettete Teilprobleme definiert werden können. Die Anwendung unserer Resultate über maximin-optimale Tests auf den Spezialfall des zur robust-effizienten Absicherung assoziierten Testproblems erlaubt uns, die optimale modifizierte Option vermöge eines ungünstigsten Paares von Modell und Preisregel zu beschreiben. Ein ungünstigstes Modell maximiert das minimale Verlustrisiko über alle Modelle. Wir setzen Erreichbarkeit der modifizierten Option mit Äquivalenz der ungünstigsten Preisregel zum ungünstigsten Modell miteinander in Verbindung. Dies zeigt, daß die ungünstigste Preisregel im allgemeinen nicht Äquivalent zum Referenzmodell ist - ein Sachverhalt, den wir in den Anwendungen wieder aufgreifen. Im zweiten Teil dieser Arbeit konstruieren wir die robust-effiziente Strategie in verschiedenen Anwendungen. Um die allgemeinen Resultate des vorhergehenden Teils nutzen zu können, müssen wir die effiziente Strategie für jedes fixierte Modell sowie ein ungünstigstes Modell bestimmen. Nötigenfalls vergrößern wir dafür zunächst die Familie der Modelle in geeigneter Weise, um die Existenz eines ungünstigsten Modells zu garantieren. Wir wenden das Prinzip der dynamischen Programmierung in einer Weise an, die an das jeweils zugrundeliegende Modell angepasst ist und bestimmen so die effiziente Strategie. / We consider an investor who has sold a contingent claim and intends to minimize the maximal expected weighted shortfall. Here, the maximum is taken over a family of models and the minimum is taken over all admissible hedging strategies that satisfy a given cost constraint. We call the associated minimizing strategy robust-efficient. The problem to determine a robust-efficient strategy is closely related to the statistical problem of testing a composite hypothesis against a composite alternative. The hypothesis is given by the family of pricing rules and the alternative coincides with the family of models. The mathematical centerpiece of this thesis is the solution of the statistical testing problem on a general level by means of convex duality and game-theoretical methods. The problem differs from the classical testing problem in that the power of a test is defined in terms of a strictly concave state dependent utility function rather than the identity mapping. Furthermore, our only essential assumption is that the alternative and the hypothesis are dominated, i.e., the alternative and the hypothesis need neither be parameterized nor of the form of the neighborhoods typically considered in robust statistics. Similar to the classical notion of least-favorable pairs of prior-distributions on the hypothesis respectively alternative, we introduce the pivotal notion of a least-favorable pair of elements of the hypothesis respectively alternative. The main result of our analysis on maximin-optimal tests is that the maximin-optimal test can be found among the simple-optimal test for a least-favorable pair. If the least-favorable pair is equivalent to the dominating measure, the simple optimal test is the unique maximin-optimal test. If the latter condition is not fulfilled, we approximate the maximin-optimal test by a sequence of explicitly constructed simple optimal tests. These results clarify the general structure of the robust-efficient hedging strategy. We also show that a least-favorable pair can be decomposed into a worst-case model and a worst-case pricing rule for this model. The worst-case model has a very direct economic interpretation, whereas the worst-case pricing rule is a more mathematical auxiliary tool. If the worst-case model dominates all models, the efficient strategy associated to the fixed worst-case model is robust-efficient. For fixed model, the worst-case pricing rule yields the optimal modified claim and allows us to make some statements about its attainability. In the second part of this thesis, we explicitly construct the robust-efficient strategy in a series of applications. For this, the task remains to determine the efficient strategy for each fixed model and a worst-case model. First, we enlarge the family of models in order to establish existence of a worst-case model. Then we derive the dynamics of the price process, the efficient strategy and the associated risk under each (fixed) model. If the model is incomplete, we adapt the dynamic programming principle to the specific dynamics of the model to compute or approximate the efficient strategy.
7

Quantile Estimation based on the Almost Sure Central Limit Theorem / Schätzung von Quantilen basierend auf dem zentralen Grenzwertsatz in der fast sicheren Version

Thangavelu, Karthinathan 25 January 2006 (has links)
No description available.
8

Steigerung selbstregulierten Lernens durch computerbasiertes Feedback beim Erwerb von Experimentierkompetenz im Fach Biologie / Individually adapted computerbased feedback for supporting self-regulated learning processes in school-age children / A computer-based learning program developed to help pupils practice strategies of controlling experimental variables.

Lange, Silke Dorothee 31 October 2012 (has links)
Feedback ist ein wichtiger Faktor für erfolgreiches Lernen – vorausgesetzt, dass es rich-tig eingesetzt wird (Hattie & Timperley, 2007). Dies gilt insbesondere, wenn es um den Erwerb neuer Kompetenzen geht. Die vorliegende Studie soll dazu beitragen, eine empirisch begründete kompetenzorientierte Brücke zwischen dem Konzept des negativen Wissens (Oser & Spychiger, 2005) und psychologischen Theorien zum Thema Feedback als Instruktionsmethode im Rahmen des selbstregulierten Lernens bei Schülern zu bilden und dazu anregen, den selbstregulierten Lernprozess von Schülern durch individuell angepasstes Feedback zu fördern. Dazu wurden zwei Hypothesen expliziert: Zum einen, dass Lernende, die Feedback über die konkrete Lokalisation des Fehlers erhalten, die dargebotenen Biologieaufgaben besser lösen können (prozessbezogene methodische Kompetenzen), als Lernende, die auf einer Metaebene eine Begründung für die Ursache des Fehlers in Kombination mit einer Frage zur kognitiven Aktivierung erhalten haben. Zum anderen, dass auf der im Rahmen der Intervention nicht trainierten strategischer Ebene das Feedback mit kognitiver Aktivierung effektiver ist. Um diese Hypothesen zu prüfen, wurde der Einfluss zweier Feedbackvarianten untersucht. In einem 2x2 Prä-Post-Test Design wurden dazu die Feedbackvarianten „Lokalisation des Fehlers“ und „Begründung des Fehlers mit kognitiver Aktivierung“ einzeln oder in Kombination einer Kontrollbedingung ohne Feedback gegenüber gestellt. Lernende der 7. Klasse bearbeiteten im Rahmen von zwei Doppelstunden ein webbasiertes interaktives Lernprogramm zum Thema „Experimentieren“. Die darin enthaltenen Multiple-Choice-Aufgaben (Hammann, 2007) umfassten die für das Experimentieren einschlägigen Kompetenzbereiche „Suche im Hypothesenraum“, „Testen von Hypothesen“ und „Analyse von Evidenzen“ (Klahr, 2000). Als abhängige Variablen haben wir jeweils in einer Prä-Post-Test-Messung den Zuwachs an prozessbezogenen methodischen Kompetenzen (operationalisiert über die korrekte Lösung der verwendeten Biologie-Aufgaben) und den strategischen Lernzuwachs (operationalisiert über die Bearbeitung des EEST-2, Marschner, 2010) untersucht. Um den möglichen Einfluss individueller Unterschiede in Bezug auf die Transferwirksamkeit des erworbenen Wissens zu erheben, wurden auch Daten zu Intelligenz, Persönlichkeitsfaktoren, zum Umgang mit Fehlern, zur Selbstwirksamkeitserwartung und zum selbstregulierten Lernen erhoben. Durch die Bearbeitung des Lernprogramms konnten die getesteten Schüler (N=355) über alle Versuchsgruppen hinweg signifikante Lernzuwächse auf der im Rahmen der Intervention trainierten Aufgabeneben (prozessbezogene methodische Kompetenzen) erzielen, nicht aber auf der nicht trainierten strategischen Ebene. Die verschiedenen Feedbackarten hatten jedoch keinen Einfluss auf den Lernzuwachs der untersuchten Stichprobe. Auf strategischer Ebene konnte sogar eine Verschlechterung des Ergebnisses vom Prä- zum Posttest beobachtet werden. Dieses könnte darauf zurückzuführen sein, dass die metakognitive Entwicklung der getesteten Schüler noch nicht ausgereift genug war, um das Feedback auf der intendierten Ebene verarbeiten zu können. In der Diskussion dieser Arbeit wird das Konzept des negativen Wissens (Oser & Spychiger, 2005) theoretisch mit den Ergebnissen aus der kognitionspsychologischen Forschung verknüpft und aufgezeigt, welche Parallelen zwischen diesen beiden Ansätzen bestehen. Die für diese Studie konzipierte computerbasierte Lerneinheit hat sich in der Praxis zur Einübung der Variablenkontrollstrategie bei Lehramtsstudierenden bewährt.

Page generated in 0.0546 seconds