Spelling suggestions: "subject:"paradigmen"" "subject:"lernparadigmen""
1 |
Paradigmatic Tendencies in Cartography: A Synthesis of the Scientific-Empirical, Critical and Post-Representational PerspectivesAzócar Fernández, Pablo Iván 21 February 2012 (has links) (PDF)
Maps have been important elements of visual representation in the development of different societies, and for this reason they have mainly been considered from a practical and utilitarian point of view. This means that cartographers or mapmakers have largely focused on the technical aspects of the cartographic products, and cartography has given little attention to both its theoretical component and to its philosophical and epistemological aspects. The current study is dedicated to consider these views.
In this study the main trends, thoughts and different directions in cartography during positivism/empiricism, neo-positivism and post-structuralism are reviewed; and cartography is analysed under the modernism and post-modernism periods. Some of the arguments proposed by philosophers such as Ludwig Wittgenstein and Karl Popper are examined as important contributions in our understanding of the development of cartography and mapping. This study also incorporates the idea or concept of paradigm, which has been taken from the field of the epistemology of sciences. The aforementioned opens a space to analyse cartography in terms of a paradigm shift.
In the analysis of each trend within contemporary cartography – from the second half of the twentieth century until today – it is necessary to keep in mind the theoretical scheme of a scientific discipline (object of study, research aims, methods and approaches, and results). This helps to determine the body of knowledge in cartography. It is also important to consider the epistemological context in which the tendencies are developed: positivism/empiricism, realism/structuralism and idealism/hermeneutic.
In this way, by considering three epistemological levels - essentialist/ontical (scientific), deconstructive (sociological), and ontological (emergent) - some paradigmatic tendencies are postulated. The first level results in tendencies such as cartographic communication, cartographic semiotics, analytical cartography and cartographic visualisation - all of these belong to the scientific-empirical perspective. In the second level, we have critical cartography, belonging to the critical perspective and that confronts the scientific stances. Finally, in the third level the so-called post-representational cartography arises in open opposition to the traditional representational cartography. / Im Entwicklungsprozess verschiedener Gesellschaften sind Karten immer wichtige Elemente visueller Darstellung gewesen. Karten wurden meist aus einer praktischen und utilitaristischen Sicht betrachtet. Das heißt, dass sich Kartographen oder Kartenmacher gezielt auf die technischen Aspekte kartographischer Produkte fokussiert haben, und Kartographie sich nur wenig mit den theoretischen Komponenten und philosophischen oder epistemologischen Aspekten auseinandergesetzt hat. Diese Arbeit verfolgt das Ziel, diese Sichten zu analysieren.
Diese Studie untersucht die verschiedenen kartographischen Denkrichtungen, die während des Positivismus/Empirismus, des Neo-Positivismus und der Post-Strukturalismusperioden entstanden sind und analysiert Kartographie der Moderne und post-moderner Perioden. Argumente von Philosophen wie Ludwig Wittgenstein und Karl Popper werden untersucht als wichtige Beiträge zu unserem Verständnis der Entwicklung der Kartographie. Diese Arbeit berücksichtigt auch das Konzept des Paradigmas, welches aus dem Gebiet der wissenschaftlichen Epistemologie adaptiert wurde. Dies eröffnet die Möglichkeit, Kartographie hinsichtlich eines Paradigmenwechsels analysieren zu können.
Wenn man die Tendenzen der zeitgenössischen Kartographie – von der zweiten Hälfte des zwanzigsten Jahrhunderts bis heute – studiert, muss der theoretische Rahmen einer wissenschaftlichen Disziplin (Forschungsobjekt, Forschungsziel, Arbeitsmethodik und Ergebnisse) berücksichtigt werden. Dies erlaubt es, das gesammelte Wissen der Kartographie zu ermitteln. Ebenfalls wichtig ist die Berücksichtigung des epistemologischen Kontexts, in dem diese Tendenzen entstanden: Positivismus/Empirismus, Realismus/Strukturalismus und Idealismus/Hermeneutik.
Unter Berücksichtigung dreier epistemologischer Ebenen – Essenzialisten/ontisch (wissenschaftlich), dekonstructiv (soziologisch) und ontologisch (emergent) – werden ausgewählte paradigmatische Tendenzen postuliert. Die erste Ebene ergibt Tendenzen wie die kartographische Kommunikation, die kartographische Semiotik, die analytische Kartographie und die kartographische Visualisierung, die alle zu der wissenschaftlich-empirischen Perspektive gehören. Zur zweiten Ebene gehört die kritische Kartographie, welche der kritischen Perspektive zugeordnet ist und die wissenschaftliche Standpunkte konfrontiert. Die so genannte post-repräsentative Kartographie entsteht aus der dritten Ebene im offenen Widerstand zur traditionellen repräsentativen Kartographie.
|
2 |
Verwaltete Vermarktlichung / Zur Sonderstellung der öffentlichen Verwaltung in der Ideenproduktion für die Politik am Beispiel der Wohneigentumsförderung in der Bundesrepublik Deutschland / Marketisation and Public Administration / On the Particular Role of Public Authorities in the Production of Political Ideas by the Example of Home Ownership Promotion in GermanyHaas, Heide 15 March 2019 (has links)
No description available.
|
3 |
Softwareframework zur universellen Methodenentwicklung für ein fMRT- BCI: Adaptive Paradigmen und EchtzeitdatenanalyseHellrung, Lydia 04 May 2015 (has links) (PDF)
Die funktionelle Magnetresonanztomographie (fMRT) ist ein nicht-invasives Bildgebungsverfahren, mit dem Veränderungen der neuronalen Aktivität im Gehirn mit hoher räumlicher Auflösung erfasst werden können. Mit der fMRT-Bildgebung bei neurowissenschaftlichen Experimenten wurden in den letzten beiden Jahrzehnten bedeutende Erkenntnisse für die Hirnforschung und Medizin gewonnen. Mit Hilfe dieser Methode werden neuronale Aktivitätsunterschiede bei der Durchführung einer bestimmten Aufgabe, z. B. dem Betrachten von Bildern mit emotionalen Inhalten, erfasst und die Daten unabhängig von der Messung zu einem späteren Zeitpunkt statistisch ausgewertet. Mit Hilfe des technischen Fortschritts im letzten Jahrzehnt
ist es darüber hinaus möglich geworden, fMRT-Daten direkt zur Aufnahmezeit zu verarbeiten und auszuwerten. Dies wird als Echtzeit-fMRT bezeichnet, wenn die Datenverarbeitung schneller erfolgt als die Aufnahme eines Hirnvolumens (aktuell ca. zwei Sekunden). Die Ergebnisse der Echtzeitdatenverarbeitung können dann wiederum als Steuerbefehle für verschiedene Anwendungen verwendet werden. Daher wird dies auch als Hirn-Computer-Schnittstelle (Brain Computer Interface, BCI) mittels fMRT bezeichnet. Die Echtzeitverarbeitung von fMRT-Daten ermöglicht mehrere neue Anwendungen. Dazu gehören unter anderem die Qualitätskontrolle
zur Laufzeit von fMRT-Experimenten, die schnelle funktionelle Lokalisierung von Hirnarealen entweder für neurowissenschaftliche Experimente oder intraoperativ, die Kontrolle des Experimentes mittels des Probandenverhaltens und insbesondere die Möglichkeit, sogenannte fMRT-Neurofeedbackexperimente durchzuführen. Bei diesen Experimenten lernen Probanden, die Aktivität von definierten Hirnarealen willentlich zu beeinflussen. Das Ziel dabei ist, Veränderungen in ihrem Verhalten zu generieren. Die Umsetzung eines BCIs mittels Echtzeit-fMRT ist eine
interdisziplinäre Aufgabenstellung von MR-Physik, Informatik und Neurowissenschaften um das Verständnis des menschlichen Gehirns zu verbessern und neue Therapieansätze zu gestalten. Für diese hard- und softwaretechnisch anspruchsvolle Aufgabe gibt es einen enormen Bedarf an
neuen Algorithmen zur Datenverarbeitung und Ansätzen zur verbesserten Datenakquise.
In diesem Zusammenhang präsentiert die vorliegende Arbeit ein neues Softwareframework, das einerseits eine integrierte Gesamtlösung für die Echtzeit-fMRT darstellt und in seinen Teilmodulen eine abstrakte Basis für eine universelle Methodenentwicklung anbietet. Diese Arbeit beschreibt die grundlegenden abstrakten Konzepte und die Implementierung in ein neues Softwarepaket namens ’Brain Analysis in Real-Time’ (BART). Der Fokus der Arbeit liegt auf zwei Kernmodulen, die für universelle Gestaltung von sogenannten adaptiven Paradigmen und die Einbindung von Echtzeit-fMRT-Datenverarbeitungsalgorithmen konzipiert sind. Bei adaptiven Paradigmen werden zur Laufzeit eines Experiments physiologische Parameter (z. B. Herzrate) oder Verhaltensdaten (z. B. Augenbewegungen) simultan zu den fMRT-Daten erfasst und analysiert, um die Stimulation eines Probanden entsprechend zu adaptieren. Damit kann die Zuverlässigkeit der Daten, die zur Auswertung zur Verfügung stehen, optimiert werden. Die vorliegende
Arbeit präsentiert das dazu notwendige abstrakte Grundkonzept des neuen Softwareframeworks und die ersten konkreten Implementierungen für die Datenverarbeitung und adaptive Paradigmen. Das Framework kann zukünftig mit neuen methodischen Ideen erweitert werden. Dazu gehören
die Einbindung neuer Datenverarbeitungsalgorithmen, wie z. B. Konnektivitätsanalysen und die Adaption von Paradigmen durch weitere physiologische Parameter. Dabei ist insbesondere die Kombination mit EEG-Signalen von großem Interesse. Außerdem bietet das System eine universelle Grundlage für die zukünftige Arbeit an Neurofeedbackexperimenten. Das in dieser Arbeit entwickelte Framework bietet im Vergleich zu bisher vorgestellten Lösungsansätzen ein Ein-Computer-Setup mit einem erweiterbaren Methodenspektrum. Damit wird die Komplexität des notwendigen technischen Setups reduziert und ist nicht auf einzelne Anwendungsfälle beschränkt. Es können flexibel neue Datenverarbeitungsalgorithmen für ein fMRT-BCI eingebunden und vielgestaltige Anwendungsfälle von adaptiven Paradigmen konzipiert
werden. Eine Abstraktion der Stimulation und die Kombination mit der Echtzeitauswertung ist bisher einzigartig für neurowissenschaftliche Experimente.
Zusätzlich zu den theoretischen und technischen Erläuterungen werden im empirischen Teil der vorliegenden Arbeit neurowissenschaftliche Experimente, die mit dem Softwarepaket BART durchgeführt wurden, vorgestellt und deren Ergebnisse erläutert. Dabei wird die Zuverlässigkeit und Funktionsweise der Implementierung in allen Teilschritten der Datenerfassung und -verarbeitung validiert. Die Ergebnisse verifizieren die Implementierung einer parallelisierten fMRT-Analyse.Weiterhin wird eine erste konkrete Umsetzung für ein adaptives Paradigma vorgestellt, bei dem zur Laufzeit die Blickrichtung der Probanden berücksichtigt wird. Die Ergebnisse zeigen die signifikanten Verbesserungen der Reliabilität der fMRT-Ergebnisse aufgrund der optimierten Datenqualität durch die Adaption des Paradigmas.
Zusammengefasst umfasst die vorliegende Arbeit eine interdisziplinäre Aufgabe, die sich aus der Verarbeitung von MR-Daten in Echtzeit, einem neuen abstraktes Softwarekonzept für Entwicklung neuer methodischer Ansätze und der Durchführung von neurowissenschaftlichen Experimenten zusammensetzt.
|
4 |
Paradigmatic Tendencies in Cartography: A Synthesis of the Scientific-Empirical, Critical and Post-Representational PerspectivesAzócar Fernández, Pablo Iván 09 February 2012 (has links)
Maps have been important elements of visual representation in the development of different societies, and for this reason they have mainly been considered from a practical and utilitarian point of view. This means that cartographers or mapmakers have largely focused on the technical aspects of the cartographic products, and cartography has given little attention to both its theoretical component and to its philosophical and epistemological aspects. The current study is dedicated to consider these views.
In this study the main trends, thoughts and different directions in cartography during positivism/empiricism, neo-positivism and post-structuralism are reviewed; and cartography is analysed under the modernism and post-modernism periods. Some of the arguments proposed by philosophers such as Ludwig Wittgenstein and Karl Popper are examined as important contributions in our understanding of the development of cartography and mapping. This study also incorporates the idea or concept of paradigm, which has been taken from the field of the epistemology of sciences. The aforementioned opens a space to analyse cartography in terms of a paradigm shift.
In the analysis of each trend within contemporary cartography – from the second half of the twentieth century until today – it is necessary to keep in mind the theoretical scheme of a scientific discipline (object of study, research aims, methods and approaches, and results). This helps to determine the body of knowledge in cartography. It is also important to consider the epistemological context in which the tendencies are developed: positivism/empiricism, realism/structuralism and idealism/hermeneutic.
In this way, by considering three epistemological levels - essentialist/ontical (scientific), deconstructive (sociological), and ontological (emergent) - some paradigmatic tendencies are postulated. The first level results in tendencies such as cartographic communication, cartographic semiotics, analytical cartography and cartographic visualisation - all of these belong to the scientific-empirical perspective. In the second level, we have critical cartography, belonging to the critical perspective and that confronts the scientific stances. Finally, in the third level the so-called post-representational cartography arises in open opposition to the traditional representational cartography. / Im Entwicklungsprozess verschiedener Gesellschaften sind Karten immer wichtige Elemente visueller Darstellung gewesen. Karten wurden meist aus einer praktischen und utilitaristischen Sicht betrachtet. Das heißt, dass sich Kartographen oder Kartenmacher gezielt auf die technischen Aspekte kartographischer Produkte fokussiert haben, und Kartographie sich nur wenig mit den theoretischen Komponenten und philosophischen oder epistemologischen Aspekten auseinandergesetzt hat. Diese Arbeit verfolgt das Ziel, diese Sichten zu analysieren.
Diese Studie untersucht die verschiedenen kartographischen Denkrichtungen, die während des Positivismus/Empirismus, des Neo-Positivismus und der Post-Strukturalismusperioden entstanden sind und analysiert Kartographie der Moderne und post-moderner Perioden. Argumente von Philosophen wie Ludwig Wittgenstein und Karl Popper werden untersucht als wichtige Beiträge zu unserem Verständnis der Entwicklung der Kartographie. Diese Arbeit berücksichtigt auch das Konzept des Paradigmas, welches aus dem Gebiet der wissenschaftlichen Epistemologie adaptiert wurde. Dies eröffnet die Möglichkeit, Kartographie hinsichtlich eines Paradigmenwechsels analysieren zu können.
Wenn man die Tendenzen der zeitgenössischen Kartographie – von der zweiten Hälfte des zwanzigsten Jahrhunderts bis heute – studiert, muss der theoretische Rahmen einer wissenschaftlichen Disziplin (Forschungsobjekt, Forschungsziel, Arbeitsmethodik und Ergebnisse) berücksichtigt werden. Dies erlaubt es, das gesammelte Wissen der Kartographie zu ermitteln. Ebenfalls wichtig ist die Berücksichtigung des epistemologischen Kontexts, in dem diese Tendenzen entstanden: Positivismus/Empirismus, Realismus/Strukturalismus und Idealismus/Hermeneutik.
Unter Berücksichtigung dreier epistemologischer Ebenen – Essenzialisten/ontisch (wissenschaftlich), dekonstructiv (soziologisch) und ontologisch (emergent) – werden ausgewählte paradigmatische Tendenzen postuliert. Die erste Ebene ergibt Tendenzen wie die kartographische Kommunikation, die kartographische Semiotik, die analytische Kartographie und die kartographische Visualisierung, die alle zu der wissenschaftlich-empirischen Perspektive gehören. Zur zweiten Ebene gehört die kritische Kartographie, welche der kritischen Perspektive zugeordnet ist und die wissenschaftliche Standpunkte konfrontiert. Die so genannte post-repräsentative Kartographie entsteht aus der dritten Ebene im offenen Widerstand zur traditionellen repräsentativen Kartographie.
|
5 |
Sample-Based Forecasting Exploiting Hierarchical Time SeriesFischer, Ulrike, Rosenthal, Frank, Lehner, Wolfgang 16 September 2022 (has links)
Time series forecasting is challenging as sophisticated forecast models are computationally expensive to build. Recent research has addressed the integration of forecasting inside a DBMS. One main benefit is that models can be created once and then repeatedly used to answer forecast queries. Often forecast queries are submitted on higher aggregation levels, e. g., forecasts of sales over all locations. To answer such a forecast query, we have two possibilities. First, we can aggregate all base time series (sales in Austria, sales in Belgium...) and create only one model for the aggregate time series. Second, we can create models for all base time series and aggregate the base forecast values. The second possibility might lead to a higher accuracy but it is usually too expensive due to a high number of base time series. However, we actually do not need all base models to achieve a high accuracy, a sample of base models is enough. With this approach, we still achieve a better accuracy than an aggregate model, very similar to using all models, but we need less models to create and maintain in the database. We further improve this approach if new actual values of the base time series arrive at different points in time. With each new actual value we can refine the aggregate forecast and eventually converge towards the real actual value. Our experimental evaluation using several real-world data sets, shows a high accuracy of our approaches and a fast convergence towards the optimal value with increasing sample sizes and increasing number of actual values respectively.
|
6 |
Softwareframework zur universellen Methodenentwicklung für ein fMRT- BCI: Adaptive Paradigmen und Echtzeitdatenanalyse: Softwareframework zur universellen Methodenentwicklung für ein fMRT- BCI: Adaptive Paradigmen und EchtzeitdatenanalyseHellrung, Lydia 28 January 2015 (has links)
Die funktionelle Magnetresonanztomographie (fMRT) ist ein nicht-invasives Bildgebungsverfahren, mit dem Veränderungen der neuronalen Aktivität im Gehirn mit hoher räumlicher Auflösung erfasst werden können. Mit der fMRT-Bildgebung bei neurowissenschaftlichen Experimenten wurden in den letzten beiden Jahrzehnten bedeutende Erkenntnisse für die Hirnforschung und Medizin gewonnen. Mit Hilfe dieser Methode werden neuronale Aktivitätsunterschiede bei der Durchführung einer bestimmten Aufgabe, z. B. dem Betrachten von Bildern mit emotionalen Inhalten, erfasst und die Daten unabhängig von der Messung zu einem späteren Zeitpunkt statistisch ausgewertet. Mit Hilfe des technischen Fortschritts im letzten Jahrzehnt
ist es darüber hinaus möglich geworden, fMRT-Daten direkt zur Aufnahmezeit zu verarbeiten und auszuwerten. Dies wird als Echtzeit-fMRT bezeichnet, wenn die Datenverarbeitung schneller erfolgt als die Aufnahme eines Hirnvolumens (aktuell ca. zwei Sekunden). Die Ergebnisse der Echtzeitdatenverarbeitung können dann wiederum als Steuerbefehle für verschiedene Anwendungen verwendet werden. Daher wird dies auch als Hirn-Computer-Schnittstelle (Brain Computer Interface, BCI) mittels fMRT bezeichnet. Die Echtzeitverarbeitung von fMRT-Daten ermöglicht mehrere neue Anwendungen. Dazu gehören unter anderem die Qualitätskontrolle
zur Laufzeit von fMRT-Experimenten, die schnelle funktionelle Lokalisierung von Hirnarealen entweder für neurowissenschaftliche Experimente oder intraoperativ, die Kontrolle des Experimentes mittels des Probandenverhaltens und insbesondere die Möglichkeit, sogenannte fMRT-Neurofeedbackexperimente durchzuführen. Bei diesen Experimenten lernen Probanden, die Aktivität von definierten Hirnarealen willentlich zu beeinflussen. Das Ziel dabei ist, Veränderungen in ihrem Verhalten zu generieren. Die Umsetzung eines BCIs mittels Echtzeit-fMRT ist eine
interdisziplinäre Aufgabenstellung von MR-Physik, Informatik und Neurowissenschaften um das Verständnis des menschlichen Gehirns zu verbessern und neue Therapieansätze zu gestalten. Für diese hard- und softwaretechnisch anspruchsvolle Aufgabe gibt es einen enormen Bedarf an
neuen Algorithmen zur Datenverarbeitung und Ansätzen zur verbesserten Datenakquise.
In diesem Zusammenhang präsentiert die vorliegende Arbeit ein neues Softwareframework, das einerseits eine integrierte Gesamtlösung für die Echtzeit-fMRT darstellt und in seinen Teilmodulen eine abstrakte Basis für eine universelle Methodenentwicklung anbietet. Diese Arbeit beschreibt die grundlegenden abstrakten Konzepte und die Implementierung in ein neues Softwarepaket namens ’Brain Analysis in Real-Time’ (BART). Der Fokus der Arbeit liegt auf zwei Kernmodulen, die für universelle Gestaltung von sogenannten adaptiven Paradigmen und die Einbindung von Echtzeit-fMRT-Datenverarbeitungsalgorithmen konzipiert sind. Bei adaptiven Paradigmen werden zur Laufzeit eines Experiments physiologische Parameter (z. B. Herzrate) oder Verhaltensdaten (z. B. Augenbewegungen) simultan zu den fMRT-Daten erfasst und analysiert, um die Stimulation eines Probanden entsprechend zu adaptieren. Damit kann die Zuverlässigkeit der Daten, die zur Auswertung zur Verfügung stehen, optimiert werden. Die vorliegende
Arbeit präsentiert das dazu notwendige abstrakte Grundkonzept des neuen Softwareframeworks und die ersten konkreten Implementierungen für die Datenverarbeitung und adaptive Paradigmen. Das Framework kann zukünftig mit neuen methodischen Ideen erweitert werden. Dazu gehören
die Einbindung neuer Datenverarbeitungsalgorithmen, wie z. B. Konnektivitätsanalysen und die Adaption von Paradigmen durch weitere physiologische Parameter. Dabei ist insbesondere die Kombination mit EEG-Signalen von großem Interesse. Außerdem bietet das System eine universelle Grundlage für die zukünftige Arbeit an Neurofeedbackexperimenten. Das in dieser Arbeit entwickelte Framework bietet im Vergleich zu bisher vorgestellten Lösungsansätzen ein Ein-Computer-Setup mit einem erweiterbaren Methodenspektrum. Damit wird die Komplexität des notwendigen technischen Setups reduziert und ist nicht auf einzelne Anwendungsfälle beschränkt. Es können flexibel neue Datenverarbeitungsalgorithmen für ein fMRT-BCI eingebunden und vielgestaltige Anwendungsfälle von adaptiven Paradigmen konzipiert
werden. Eine Abstraktion der Stimulation und die Kombination mit der Echtzeitauswertung ist bisher einzigartig für neurowissenschaftliche Experimente.
Zusätzlich zu den theoretischen und technischen Erläuterungen werden im empirischen Teil der vorliegenden Arbeit neurowissenschaftliche Experimente, die mit dem Softwarepaket BART durchgeführt wurden, vorgestellt und deren Ergebnisse erläutert. Dabei wird die Zuverlässigkeit und Funktionsweise der Implementierung in allen Teilschritten der Datenerfassung und -verarbeitung validiert. Die Ergebnisse verifizieren die Implementierung einer parallelisierten fMRT-Analyse.Weiterhin wird eine erste konkrete Umsetzung für ein adaptives Paradigma vorgestellt, bei dem zur Laufzeit die Blickrichtung der Probanden berücksichtigt wird. Die Ergebnisse zeigen die signifikanten Verbesserungen der Reliabilität der fMRT-Ergebnisse aufgrund der optimierten Datenqualität durch die Adaption des Paradigmas.
Zusammengefasst umfasst die vorliegende Arbeit eine interdisziplinäre Aufgabe, die sich aus der Verarbeitung von MR-Daten in Echtzeit, einem neuen abstraktes Softwarekonzept für Entwicklung neuer methodischer Ansätze und der Durchführung von neurowissenschaftlichen Experimenten zusammensetzt.
|
Page generated in 0.0527 seconds