111 |
Entwicklung eines neuen digitalen Menschmodells für den Einsatz in kleinen und mittleren UnternehmenSpitzhirn, Michael, Bullinger, Angelika C. 08 October 2013 (has links) (PDF)
Der Einsatz von digitalen Menschmodellen erlaubt neben einer frühzeitigen ergonomischen Analyse die Gestaltung von Arbeitsprozessen und stellt ein hilfreiches Werkzeug in der Produkt- und Prozessgestaltung dar.
Im Rahmen dieses Beitrages soll auf ausgewählte Schwerpunkte der Entwicklung des digitalen Menschmodells „The Smart Virtual Worker“ eingegangen werden. Das Forschungsprojekt soll einen Beitrag zur Lösung, der mit dem demografischen Wandel der Gesellschaft einhergehenden Herausforderungen leisten. Die daraus resultierenden Forschungsschwerpunkte liegen insbesondere in der Einbeziehung von Alterungs- und psychischen Faktoren in die Bewegungsgenerierung des Menschmodells und der Modellierung von Umweltbedingungen.
In Umsetzung des Projektes wurde ein erstes Arbeitsszenario erarbeitet, auf dessen Basis die vorgenannten Forschungsaufgaben interdisziplinär gelöst werden sollen.
|
112 |
Softwareframework zur universellen Methodenentwicklung für ein fMRT- BCI: Adaptive Paradigmen und EchtzeitdatenanalyseHellrung, Lydia 04 May 2015 (has links) (PDF)
Die funktionelle Magnetresonanztomographie (fMRT) ist ein nicht-invasives Bildgebungsverfahren, mit dem Veränderungen der neuronalen Aktivität im Gehirn mit hoher räumlicher Auflösung erfasst werden können. Mit der fMRT-Bildgebung bei neurowissenschaftlichen Experimenten wurden in den letzten beiden Jahrzehnten bedeutende Erkenntnisse für die Hirnforschung und Medizin gewonnen. Mit Hilfe dieser Methode werden neuronale Aktivitätsunterschiede bei der Durchführung einer bestimmten Aufgabe, z. B. dem Betrachten von Bildern mit emotionalen Inhalten, erfasst und die Daten unabhängig von der Messung zu einem späteren Zeitpunkt statistisch ausgewertet. Mit Hilfe des technischen Fortschritts im letzten Jahrzehnt
ist es darüber hinaus möglich geworden, fMRT-Daten direkt zur Aufnahmezeit zu verarbeiten und auszuwerten. Dies wird als Echtzeit-fMRT bezeichnet, wenn die Datenverarbeitung schneller erfolgt als die Aufnahme eines Hirnvolumens (aktuell ca. zwei Sekunden). Die Ergebnisse der Echtzeitdatenverarbeitung können dann wiederum als Steuerbefehle für verschiedene Anwendungen verwendet werden. Daher wird dies auch als Hirn-Computer-Schnittstelle (Brain Computer Interface, BCI) mittels fMRT bezeichnet. Die Echtzeitverarbeitung von fMRT-Daten ermöglicht mehrere neue Anwendungen. Dazu gehören unter anderem die Qualitätskontrolle
zur Laufzeit von fMRT-Experimenten, die schnelle funktionelle Lokalisierung von Hirnarealen entweder für neurowissenschaftliche Experimente oder intraoperativ, die Kontrolle des Experimentes mittels des Probandenverhaltens und insbesondere die Möglichkeit, sogenannte fMRT-Neurofeedbackexperimente durchzuführen. Bei diesen Experimenten lernen Probanden, die Aktivität von definierten Hirnarealen willentlich zu beeinflussen. Das Ziel dabei ist, Veränderungen in ihrem Verhalten zu generieren. Die Umsetzung eines BCIs mittels Echtzeit-fMRT ist eine
interdisziplinäre Aufgabenstellung von MR-Physik, Informatik und Neurowissenschaften um das Verständnis des menschlichen Gehirns zu verbessern und neue Therapieansätze zu gestalten. Für diese hard- und softwaretechnisch anspruchsvolle Aufgabe gibt es einen enormen Bedarf an
neuen Algorithmen zur Datenverarbeitung und Ansätzen zur verbesserten Datenakquise.
In diesem Zusammenhang präsentiert die vorliegende Arbeit ein neues Softwareframework, das einerseits eine integrierte Gesamtlösung für die Echtzeit-fMRT darstellt und in seinen Teilmodulen eine abstrakte Basis für eine universelle Methodenentwicklung anbietet. Diese Arbeit beschreibt die grundlegenden abstrakten Konzepte und die Implementierung in ein neues Softwarepaket namens ’Brain Analysis in Real-Time’ (BART). Der Fokus der Arbeit liegt auf zwei Kernmodulen, die für universelle Gestaltung von sogenannten adaptiven Paradigmen und die Einbindung von Echtzeit-fMRT-Datenverarbeitungsalgorithmen konzipiert sind. Bei adaptiven Paradigmen werden zur Laufzeit eines Experiments physiologische Parameter (z. B. Herzrate) oder Verhaltensdaten (z. B. Augenbewegungen) simultan zu den fMRT-Daten erfasst und analysiert, um die Stimulation eines Probanden entsprechend zu adaptieren. Damit kann die Zuverlässigkeit der Daten, die zur Auswertung zur Verfügung stehen, optimiert werden. Die vorliegende
Arbeit präsentiert das dazu notwendige abstrakte Grundkonzept des neuen Softwareframeworks und die ersten konkreten Implementierungen für die Datenverarbeitung und adaptive Paradigmen. Das Framework kann zukünftig mit neuen methodischen Ideen erweitert werden. Dazu gehören
die Einbindung neuer Datenverarbeitungsalgorithmen, wie z. B. Konnektivitätsanalysen und die Adaption von Paradigmen durch weitere physiologische Parameter. Dabei ist insbesondere die Kombination mit EEG-Signalen von großem Interesse. Außerdem bietet das System eine universelle Grundlage für die zukünftige Arbeit an Neurofeedbackexperimenten. Das in dieser Arbeit entwickelte Framework bietet im Vergleich zu bisher vorgestellten Lösungsansätzen ein Ein-Computer-Setup mit einem erweiterbaren Methodenspektrum. Damit wird die Komplexität des notwendigen technischen Setups reduziert und ist nicht auf einzelne Anwendungsfälle beschränkt. Es können flexibel neue Datenverarbeitungsalgorithmen für ein fMRT-BCI eingebunden und vielgestaltige Anwendungsfälle von adaptiven Paradigmen konzipiert
werden. Eine Abstraktion der Stimulation und die Kombination mit der Echtzeitauswertung ist bisher einzigartig für neurowissenschaftliche Experimente.
Zusätzlich zu den theoretischen und technischen Erläuterungen werden im empirischen Teil der vorliegenden Arbeit neurowissenschaftliche Experimente, die mit dem Softwarepaket BART durchgeführt wurden, vorgestellt und deren Ergebnisse erläutert. Dabei wird die Zuverlässigkeit und Funktionsweise der Implementierung in allen Teilschritten der Datenerfassung und -verarbeitung validiert. Die Ergebnisse verifizieren die Implementierung einer parallelisierten fMRT-Analyse.Weiterhin wird eine erste konkrete Umsetzung für ein adaptives Paradigma vorgestellt, bei dem zur Laufzeit die Blickrichtung der Probanden berücksichtigt wird. Die Ergebnisse zeigen die signifikanten Verbesserungen der Reliabilität der fMRT-Ergebnisse aufgrund der optimierten Datenqualität durch die Adaption des Paradigmas.
Zusammengefasst umfasst die vorliegende Arbeit eine interdisziplinäre Aufgabe, die sich aus der Verarbeitung von MR-Daten in Echtzeit, einem neuen abstraktes Softwarekonzept für Entwicklung neuer methodischer Ansätze und der Durchführung von neurowissenschaftlichen Experimenten zusammensetzt.
|
113 |
Serviceorientierte Gestaltung mobiler VerwaltungsprozesseFrankfurth, Angela, Knopp, Michael, Gerstheimer, Oliver 15 December 2014 (has links) (PDF)
Die Idee einer mobilen Verwaltung1 entspringt der Kombination von drei derzeit wirkenden Entwicklungslinien. Als erstes zu nennen ist das Electronic Government, das aufbauend auf der Einführung der elektronischen Datenverarbeitung nun zu einer umfassenden Vernetzung der Verwaltung führt.
|
114 |
Ausarbeitungsleitfaden für Nutzerstudien zur Evaluation von XR-Interfaces in der ProduktentwicklungHarlan, Jakob, Schleich, Benjamin, Wartzack, Sandro 06 September 2021 (has links)
Technologien der erweiterten Realität (extended reality, XR) finden im gesamten Produktentwicklungsprozess Anwendung. Insbesondere Systeme zur aktiven Erzeugung und Veränderung digitaler Produktdaten bieten noch viel Potential. Die Erforschung und Entwicklung dieser immersiven Interfaces beruht maßgeblich auf der Evaluation durch Nutzerstudien, denn nur so kann die Einsatztauglichkeit der Mensch-Maschine-Schnittstellen seriös beurteilt und verglichen werden. Bei der Konzeptionierung und Durchführung dieser Nutzerstudien gibt es viel zu beachten. In dieser Arbeit wird ein Leitfaden für das Design von Evaluationen von XR Interfaces für die Produktentwicklung präsentiert. Zu Beginn müssen die Fragestellungen festgelegt werden, welche die Studie beantworten soll. Ausgehend von diesen müssen die zu testenden Versuchsbedingungen, die gestellten Aufgaben, die aufgenommen Metriken, die gewählten Probanden und der geplante Ablauf festgelegt werden. Zusätzlich zu der allgemeinen Darlegung wird das Vorgehen anhand eines Fallbeispiels angewandt. Die Gestaltung einer Nutzerstudie zur Evaluation der Usability und Eignung eines neuartigen Virtual Reality Interfaces zur natürlichen Gestaltung von Vorentwürfen wird vorgestellt.
|
115 |
A Survey of Barrier Algorithms for Coarse Grained SupercomputersHoefler, Torsten, Mehlan, Torsten, Mietke, Frank, Rehm, Wolfgang 28 June 2005 (has links)
There are several different algorithms available to perform a synchronization of multiple processors. Some of them support only shared memory architectures or very fine grained supercomputers. This work gives an overview about all currently known algorithms which are suitable for distributed shared memory architectures and message passing based computer systems (loosely coupled or coarse grained supercomputers). No absolute decision can be made for choosing a barrier algorithm for a machine. Several architectural aspects have to be taken into account. The overview about known barrier algorithms given in this work is mostly targeted to implementors of libraries supporting collective communication (such as MPI).
|
116 |
Mixed-Level-Simulation heterogener Systeme mit VHDL-AMS durch Multi-Architecture-ModellierungSchlegel, Michael 04 October 2005 (has links)
Die Simulation heterogener Systeme auf hoher
Abstraktionsebene gewinnt auf Grund der
zunehmenden Komplexität technischer Systeme
stetig an Bedeutung. Unter heterogenen Systemen
versteht man technische Systeme, die aus analoger
und digitaler Elektronik, aus Komponenten
verschiedener physikalischer Domänen wie
mechanischen Strukturen, thermischen und
optischen Komponenten sowie aus Software
bestehen können. Genügte es bisher, die
einzelnen Komponenten für sich in ihrer eigenen
Domäne mit einem speziellen Simulator zu
simulieren, so ist es heute unerläßlich, auch
die Interaktionen zwischen den Komponenten zu
erfassen. Um solche Systeme mit einer
einheitlichen Beschreibungsform erfassen zu
können, entstand aus der digitalen
Hardwarebeschreibungssprache VHDL die
Systembeschreibungssprache VHDL-AMS.
Bei der Modellierung eines Systems muß das
tatsächliche Verhalten der Komponenten
abstrahiert werden, um mathematisch erfaßbar
und in begrenzter Zeit simulierbar zu sein. Der
Grad der Abstraktion beeinflußt jedoch die
Genauigkeit der Simulationsergebnisse wesentlich.
Dabei muß bzw. kann das Verhalten in
unterschiedlichen Komponenten unterschiedlich
stark abstrahiert werden, um noch akzeptable
Simulationsgenauigkeiten erzielen zu können.
VHDL-AMS erlaubt die Beschreibung von Komponenten
auf unterschiedlichen Abstraktionsniveaus. Man
kann die unterschiedlich abstrakten Modelle der
Komponenten aber nur schwer in einer
Systemsimulation gemeinsam simulieren, da
unterschiedlich abstrakte Modelle auch
unterschiedlich abstrakte Schnittstellen
aufweisen, so daß die Modelle nur mühsam
miteinander verbunden werden können. Ein
Austausch eines abstrakten Modells einer
Komponente gegen ein weniger abstraktes Modell
oder umgekehrt ist mit vielen fehleranfälligen
und zeitaufwendigen Anpassungsschritten verbunden.
Im Rahmen dieser Arbeit wird ein methodischer
Ansatz vorgestellt, der es auf der Basis einer
Vereinheitlichung der Modellschnittstellen
ermöglicht, unterschiedlich abstrakte Modelle
gemeinsam zu simulieren und einzelne Modelle
gegen abstraktere oder weniger abstrakte Modelle
ohne nennenswerten Zeit- und Modellierungsaufwand
auszutauschen. Es werden die zu verwendenden
Interfaceobjekte und Datentypen für digitale,
analoge elektrische und nichtelektrische
Schnittstellen unter VHDL-AMS und SystemC-AMS
vorgestellt. Ebenso werden Methoden vorgestellt,
die digitales, ereignisdiskretes Verhalten auf
konservative elektrische Schnittstellen bzw.
nichtkonservatives analoges Verhalten auf
digitale Schnittstellen abbilden. Weiterhin wird
erläutert, wie sich digitale Protokolle über
Abstraktionsebenen hinweg übertragen lassen und
ein modifizierter Top-Down Design-Flow
vorgestellt. Die Demonstration der Anwendbarkeit
der Methode erfolgt anhand eines Beispiels.
|
117 |
Optimizing MPI Collective Communication by Orthogonal StructuresKühnemann, Matthias, Rauber, Thomas, Rünger, Gudula 28 June 2007 (has links)
Many parallel applications from scientific computing use MPI collective communication operations to collect or distribute data. Since the execution times of these communication operations increase with the number of participating processors, scalability problems might occur. In this article, we show for different MPI implementations how the execution time of collective communication operations can be significantly improved by a restructuring based on orthogonal processor structures with two or more levels. As platform, we consider a dual Xeon cluster, a Beowulf cluster and a Cray T3E with different MPI implementations. We show that the execution time of operations like MPI Bcast or MPI Allgather can be reduced by 40% and 70% on the dual Xeon cluster and the Beowulf cluster. But also on a Cray T3E a significant improvement can be obtained by a careful selection of the processor groups. We demonstrate that the optimized communication operations can be used to reduce the execution time of data parallel implementations of complex application programs without any other change of the computation and communication structure. Furthermore, we investigate how the execution time of orthogonal realization can be modeled using runtime functions. In particular, we consider the modeling of two-phase realizations of communication operations. We present runtime functions for the modeling and verify that these runtime functions can predict the execution time both for communication operations in isolation and in the context of application programs.
|
118 |
Improving the Performance of Selected MPI Collective Communication Operations on InfiniBand NetworksViertel, Carsten 30 April 2007 (has links)
The performance of collective communication
operations is one of the deciding factors in
the overall performance of a MPI application.
Open MPI's component architecture offers an easy
way to implement new algorithms for collective
operations, but current implementations use the
point-to-point components to access the
InfiniBand network. Therefore it is tried to
improve the performance of a collective component
by accessing the InfiniBand network directly.
This should avoid overhead and make it possible
to tune the algorithms to this specific network.
The first part of this work gives a short overview
of the InfiniBand Architecture and Open MPI. In
the next part several models for parallel
computation are analyzed. Afterwards various
algorithms for the MPI_Scatter, MPI_Gather and
MPI_Allgather operations are presented. The
theoretical performance of the algorithms is
analyzed with the LogfP and LogGP models.
Selected algorithms are implemented
as part of an Open MPI collective component.
Finally the performance of different algorithms and
different MPI implementations is compared. The test
results show, that the performance of the
operations could be improved for several message
and communicator size ranges.
|
119 |
Aspekte der Echtzeit-Interaktion mit virtuellen UmgebungenRusdorf, Stephan 01 April 2008 (has links)
Für die schnelle Visualisierung großer Modelle werden sogenannte Echtzeit-Visualisierungsverfahren (real time rendering techniques) eingesetzt. Durch parallele Verarbeitung der Objektdaten auf Multicore-CPUs ist es möglich, die Geschwindigkeit der Darstellung gegenüber GPU-basierten Verfahren weiter zu erhöhen. Insbesondere wurde die Möglichkeit untersucht, das Occlusion-Culling mit Hilfe der CPU durchzuführen. Dabei konnte speziell das Worst-Case-Verhalten verbessert werden.
Mit der Anzahl der Systemkomponenten (z.B. Trackingsystem, Beamer, Rechner) steigt die Trägheit (Latenz) des Gesamtsystems, was eine Echtzeitverarbeitung der Daten deutlich erschwert. Durch Bewegungsvorhersagen, die speziell an das Nutzerverhalten im Rahmen der Anwendung angepasst sind, können auftretende Latenzen kompensiert werden. Die Entwicklungen erfolgten im Kontext einer immersiven Tischtennissimulation. Tischtennis gehört zu den schnellsten Sportarten und repräsentiert somit eine anspruchsvolle Umgebung.
Ein weiterer wichtiger Aspekt bei der Interaktion mit virtuellen Umgebungen ist die Natürlichkeit (Intuitivität) der Benutzeroberfläche. Durch eine möglichst direkte (aus der Realität bekannte) Umsetzung der Benutzerbewegungen in Systembefehle wird eine höchstmögliche Effektivität im Umgang mit dem System erzielt. Im Rahmen einer Designanwendung wurden Interaktionstechniken realisiert, die den alltäglichen Bewegungsabläufen nachempfunden sind.
|
120 |
Serviceorientierte Gestaltung mobiler VerwaltungsprozesseFrankfurth, Angela, Knopp, Michael, Gerstheimer, Oliver January 2005 (has links)
Die Idee einer mobilen Verwaltung1 entspringt der Kombination von drei derzeit wirkenden Entwicklungslinien. Als erstes zu nennen ist das Electronic Government, das aufbauend auf der Einführung der elektronischen Datenverarbeitung nun zu einer umfassenden Vernetzung der Verwaltung führt.
|
Page generated in 0.0756 seconds