Spelling suggestions: "subject:"prädiktion"" "subject:"prädiktionen""
1 |
Wortklassenprädiktion im syntaktischen Kontext - eine Studie bei Patienten mit linkshemisphärieller Läsion im SprachnetzwerkBormann, Josef 10 August 2021 (has links)
Prädiktion gilt als wesentlicher kognitiver Mechanismus bei der Verarbeitung eingehender äußerer Signale (Bar 2009; Friston, 2005). Das Gehirn entwickelt dazu auf Basis bisheriger Erfahrung kontinuierlich Hypothesen über unmittelbar folgende Reize und führt einen ständigen Abgleich zwischen prädiziertem und tatsächlichem Reiz durch.
Auch Sprachverständnis wird durch Prädiktion unterstützt (Kutas et al., 2011; Sohoglu et al., 2012). Im Laufe eines Satzes lassen sich so anhand des semantischen Gehaltes und der syntaktischen Struktur des Satzes mit zunehmender Sicherheit die weiteren Satzelemente bis hin zum satzfinalen Wort prädizieren.
Sprachgesunde können die Wortklasse des letzten Wortes eines Satzes nicht nur in semantisch und syntaktisch regulären Sätzen prädizieren, sondern auch in Sätzen, die zwar ein syntaktisches Gerüst, aber eine nur reduzierte semantische Information vorgeben. Für solch syntaktisch gestützte Prädiktion zeigte sich in der fMRT die Aktivierung eines linkslateralisierten Sprachnetzwerkes unter Einschluss des Gyrus frontalis inferior, Sulcus intraparietalis und Gyrus temporalis superior (Bonhage et al., 2015).
Ausgehend von den Befunden dieser Studie mit neurotypischen, jungen Probanden wurde in der vorliegenden Arbeit untersucht, inwiefern Probanden mit linkshemisphärieller Läsion im Sprachnetzwerk die Wortklasse eines satzfinalen Wortes prädizieren können. Betrachtet wurden ebenfalls semantisch und syntaktisch reguläre Sätze sowie Sätze, die auf ihr syntaktisches Gerüst reduziert waren. Als Kontrollbedingung dienten Neologismenfolgen. Damit wurde sich des bereits bei sprachgesunden Probanden genutzten experimentellen Paradigmas bedient. Prädiktionsvorgänge wurden dabei mithilfe von Eye-Tracking visualisiert. Im Paradigma wurde zudem durch eine Forced-Choice-Aufgabe die Fähigkeit der Probanden zur syntaktischen Analyse geprüft.
Zusätzlich zum Experiment wurde bei allen Probanden ein klinisch etablierter patholinguistischer Test durchgeführt, der spezifisch syntaktische Störungen bei der Rezeption von Sätzen untersucht ('Sätze verstehen', Burchert et al., 2015). Der Test berücksichtigt typische Einflussfaktoren des Satzverständnisses (semantische Reversibilität, Wortstellung, Morphologie und syntaktische Komplexität). Beurteilt werden sollte, inwiefern die Leistung im Prädiktionsexperiment mit der Leistung im klinischen Test korreliert.
Die Ergebnisse in Experiment und klinischer Testung wurden anschließend mithilfe der Methode des Voxel-Based Lesion-Symptom Mapping mit den Läsionsmustern der Probanden verglichen. Analysiert werden sollte, inwiefern die Fähigkeit zur Wortklassenprädiktion und die Leistung im Test durch Läsionen in spezifischen Hirnarealen alteriert ist.
An der Studie nahmen 32 Probanden teil.
Sie erbrachte folgende Ergebnisse:
Probanden mit linkshemisphärieller Schädigung im Sprachnetzwerk konnten in semantisch und syntaktisch regulären Sätzen und in Sätzen, die nur ein syntaktisches Gerüst erkennen ließen, gleichermaßen die Wortklasse des finalen Wortes eines Satzes prädizieren. Die Ergebnisse in den beiden Konditionen unterschieden sich nicht signifikant, lagen jedoch signifikant oberhalb der Ratewahrscheinlichkeit. Die Ergebnisse der Forced-Choice-Aufgabe zeigten hingegen signifikante Unterschiede zwischen allen getesteten Konditionen.
Die klinische Einschätzung der Probanden bildete sich auf Ebene der geprüften Einflussfaktoren des Satzverständnisses in den Ergebnissen des Prädiktionsexperiments ab, divergierte jedoch bei spezifischem Vergleich von Experiment und Testung, was darauf hinweist, dass unterschiedliche Aspekte syntaktischer Kompetenz selektiv betroffen sein können.
Die Korrelation mit den Läsionen der Probanden ergab, dass operkuläre und insuläre Schädigungen zu einer signifikant schlechteren Prädiktion auf syntaktischer Basis führten, Läsionen im oberen und mittleren Temporallappen dagegen zu einer schlechteren Leistung in der klinischen Syntaxtestung.
Die Ergebnisse der Studie lassen festhalten, dass auch Patienten mit linkshemisphärieller Läsion im Sprachnetzwerk prädiktive Mechanismen bei Satzverarbeitung anwenden, wenngleich dabei qualitative Unterschiede zum Prädiktionsverhalten Sprachgesunder bestehen. Die mithilfe von Eye-Tracking als Echtzeit-Methode gewonnenen Ergebnisse knüpfen grundlegend an Erkenntnisse aus Blickbewegungsstudien zur Satzverarbeitung aphasischer Patienten an. Die in Experiment und klinischer Testung geprüften syntaktischen Teilleistungen stellten sich dabei als verschiedene Facetten syntaktischer Kompetenz dar. Die Läsionsanalyse erbrachte eine Dissoziation der maßgeblichen Areale für die in Experiment und klinischem Test geprüften Leistungen. Die für die Prädiktionsleistung im Experiment relevanten Areale wichen dabei von den gemeinhin an syntaktischer Verarbeitung beteiligten Hirnregionen ab.:1. Einleitung
1.1 Predictive coding
1.2 Prädiktion im Satzkontext
1.3 Syntaktische Störungen bei Patienten mit Aphasie
1.4 Eye-Tracking
2. Fragestellungen
3. Material und Methoden
3.1 Probanden
3.2 Material
3.3 Durchführung
3.3.1 Versuchsaufbau
3.3.2 Versuchsablauf
3.4 Datenanalyse
3.4.1 Analyse der Eye-Tracking-Daten
3.4.1.1 Prädiktionsparameter
3.4.1.2 Zentrale Fixation
3.4.2 Analyse der Verhaltensdaten
3.4.3 Korrelation von Eye-Tracking- und Verhaltensdaten
3.5 Klinische Diagnostik
3.5.1 Klinische Testbatterie
3.5.2 Sätze verstehen
3.5.2.1 Kerndiagnostik
3.5.2.2 Vertiefende Diagnostik
3.5.2.3 Klassifizierung und Interpretation der Ergebnisse
3.6 Korrelation von klinischen und Eye-Tracking-Daten
3.6.1 Split-Half-Gruppierung
3.6.2 Gruppierung nach Vorliegen einer Störung
3.6.3 Direkte Korrelation von klinischen und Eye-Tracking-Daten
3.7 Läsions-Verhaltens-Analyse
3.7.1 Läsionsdaten
3.7.2 Voxel-Based Lesion-Symptom Mapping
3.7.2.1 Analyse der Eye-Tracking-Daten
3.7.2.2 Analyse der klinischen Daten
4. Ergebnisse
4.1 Experimentelle Daten
4.1.1 Verhaltensdaten
4.1.2 Eye-Tracking-Daten
4.1.2.1 Prädiktionsparameter
4.1.2.2 Zentrale Fixation
4.1.3 Korrelation von Eye-Tracking- und Verhaltensdaten
4.2 Klinische Daten
4.2.1 Klinische Testbatterie
4.2.2 Sätze verstehen
4.2.2.1 Kerndiagnostik
4.2.2.2 Vertiefende Diagnostik
4.3 Korrelation von klinischen und Eye-Tracking-Daten
4.3.1 Split-Half-Gruppierung
4.3.2 Gruppierung nach Vorliegen einer Störung
4.3.3 Direkte Korrelation von klinischen und Eye-Tracking-Daten
4.4 Läsions-Verhaltens-Analyse
4.4.1 Voxelbasierte Läsions-Verhaltens-Analyse
4.4.2 Regionsbasierte Läsions-Verhaltens-Analyse
4.4.2.1 Regionsbasierte Analyse der Eye-Tracking-Daten
4.4.2.2 Regionsbasierte Analyse der klinischen Daten
4.4.3 Zusammenfassung der Läsions-Verhaltens-Analyse
5. Diskussion
5.1 Diskussion der experimentellen Daten
5.1.1 Verhaltensdaten
5.1.2 Eye-Tracking-Daten
5.1.3 Vergleich von Verhaltens- und Eye-Tracking-Daten
5.1.4 Korrelation von Verhaltens- und Eye-Tracking-Daten
5.2 Diskussion der klinischen Daten
5.3 Diskussion der Korrelation von experimentellen und klinischen Daten
5.3.1 Vereinbarkeit von Experiment und klinischer Testung
5.3.2 Einordnung und Stellenwert der Ergebnisse
5.3.2.1 Der Kanonizitätseffekt
5.3.2.2 Aphasische Online-Verarbeitung nicht-kanonischer Sätze
5.4 Diskussion der Läsions-Verhaltens-Analyse
5.4.1 Läsions-Verhaltens-Analyse der Eye-Tracking-Daten
5.4.2 Läsions-Verhaltens-Analyse der klinischen Daten
5.4.3 Vergleich der Ergebnisse
5.5 Beantwortung der Fragestellungen
6. Zusammenfassung
7. Literaturverzeichnis
8. Abbildungsverzeichnis
9. Tabellenverzeichnis
10. Anlagen
11. Eigenständigkeitserklärung
12. Danksagung
|
2 |
Leistungsbasierte Steuerung der Dienstleistungsnetzwerke von Service-Integratoren in der LogistikKlarmann, Axel 10 July 2017 (has links)
Die vorliegende Arbeit setzt sich mit den Steuerungsanforderungen in einem Wertschöpfungsnetzwerk eines Service-Integrators auseinander. Hierzu wird zunächst das Geschäftsmodell des Service-Integrators abgegrenzt und eine Einordnung in eine Typologie von Netzwerkunternehmen vorgenommen. Anschließend erfolgt eine Untersuchung der Steuerungsbedarfe aus organisationstheoretischer Sicht und ein Abgleich mit entsprechenden Instrumenten von bestehenden Arbeiten aus dem Bereich der Steuerung von Unternehmensnetzwerken. Es wird dabei gezeigt, dass die Konzepte Vertrauen und Reputation nicht inkludiert sind, woraufhin ein leistungsbasiertes Verständnis von Reputation, auf Basis von Vertragsverletzungen, aufgebaut wird, nachdem ein entsprechendes Verständnis von Vertrauen und Reputation aus betriebswirtschaftlicher Literatur abgeleitet wurde.
Dieses Instrument wird, im Rahmen eines auf Basis von SCOR entwickelten Kennzahlenmodells, als Instrument zur Steuerung von Netzwerken von Service Integratoren aufgebaut. Abschließend erfolgt eine prototypische Umsetzung und damit die Evaluierung der Machbarkeit und Gültigkeit unter den getroffenen Annahmen, dieses Instruments im Rahmen eines Instruments für einen logistischen Service-Integrator.
Im Zuge der Arbeit wird gezeigt, dass die Steuerung des Netzwerks eines Service-Integrators besondere Anforderungen an eine Netzwerksteuerung stellt, welche durch ein erweitertes, leistungsbasiertes Instrument, auf Basis der Verhaltenshistorie erfüllt werden können.
|
3 |
Wertigkeit neuer kardiovaskulärer Biomarker zur Prädiktion kardiovaskulärer Ereignisse und der Mortalität bei Patienten mit akuter zerebraler Ischämie / Value of new cardiovascular biomarkers for predicting cardiovascular events and mortality in patients with acute cerebral ischemiaNiehaus, Cord-Friedrich 25 June 2013 (has links)
No description available.
|
4 |
Prädiktion von Signallaufzeiten verkehrsadaptiver Lichtsignalanlagen zur Unterstützung von C-ITS AnwendungenKrumnow, Mario 08 December 2023 (has links)
In dieser Arbeit wird ein Verfahren zur Prognose von Schaltzeiten verkehrsadaptiver Lichtsignalanlagen vorgestellt. Der vorgestellte Algorithmus ist dabei sowohl hersteller- als auch schnittstellenunabhängig und somit universell einsetzbar. Der Algorithmus besteht aus einer Langzeit- und einer Kurzfristprognose und setzt das Verfahren zur Berechnung von Entscheidungsbäumen effizient um. Die Verifikation der vorgestellten Schaltzeitprognose wird an über 200 Lichtsignalanlagen in Dresden durchgeführt. Es wird gezeigt das eine gute Prognose von Signalabläufen für das automatisierte Fahren grundsätzlich möglich ist, wobei die Variabilität des Steuerverfahrens und der betrachtete Prognosehorizont maßgeblich die erzielbare Prognosequalität beeinflussen.:1 Einleitung
1.1 Motivation
1.2 Stand der Technik
1.3 Zielsetzung
1.4 Aufbau der Arbeit
2 Grundlagen
2.1 Aufbau von Lichtsignalanlagen
2.2 Steuerungsarten von Lichtsignalanlagen
2.3 Betrieb von Lichtsignalanlagen
2.4 Fahrerassistenzsysteme an signalisierten Knotenpunkten
2.5 Fazit
3 Analyse verkehrsadaptiver Lichtsignalanlagen
3.1 Möglichkeiten der Erhebung von Prozessdaten
3.2 Methodik der Datenauswertung
3.3 Statistische Kenngrößen
3.4 Anforderung an die Prädiktion
3.5 Annäherungsstrategie an signalisierten Knotenpunkten
3.6 Fazit
4 Neue Verfahren zur Prädiktion von Signalzeiten
4.1 Systemanforderungen
4.2 Arten der Wissensverarbeitung
4.3 Anwendung von Entscheidungsbäumen
4.4 Algorithmus der Kurzfristprognose
4.5 Algorithmus der Langzeitprognose
4.6 Fazit
5 Umsetzung und Anwendung der Verfahren
5.1 Vorstellung der Referenzstrecken
5.2 Datenübertragung und Informationsaustausch
5.3 Programmtechnische Umsetzung
5.4 Darstellung der Prognose im Fahrzeug
5.5 Fazit
6 Auswertung, Evaluation und Bewertung
6.1 Methodik
6.2 Prozessdaten und Datenübertragung
6.3 Prognose im gesamten Untersuchungsgebiet
6.4 Prognose auf den Pilotstrecken
6.5 Auswertung von Messfahrten
6.6 Verbesserungsmöglichkeiten der Prognose
7 Zusammenfassung und Ausblick
|
5 |
Template-basierte Klassifikation planarer GestenSchmidt, Michael 09 July 2014 (has links) (PDF)
Pervasion of mobile devices led to a growing interest in touch-based interactions. However, multi-touch input is still restricted to direct manipulations. In current applications, gestural commands - if used at all - are only exploiting single-touch. The underlying motive for the work at hand is the conviction that a realization of advanced interaction techniques requires handy tools for supporting their interpretation. Barriers for own implementations of procedures are dismantled by providing proof of concept regarding manifold interactions, therefore, making benefits calculable to developers. Within this thesis, a recognition routine for planar, symbolic gestures is developed that can be trained by specifications of templates and does not imply restrictions to the versatility of input. To provide a flexible tool, the interpretation of a gesture is independent of its natural variances, i.e., translation, scale, rotation, and speed. Additionally, the essential number of specified templates per class is required to be small and classifications are subject to real-time criteria common in the context of typical user interactions. The gesture recognizer is based on the integration of a nearest neighbor approach into a Bayesian classification method.
Gestures are split into meaningful, elementary tokens to retrieve a set of local features that are merged by a sensor fusion process to form a global maximum-likelihood representation. Flexibility and high accuracy of the approach is empirically proven in thorough tests. Retaining all requirements, the method is extended to support the prediction of partially entered gestures. Besides more efficient input, the possible specification of direct manipulation interactions by templates is beneficial. Suitability for practical use of all provided concepts is demonstrated on the basis of two applications developed for this purpose and providing versatile options of multi-finger input. In addition to a trainable recognizer for domain-independent sketches, a multi-touch text input system is created and tested with users. It is established that multi-touch input is utilized in sketching if it is available as an alternative. Furthermore, a constructed multi-touch gesture alphabet allows for more efficient text input in comparison to its single-touch pendant. The concepts presented in this work can be of equal benefit to UI designers, usability experts, and developers of feedforward-mechanisms for dynamic training methods of gestural interactions. Likewise, a decomposition of input into tokens and its interpretation by a maximum-likelihood matching with templates is transferable to other application areas as the offline recognition of symbols. / Obwohl berührungsbasierte Interaktionen mit dem Aufkommen mobiler Geräte zunehmend Verbreitung fanden, beschränken sich Multi-Touch Eingaben größtenteils auf direkte Manipulationen. Im Bereich gestischer Kommandos finden, wenn überhaupt, nur Single-Touch Symbole Anwendung. Der vorliegenden Arbeit liegt der Gedanke zugrunde, dass die Umsetzung von Interaktionstechniken mit der Verfügbarkeit einfach zu handhabender Werkzeuge für deren Interpretation zusammenhängt. Auch kann die Hürde, eigene Techniken zu implementieren, verringert werden, wenn vielfältige Interaktionen erprobt sind und ihr Nutzen für Anwendungsentwickler abschätzbar wird. In der verfassten Dissertation wird ein Erkenner für planare, symbolische Gesten entwickelt, der über die Angabe von Templates trainiert werden kann und keine Beschränkung der Vielfalt von Eingaben auf berührungsempfindlichen Oberflächen voraussetzt. Um eine möglichst flexible Einsetzbarkeit zu gewährleisten, soll die Interpretation einer Geste unabhängig von natürlichen Varianzen - ihrer Translation, Skalierung, Rotation und Geschwindigkeit - und unter wenig spezifizierten Templates pro Klasse möglich sein. Weiterhin sind für Nutzerinteraktionen im Anwendungskontext übliche Echtzeit-Kriterien einzuhalten. Der vorgestellte Gestenerkenner basiert auf der Integration eines Nächste-Nachbar-Verfahrens in einen Ansatz der Bayes\'schen Klassifikation.
Gesten werden in elementare, bedeutungstragende Einheiten zerlegt, aus deren lokalen Merkmalen mittels eines Sensor-Fusion Prozesses eine Maximum-Likelihood-Repräsentation abgeleitet wird. Die Flexibilität und hohe Genauigkeit des statistischen Verfahrens wird in ausführlichen Tests nachgewiesen. Unter gleichbleibenden Anforderungen wird eine Erweiterung vorgestellt, die eine Prädiktion von Gesten bei partiellen Eingaben ermöglicht. Deren Nutzen liegt - neben effizienteren Eingaben - in der nachgewiesenen Möglichkeit, per Templates spezifizierte direkte Manipulationen zu interpretieren. Zur Demonstration der Praxistauglichkeit der präsentierten Konzepte werden exemplarisch zwei Anwendungen entwickelt und mit Nutzern getestet, die eine vielseitige Verwendung von Mehr-Finger-Eingaben vorsehen. Neben einem Erkenner trainierbarer, domänenunabhängiger Skizzen wird ein System für die Texteingabe mit den Fingern bereitgestellt. Anhand von Nutzerstudien wird gezeigt, dass Multi-Touch beim Skizzieren verwendet wird, wenn es als Alternative zur Verfügung steht und die Verwendung eines Multi-Touch Gestenalphabetes im Vergleich zur Texteingabe per Single-Touch effizienteres Schreiben zulässt. Von den vorgestellten Konzepten können UI-Designer, Usability-Experten und Entwickler von Feedforward-Mechanismen zum dynamischen Lehren gestischer Eingaben gleichermaßen profitieren. Die Zerlegung einer Eingabe in Token und ihre Interpretation anhand der Zuordnung zu spezifizierten Templates lässt sich weiterhin auf benachbarte Gebiete, etwa die Offline-Erkennung von Symbolen, übertragen.
|
6 |
Template-basierte Klassifikation planarer GestenSchmidt, Michael 25 April 2014 (has links)
Pervasion of mobile devices led to a growing interest in touch-based interactions. However, multi-touch input is still restricted to direct manipulations. In current applications, gestural commands - if used at all - are only exploiting single-touch. The underlying motive for the work at hand is the conviction that a realization of advanced interaction techniques requires handy tools for supporting their interpretation. Barriers for own implementations of procedures are dismantled by providing proof of concept regarding manifold interactions, therefore, making benefits calculable to developers. Within this thesis, a recognition routine for planar, symbolic gestures is developed that can be trained by specifications of templates and does not imply restrictions to the versatility of input. To provide a flexible tool, the interpretation of a gesture is independent of its natural variances, i.e., translation, scale, rotation, and speed. Additionally, the essential number of specified templates per class is required to be small and classifications are subject to real-time criteria common in the context of typical user interactions. The gesture recognizer is based on the integration of a nearest neighbor approach into a Bayesian classification method.
Gestures are split into meaningful, elementary tokens to retrieve a set of local features that are merged by a sensor fusion process to form a global maximum-likelihood representation. Flexibility and high accuracy of the approach is empirically proven in thorough tests. Retaining all requirements, the method is extended to support the prediction of partially entered gestures. Besides more efficient input, the possible specification of direct manipulation interactions by templates is beneficial. Suitability for practical use of all provided concepts is demonstrated on the basis of two applications developed for this purpose and providing versatile options of multi-finger input. In addition to a trainable recognizer for domain-independent sketches, a multi-touch text input system is created and tested with users. It is established that multi-touch input is utilized in sketching if it is available as an alternative. Furthermore, a constructed multi-touch gesture alphabet allows for more efficient text input in comparison to its single-touch pendant. The concepts presented in this work can be of equal benefit to UI designers, usability experts, and developers of feedforward-mechanisms for dynamic training methods of gestural interactions. Likewise, a decomposition of input into tokens and its interpretation by a maximum-likelihood matching with templates is transferable to other application areas as the offline recognition of symbols. / Obwohl berührungsbasierte Interaktionen mit dem Aufkommen mobiler Geräte zunehmend Verbreitung fanden, beschränken sich Multi-Touch Eingaben größtenteils auf direkte Manipulationen. Im Bereich gestischer Kommandos finden, wenn überhaupt, nur Single-Touch Symbole Anwendung. Der vorliegenden Arbeit liegt der Gedanke zugrunde, dass die Umsetzung von Interaktionstechniken mit der Verfügbarkeit einfach zu handhabender Werkzeuge für deren Interpretation zusammenhängt. Auch kann die Hürde, eigene Techniken zu implementieren, verringert werden, wenn vielfältige Interaktionen erprobt sind und ihr Nutzen für Anwendungsentwickler abschätzbar wird. In der verfassten Dissertation wird ein Erkenner für planare, symbolische Gesten entwickelt, der über die Angabe von Templates trainiert werden kann und keine Beschränkung der Vielfalt von Eingaben auf berührungsempfindlichen Oberflächen voraussetzt. Um eine möglichst flexible Einsetzbarkeit zu gewährleisten, soll die Interpretation einer Geste unabhängig von natürlichen Varianzen - ihrer Translation, Skalierung, Rotation und Geschwindigkeit - und unter wenig spezifizierten Templates pro Klasse möglich sein. Weiterhin sind für Nutzerinteraktionen im Anwendungskontext übliche Echtzeit-Kriterien einzuhalten. Der vorgestellte Gestenerkenner basiert auf der Integration eines Nächste-Nachbar-Verfahrens in einen Ansatz der Bayes\'schen Klassifikation.
Gesten werden in elementare, bedeutungstragende Einheiten zerlegt, aus deren lokalen Merkmalen mittels eines Sensor-Fusion Prozesses eine Maximum-Likelihood-Repräsentation abgeleitet wird. Die Flexibilität und hohe Genauigkeit des statistischen Verfahrens wird in ausführlichen Tests nachgewiesen. Unter gleichbleibenden Anforderungen wird eine Erweiterung vorgestellt, die eine Prädiktion von Gesten bei partiellen Eingaben ermöglicht. Deren Nutzen liegt - neben effizienteren Eingaben - in der nachgewiesenen Möglichkeit, per Templates spezifizierte direkte Manipulationen zu interpretieren. Zur Demonstration der Praxistauglichkeit der präsentierten Konzepte werden exemplarisch zwei Anwendungen entwickelt und mit Nutzern getestet, die eine vielseitige Verwendung von Mehr-Finger-Eingaben vorsehen. Neben einem Erkenner trainierbarer, domänenunabhängiger Skizzen wird ein System für die Texteingabe mit den Fingern bereitgestellt. Anhand von Nutzerstudien wird gezeigt, dass Multi-Touch beim Skizzieren verwendet wird, wenn es als Alternative zur Verfügung steht und die Verwendung eines Multi-Touch Gestenalphabetes im Vergleich zur Texteingabe per Single-Touch effizienteres Schreiben zulässt. Von den vorgestellten Konzepten können UI-Designer, Usability-Experten und Entwickler von Feedforward-Mechanismen zum dynamischen Lehren gestischer Eingaben gleichermaßen profitieren. Die Zerlegung einer Eingabe in Token und ihre Interpretation anhand der Zuordnung zu spezifizierten Templates lässt sich weiterhin auf benachbarte Gebiete, etwa die Offline-Erkennung von Symbolen, übertragen.
|
7 |
Modelling and Analysing Orientation Fields of Fingerprints / Modellierung und Analyse der Orientierungsfelder von FingerabdrückenHotz, Thomas 10 July 2007 (has links)
No description available.
|
8 |
Energieprädiktion und Reichweitendarstellung durch Navigationsdaten im Kraftfahrzeug: Energieprädiktion und Reichweitendarstellung durch Navigationsdaten im KraftfahrzeugLamprecht, Andreas 02 May 2016 (has links)
Im Zuge der immer größer werdenden Knappheit fossiler Ressourcen und des damit verbundenen Anstiegs des Rohölpreises ergibt sich ein Trend hin zur Elektromobilität. In den nächsten Jahren werden jedoch nur Elektrofahrzeuge mit deutlich eingeschränkter maximaler Reichweite im Vergleich zu Benzin- oder Dieselfahrzeugen produziert werden können. Um den täglichen Umgang des Kunden mit einem Elektrofahrzeug trotzdem möglichst reibungslos zu ermöglichen, wurde im Rahmen dieser Arbeit eine neuartige Anzeige der verbleibenden Reichweite auf der Navigationskarte entwickelt. Nach detaillierter Analyse vorhandener Ansätze wurde je ein empirisches und ein modellbasiertes Verfahren ausgearbeitet. Die Ansätze wurden systematisch verglichen und zu einem komplett neuartigen, hybriden Ansatz kombiniert. Die auftretenden Verbräuche des Fahrzeugs werden im Kundenbetrieb erfasst, je nach Fahrsituation klassifiziert und für eine Extrapolation in der Zukunft verwendet. Die entwickelte Methodik zur Untersuchung der erreichbaren Genauigkeit ergab ein erzielbares Fehlermaß von durchschnittlich unter 10%. / Due to the prospect of a worldwide shortage of fossil fuels and the correlated increase of prices for crude-oil, a global trend to invest in electric mobility has started. During the next couple of years, electric vehicles will still have restrictions on the maximum distance that can be driven before having the need to recharge the battery. The potential costumers face the so-called „range-anxiety“, the fear to be stranded prior to reaching the destination. In order to provide a safe and easy way of operating such a vehicle, the work conducted in the course of this doctoral thesis led to a new way of displaying the remaining range of the vehicle on a navigation map. After detailed analysis of the state of the art, an empirical- and a model-based solution for calculating the remaining range were developed utilizing predictive map-data from a roadnetwork. After a systematical optimization of the developed solutions, an embedded prototype was developed which captured the driving situation of the vehicle together with the corresponding energy-consumption in order to provide a context-aware interpolation of the remaining range, depending on where the costumer would drive next. A developed methodology of objectively determining the error produced by the system resulted in a mean-deviation of 10% of absolute value.
|
9 |
Gestörte Homöostase von Inflammation und Antiinflammation bei Risikopatienten nach HerzchirurgieStrohmeyer, Jens-Christian 08 February 2006 (has links)
Kardiochirurgische Eingriffe unter Einsatz der Herzlungenmaschine führen über die Sekretion proinflammatorischer Mediatoren im allgemeinen zu einer systemischen Entzündung (SIRS). Um das Ausmaß zu begrenzen, wird diese von einer systemischen Gegenregulation (CARS) begleitet, die mit zunehmender Ausprägung den Organismus anfällig für sekundäre Infektionen macht. Septische Krankheitsbilder zählen zu den häufigsten Todesursachen auf operativen Intensivstationen mit jährlichen Kosten in Milliardenhöhe. Gerade die Früherkennung ist klinisch von größter Wichtigkeit. Bei der Suche nach neuen Infektionsmarkern ist das Verständnis der immunologischen Grundlagen eine Grundvoraussetzung. In dieser Studie sollte untersucht werden, ob das Modell "systemische Immunaktivierung - Gegenregulation mit Immundepression - hohe Infektanfälligkeit" auf Risikopatienten nach Herzchirurgie übertragen werden kann. Außerdem sollte untersucht werden, ob ein standardisiertes Immunmonitoring in der Lage ist, bei diesen Patienten Infektionen frühzeitig vor klinischer Manifestation vorherzusagen, und ob diese neuen Immunparameter konventionellen Routine-Infektionsmarkern (SIRS-Kriterien, CRP) in ihrer diskriminativen Aussagekraft überlegen sind. Die Ergebnisse zeigen, dass das Modell an diesem Patientenkollektiv bestätigt werden kann. Die Immunaktivierungsmarker total-IL-8 (nach Erythrozytenlyse), PCT und ex vivo Elastase, sowie das antiinflammatorische IL-10 im Plasma und der Immunkompetenzmarker HLA-DR auf Monozyten zeigten am 1. postoperativen Tag ein hohes diskriminatives Potential, Infektionen im 6-tägigen postoperativen Verlauf vorherzusagen. Analysen der ROC-Kurven ergaben für HLA-DR eine AUC von 0,75, die AUC von total-IL-8 betrug 0,73, ex vivo Elastase erreichte 0,72, und PCT und IL-10 kamen jeweils auf 0,68. Dagegen konnten konventionelle Infektionsmarker nicht signifikant zwischen Patienten mit versus ohne postoperativer Infektion unterscheiden (CRP), beziehungsweise errechnete sich für 2 positive SIRS-Kriterien eine AUC von nur 0,66. Durch die bei einem solchen Patientenkollektiv erstmalige Verwendung hochstandardisierter Messverfahren (exakte Quantifizierung von Oberflächenmolekülen, semi-automatisches ELISA-System) wurde neben einer besseren Quantifizierung der gestörten Homöostase zwischen Inflammation und Antiinflammation eine wichtige Voraussetzung für die klinische Etablierung dieser neuen Marker geschaffen. Auf dieser Basis lassen sich früh identifizierte Risikopatienten adjuvanten Therapieversuchen zuführen. / Basically, cardiac surgery involving cardiopulmonary bypass leads to systemic inflammation (SIRS) by the secretion of proinflammatory mediators. In order to limit its extend, systemic inflammation is associated with systemic counter-regulation (CARS), which, under some circumstances, may lead to high susceptibility of the organism to secondary infections. Septic disease is among the most common causes of death in surgical ICUs, the costs are estimated at several billion Euros per year. The early diagnosis in particular is of great importance clinically. Understanding of the immunologic principles is a basic assumption with regard to finding new markers of infection. This study was performed to determine whether the model "systemic immune activation - counter-regulation and immune depression - high susceptibility to infections" could be transferred to risk patients after cardiac surgery. In addition, a standardized immune monitoring program should be examined regarding its ability to predict infection in this patient population before clinical manifestation. It should also be determined if these new parameters have more discriminative power than conventional routine markers of infection (SIRS, CRP). The results show that this model can be confirmed in this patient collective. On the 1st postoperative day markers of immune activation, total-IL-8 (after lysis of erythrocytes), PCT and ex vivo elastase, as well as anti-inflammatory IL-10 in plasma and the marker of immune competence, HLA-DR on monocytes, have high discriminative potential to predict infections during the 6-day postoperative course. AUCs of the ROC were 0.75 for HLA-DR, 0.73 for total-IL-8, 0.72 for ex vivo elastase, 0.68 for both PCT and IL-10. On the other hand, conventional markers of infection were not able to discriminate significantly between patients with infection versus those without (CRP), or they only had an AUC of 0.66 (for 2 positive SIRS criteria). By using well-standardised laboratory methods (exact quantification of surface molecules, semi-automatic ELISA-system), which were used for the first time in such a patient collective, an important basis for clinical establishing these new markers was created, in addition to a better quantification of the immunologic unbalance (inflammation versus anti-inflammation). Thus, it is possible to supply early identificated risk patients for adjuvant therapy trials.
|
Page generated in 0.0847 seconds