• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Warenflusskontrolle in der Fairtrade Kaffee Supply Chain

Rachbauer, Thomas January 2007 (has links) (PDF)
In Zeiten zunehmend globaler Wertschöpfungsketten und damit komplexerer und intransparenter Warenströme, werden Konsumenten immer mehr bedacht darauf, einer Instanz vertrauen zu können, welche sogenannte Gütesiegel vergibt. Im Fall von FAIRTRADE handelt es sich um ein überwiegend soziales Siegel, welches für faire Löhne/Preise und menschenwürdige Arbeitsbedingungen steht. Um dieses Vertrauen zu rechtfertigen muss ein effektives Kontrollsystem für den Waren- und Geldfluss etabliert sein. 70% der österreichischen Konsumenten halten die Hersteller- bzw. Ursprungsgarantie für sehr wichtig oder wichtig für das Image von FAIRTRADE. 92% für sehr wichtig bis mittelmäßig wichtig. Diese Zahlen zeigen die Priorität der Kontrolle durch FLOCert und die Bedeutung der Qualität der Kontrolle für den "Markenwert" auf. Die rechtlichen und ökonomischen Rahmenbedingungen der heutigen Zeit legen nahe, von einer reinen expost Betrachtung der gehandelten Mengen zu einer Rückverfolgbarkeit einzelner Einheiten bzw. Chargen überzugehen. Dies wird von FAIRTRADE auch als ein langfristiges Ziel angesehen. Zu diesem Zweck sollte FLOCert aber möglichst bald die nötigen Ressourcen aufwenden, um, gemeinsam mit den Kunden (den zertifizierten Unternehmen, Kooperativen usw.) Schritte einzuleiten, welche das Netzwerk von dem derzeitigen Zustand zu einer Traceability hinführen. Dies ist eine strategische Entscheidung und somit ohnehin ein langfristiger Prozess, der aber die Allokation angemessener Mittel erfordert. In Zukunft werden stabile und verlässliche Traceabilitysysteme immer öfter zu Wettbewerbsvorteilen ganzer Supply Chains. Beispiele erfolgreicher Implementierung von Rückverfolgbarkeitssystemen mit abgestimmten Stammdaten haben gezeigt, dass sich die Produktivität und der Absatz steigern lassen, dass Fehlbestände und inkonsistente Daten reduziert werden und Geschäftsprozesse verbessert werden können.Und genau bei diesen Fragen der Datenkonsistenz, der Doppelgleisigkeiten, der Fehler bei der Eingabe durch viele klarschriftliche Angaben und zahlreicher Mensch-Maschine-Interaktionen besteht im derzeitigen System jedenfalls Verbesserungspotential. Zudem ist die Frage des Wettbewerbsvorteils für das FAIRTRADE System relevant. Auch in diesem Markt herrscht Konkurrenz, welche aufgrund der höheren Nachfrage der Kunden ständig wächst. Ein verlässliches und starkes Kontrollsystem steigert das Vertrauen der Kunden und erhöht somit den Markenwert. Auch die technologischen Entwicklungen in diesem Bereich sind dabei zu beachten. Die Radio Frequency Identification mit dem Electronic Product Code als Identifikationsnummer basiert auf der ehemaligen EAN-Nummer. Unternehmen und Supply Chains, welche den Rückverfolgbarkeitsprozess schon weitgehend implementiert haben, werden beim Umstieg auf die neue Identifikationstechnologie klar im Vorteil sein. Der EPC bietet unter anderem dem Konsumenten die Möglichkeit einzelne, individuelle Produkte einer Charge zu identifizieren und über das World Wide Web mehr produktspezifische Informationen zu erhalten. Das könnten auch Informationen zur Herkunft des Produktes bzw. zur gesamten Wertschöpfungskette sein, was gerade für ein Geschäftsmodell wie jenes von FAIRTRADE relevant wäre. Eine "virtuelle Verbindung" zwischen dem Endkonsumenten und den Kleinbauern, denen durch den Kauf dieses Produktes geholfen wird, herzustellen, könnte ein Ziel für die Zukunft sein, dessen Grundstein aber jetzt gelegt werden sollte. (Autorenref.) / Series: Schriftenreihe des Instituts für Transportwirtschaft und Logistik - Supply Chain Management
2

Hybrid Methods for the Analysis and Synthesis of Human Faces

Paier, Wolfgang 18 November 2024 (has links)
Der Trend hin zu virtueller Realität (VR) hat neues Interesse an Themen wie der Modellierung menschlicher Körper geweckt, da sich neue Möglichkeiten für Unterhaltung, Konferenzsysteme und immersive Anwendungen bieten. Diese Dissertation stellt deshalb neue Ansätze für die Erstellung animierbarer/realistischer 3D-Kopfmodelle, zur computergestützten Gesichtsanimation aus Text/Sprache sowie zum fotorealistischen Echtzeit-Rendering vor. Um die 3D-Erfassung zu vereinfachen, wird ein hybrider Ansatz genutzt, der statistische Kopfmodelle mit dynamischen Texturen kombiniert. Das Modell erfasst Kopfhaltung und großflächige Deformationen, während die Texturen feine Details und komplexe Bewegungen kodieren. Anhand der erfassten Daten wird ein generatives Modell trainiert, das realistische Gesichtsausdrücke aus einem latenten Merkmalsvektor rekonstruiert. Zudem wird eine neue neuronale Rendering-Technik presentiert, die lernt den Vordergrund (Kopf) vom Hintergrund zu trennen. Das erhöht die Flexibilität während der Inferenz (z. B. neuer Hintergrund) und vereinfacht den Trainingsprozess, da die Segmentierung nicht vorab berechnet werden muss. Ein neuer Animationsansatz ermöglicht die automatische Synthese von Gesichtsvideos auf der Grundlage weniger Trainingssequenzen. Im Gegensatz zu bestehenden Arbeiten lernt das Verfahren einen latenten Merkmalsraum, der sowohl Emotionen als auch visuelle Variationen der Sprache erfasst, während gelernte Priors Animations-Artefakte und unrealistische Kopfbewegungen minimieren. Nach dem Training ist es möglich, realistische Sprachsequenzen zu erzeugen, während der latente Stil-Raum zusätzliche Gestaltungsmöglichkeiten bietet. Die vorgestellten Methoden bilden ein Komplettsystem für die realistische 3D-Modellierung, Animation und Darstellung von menschlichen Köpfen, das den Stand der Technik übertrifft. Dies wird in verschiedenen Experimenten, Ablations-/Nutzerstudien gezeigt und ausführlich diskutiert. / The recent trend of virtual reality (VR) has sparked new interest in human body modeling by offering new possibilities for entertainment, conferencing, and immersive applications (e.g., intelligent virtual assistants). Therefore, this dissertation presents new approaches to creating animatable and realistic 3D head models, animating human faces from text/speech, and the photo-realistic rendering of head models in real-time. To simplify complex 3D face reconstruction, a hybrid approach is introduced that combines a lightweight statistical head model for 3D geometry with dynamic textures. The model captures head orientation and large-scale deformations, while textures encode fine details and complex motions. A deep variational autoencoder trained on these textured meshes learns to synthesize realistic facial expressions from a compact vector. Additionally, a new neural-rendering technique is proposed that separates the head (foreground) from the background, providing more flexibility during inference (e.g., rendering on novel backgrounds) and simplifying the training process as no segmentation masks have to be pre-computed. This dissertation also presents a new neural-network-based approach to synthesizing novel face animations based on emotional speech videos of an actor. Unlike existing works, the proposed model learns a latent animation style space that captures emotions as well as natural variations in visual speech. Additionally, learned animation priors minimize animation artifacts and unrealistic head movements. After training, the animation model offers temporally consistent editing of the animation style according to the users’ needs. Together, the presented methods provide an end-to-end system for realistic 3D modeling, animation, and rendering of human heads. Various experimental results, ablation studies, and user evaluations demonstrate that the proposed approaches outperform the state-of-the-art.
3

Fehler von Fingerabdruckerkennungssystemen im Kontext / Begreifbare Vermittlung der Fehler einer biometrischen Kontrolltechnologie

Knaut, Andrea 12 September 2017 (has links)
In dieser Arbeit werden zwei Fragen im Zusammenhang mit Fehlern von Fingerabdruckerkennungssystemen untersucht. Erstens: Welche strukturellen Merkmale und begrifflichen Implikationen hat der spezifische Fehlerdiskurs in diesem Teilgebiet der Biometrie? Zur Beantwortung dieser Frage werden im Rahmen einer diskursanalytischen Betrachtung der Fachtexte des Forschungsfeldes die gängigen Fehlertypologien der Biometrie untersucht. Die Arbeitshypothese der Analyse ist, dass der massenhafte Einsatz von Fingerabdruckerkennungssystemen im Alltag trotz aller ihrer Fehler diskursiv durchsetzungsfähig ist. Undzwar nicht unbedingt, weil die Fehler zu vernachlässigen sind, sondern weil die Angst vor „Identitätsbetrug“, die Idee einer Messbarkeit von Identität und die wirtschaftliche und politische Bedeutung von Sicherheitstechniken in einer für unsicher gehaltenen Welt große Wirkmächtigkeit haben. Es wird diskutiert, inwiefern die Auseinandersetzung mit System- und Überwindungsfehlern in der Informatik zu kurz greift. Daher wird ein erweitertes Fehlermodell vorgeschlagen, das an jüngere transdisziplinäre Fehlerforschung anknüpft und als kritisches Analyseinstrument für die Beurteilung der Wechselwirkung zwischen Informatik(-system) und Gesellschaft genutzt werden kann. Zweitens: Wie lassen sich die diskursanalytische Methode und ein experimentelles Hands-On-Lernen zu einem Lern- und Lehrkonzept verbinden, dass eine kritische Vermittlung der Probleme von Fingerabdruckerkennungssystemen ermöglicht? Ausgehend von schulischen Unterrichtskonzepten einer an der Lebenswelt orientierten Informatiklehre sowie der Idee des „be-greifbaren Lernens“ an konkreten Gegenständen wurde ein Lern- und Lehrkonzept für Universität und Schule entwickelt und in drei verschiedenen Institutionen ausprobiert. / In this paper two questions will be addressed relating to deficits in fingerprint recognition systems. Firstly, what structural features and conceptual implications does the analysis of errors have in the field of biometrics? To answer this question, the common error types in biometrics will be examined, as part of an analytical discourse taking into consideration technical texts from the research field. The working hypothesis of this analysis is that the structure of the discourse surrounding fingerprint recognition systems would present no barriers to their widespread implementation in everyday life despite all their faults – not because their shortcomings are negligible but due to the great potency of the fear of “identity fraud”, the notion that identity can be measured, and the economic and political importance of security technologies in a world deemed unsafe. It will be discussed how the examination of system errors and spoofing attacks in computer science falls short in addressing the whole picture of failing fingerprint recognition systems. Therefore an extended error model will be proposed, one which builds on recent transdisciplinary error research and which can be used as a critical tool for analysing and assessing the interaction between computer systems and society. Secondly, how could the analytical discourse method and experimental hands-on learning be combined into a teaching concept that would enable critical teaching of the problems of fingerprint recognition systems? Starting from the school-based teaching concepts of a theory of computer science based on real life and the idea of “hands-on learning” using concrete objects, a teaching concept for universities and schools has been developed and tested in three different institutions.

Page generated in 0.0185 seconds