• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 6
  • 4
  • 2
  • 1
  • Tagged with
  • 39
  • 39
  • 39
  • 13
  • 13
  • 10
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

From ‘touch’ to a ‘multisensory’ experience: The impact of technology interface and product type on consumer responses

Mishra, A., Shukla, A., Rana, Nripendra P., Dwivedi, Y.K. 13 November 2020 (has links)
Yes / Online retailers are increasingly using augmented reality (AR) and virtual reality (VR) technologies to solve mental and physical intangibility issues in a product evaluation. Moreover, the technologies are easily available and accessible to consumers via their smartphones. The authors conducted three experiments to examine consumer responses to technology interfaces (AR/VR and mobile apps) for hedonic and utilitarian products. The results show that AR is easier to use (vs. app), and users find AR more responsive when buying a hedonic (vs. utilitarian) product. Touch interface users are likely to have a more satisfying experience and greater recommendation intentions, as compared to AR, for buying utilitarian products. In contrast, a multisensory environment (AR) results in a better user experience for purchasing a hedonic product. Moreover, multisensory technologies lead to higher visual appeal, emotional appeal, and purchase intentions. The research contributes to the literature on computer-mediated interactions in a multisensory environment and proposes actionable recommendations to online marketers.
12

Nutzerzentrierte Entwicklung einer ortsunabhängigen Maschinenabnahme mittels Augmented Reality

Kovacevic, Nedim, Meinzer, Jantje, Stark, Rainer 06 September 2021 (has links)
Die Nutzung von Augmented Reality (AR) stellt eine Vielzahl von Lösungsansätzen für Herausforderungen unterschiedlicher Bereiche, z.B. der Industrie, Medizin, Unterhaltungsmedien und Bildung, zur Verfügung. Speziell werden hier die Möglichkeiten von AR in der Fertigungsindustrie, genauer bei der Abnahme elektrischer Antriebe der Siemens AG, betrachtet. Dabei werden unter anderem messbare Größen wie Drehmoment, Ankerstrom, -spannung, Drehzahl, Schwingungen, Fertigungstoleranzen etc. gemessen, aber auch nicht quantifizierbare Größen wie Sichtprüfungen von Schweißnähten und Lackierung in Betracht gezogen. Angestrebt wird eine Methode, welche es zukünftig ermöglicht, die Inbetriebnahme ortsunabhängig zu verfolgen und Inspektionen aus der Ferne durchzuführen. Die Herausforderung liegt dabei darin, eine zumindest gleichwertige, wenn nicht sogar verbesserte Erfahrung und Prüfergebnisvalidität für die Beteiligten gegenüber der vor Ort Abnahme zu erzeugen. Im Rahmen des Forschungsvorhabens wurde in interdisziplinärer Zusammenarbeit zwischen Ingenieur/-innen und Sozialwissenschaftler/-innen ein Demonstrator-Konzept für eine ortsunabhängige Maschinenabnahme entwickelt.
13

Multikamerabasiertes Verfahren zur Fokusebenenbestimmung für eine AR-Datenbrille mit adaptiver Optik

Penzel, Markus 12 June 2019 (has links)
Logistikmitarbeiter können mit Augmented-Reality-Datenbrillen ausgerüstet werden, um relevante Daten in ihr Sichtfeld einblenden zu lassen. Mithilfe moderner Datenbrillen können Visualisierungen dabei aufgrund der Brennweitendifferenz zwischen dem menschlichen Auge und der Datenbrillenoptik meist nur auf definierte Entfernungen scharf dargestellt werden. Ein Angleich der Brennweite der Optik an die Brennweite des Auges ermöglicht eine scharfe Darstellung der Inhalte innerhalb des Griffbereiches des Mitarbeiters. Zur Realisierung dieses Ansatzes wird in dieser Arbeit ein multikamerabasiertes Verfahren zur automatischen Adaptierung der Optikbrennweite vorgeschlagen. Für die Brennweitenadaptierung wird ein Ansatz zur Pupillendetektion in Kombination mit einer 3D-Umgebungskamera vorgestellt. Da geläufige Algorithmen zur Pupillendetektion nicht für die Verwendung auf eingebetteten Systemen optimiert sind, wird der Schwerpunkt auf die Entwicklung eines geeigneten ressourcenarmen Algorithmus gelegt. Die nötige Relation zwischen dem menschlichen Auge und der 3D-Kamera wird dabei über einen Ansatz der mehrstufigen Ebenenkalibrierung realisiert. Die gewonnenen 3D-Tiefeninformationen werden anschließend mithilfe einer adaptiven Flüssiglinse zur Brennweitenjustierung der Optik genutzt. Da aktuell keine Datenbrillen mit den genannten Komponenten erhältlich sind, wurde eine eigenes Konzept realisiert. Die später beabsichtigte Anwendung soll dem Nutzer dabei Informationen zur Umsetzung aktueller Aufgaben anzeigen und diese direkt auf die Brennweite des Auges anpassen, um dessen kognitive Belastung zu reduzieren.:1 Einleitung 1 1.1 Aktueller Stand der Technik 2 1.2 Systemübersicht 6 1.3 Inhaltliche Gliederung 8 1.4 Wissenschaftlicher Beitrag 9 2 Theoretische Vorbetrachtungen 11 2.1 Augmentierte Realität 11 2.1.1 Übersicht 11 2.1.2 Videoaufnahme in Echtzeit 13 2.1.3 Tracking 13 2.1.4 Registrierung 15 2.1.5 Visuelle Ausgabemöglichkeiten 16 2.1.6 Eye-Tracking in AR 17 2.2 Das menschliche Auge 18 2.2.1 Anatomie 19 2.2.2 Das Auge als dioptrischer Apparat 22 2.2.3 Die Pupille 25 2.2.4 Verhaltensanalyse des Auges 26 2.2.5 Die retinale Signalverarbeitung 27 2.3 3D-Umgebungen 29 2.3.1 Kameramodell 29 2.3.2 Stereoskopie 32 2.3.3 Strukturiertes Licht 37 2.3.4 Time of Flight 39 3 Entwurf einer AR-Datenbrille mit blickpunktabhängiger Brennweitenadaptierung 42 3.1 Gesamtsystem 42 3.2 Infrarotbeleuchtung für die Eye-Tracking-Kamera 44 3.2.1 Gefährdung der Kornea durch IR-A Strahlen 47 3.2.2 Thermische Netzhautgefährdung – schwacher visueller Reiz 48 3.2.3 Überprüfung der Einhaltung der Grenzwerte der selektierten IR-LED 50 3.3 Optisches System 53 3.4 Adaptive Linse 55 3.5 3D-Umgebungskamera 56 3.6 Recheneinheit 58 4 Eye-Tracking 59 4.1 Einleitung 59 4.2 Voruntersuchungen 64 4.3 Eye-Tracking-Algorithmus „Fast Ellipse Fitting “(FEF) 67 4.3.1 Stand der Forschung 67 4.3.2 Übersicht 69 4.3.3 Schwellwertapproximation 70 4.3.4 ROI-Findung / hochaufgelöste Schwellwertsuche 72 4.3.5 Pupillendetektion 75 4.3.6 Anfälligkeiten 76 4.4 Validierung 81 4.5 Zusammenfassung 85 4.6 Diskussion 86 5 Blickpunktschätzung 87 5.1 Einleitung 87 5.2 2D-Blickpunktschätzung 89 5.2.1 Einleitung 89 5.2.2 Evaluierung 92 5.3 3D-Blickpunktschätzung 100 5.3.1 Stand der Technik 100 5.3.2 Aufnahme von Kalibrierungspunkten im 3D-Raum 103 5.3.3 Algorithmen zur 3D-Blickpunktschätzung 104 5.3.4 Evaluierung 108 5.4 Zusammenfassung 111 5.5 Diskussion 111 6 Blickpunktanalyse 113 6.1 Filterung der Augenbewegungen/Glint-Vektoren 113 6.1.1 Stand der Forschung 113 6.1.2 Glättung der Glint-Vektoren 116 6.2 Blickpunktauswertung 117 6.2.1 Display-Steuerung 119 6.2.2 Eye-Tracking zur Informationsergänzung 125 6.2.3 Validierung der 3D-Blickpunktschätzung 131 6.3 Zusammenfassung 135 6.4 Diskussion 136 7 Zusammenfassung 138 8 Ausblick 140 9 Literaturverzeichnis 142 A Anhang 151
14

Förbättrat informationsflöde med hjälp av Augmented Reality

Almqvist, Daniel, Jansson, Magnus January 2015 (has links)
Augmented Reality är en teknik för att förstärka verkligheten, där digitala objekt placeras framför bilder eller liknande genom att använda kameran på den mobila enhet. Eftersom det finns flera olika metoder att använda Augmented Reality-tekniken har undersökningar och efterforskningar inom området gjorts. Ett exempel på ett område där denna teknik går att använda är reklam. Reklam är något som alla dagligen möts av, men oftast kan ses som tråkiga eller är något många inte lägger märke till. Genom en Augmented Reality prototyp kan användaren registrera respektive mönster eller tal och hämta nödvändig data från en databas. Sedan skapas en interaktiv händelse som visar informationen på ett unikt sätt, där alla, även de funktionshindrade kan ta del av den information de oftast saknar. Denna interaktiva händelse ger även liv till de tidigare tråkiga reklam- eller informationsaffischer. Resultatet av rapporten är en prototyp på mobila plattformen Android som använder Augmented Reality-tekniken och har många funktioner. Den kan acceptera röstigenkänning för att registrera det som talas in och utifrån specifika nyckelord kan prototypen ge information om nyckelordet. Testningen av denna prototyp visar att många är positiva i användningen av prototypen och ser det som ett intressant sätt att få ut informationen. Personerna som har testat prototypen kan tänka sig att använda prototypen själva för att få ut sin egna reklam på ett unikt och lockande sätt. / Augmented Reality is a technology where an object is introduced in front of a picture or a similar media using the camera on a mobile device. There are several different ways to use the Augmented Reality technology, research in the field has therefore been made. An example of an area where the technology can be used is advertisement. Since advertisement is something everyone is confronted with daily, but usually the advertisement can be seen as boring or is something many do not even notice. Through a Augmented Reality prototype, users can register both patterns and speech and get the required data from a database. It can create an interactive event that displays the information in a unique way, where everyone, even people with disabilities can take part of the information they usually can not take part of. This interactive event gives life to the previously tedious advertisement or information posters. The result of the report is a prototype on the mobile platform Android using Augmented Reality technology and the prototype has many features. It can use voice recognition and keywords to access additional information about the keyword. The testing of this prototype shows that many are in favour of the use of the prototype and they see it as an interesting way to get the information. That is why they are willing use the application themselves to get their own advertising in a unique and appealing way.
15

Entwicklung einer Schnittstelle zur Visualisierung von Brandsimulationen im virtuellen Raum

Nabrotzky, Toni 22 December 2023 (has links)
Die Digitalisierung im Bauwesen schreitet immer weiter voran und während in diesem Zusammenhang oftmals das Stichwort Building Information Modeling (BIM) fällt, entwickeln sich Disziplinen wie das Brandschutzingenieurwesen (BSI) unabhängig weiter. Das Brandschutzbüro Brandschutz Consult Ingenieurgesellschaft mbH Leipzig (BCL) verwendet das BSI, um ingenieurtechnische Verfahren heranzuziehen. BCL verfolgt als Unternehmensphilosophie das Ziel, mit neuen Methoden und Erkenntnissen ständig die eigenen Prozesse zu optimieren und zu erweitern. Unter diesem Gesichtspunkt soll in dieser Arbeit in Kooperation mit BCL untersucht werden, inwieweit sich die Ergebnisse aus einer Brandsimulation, darunter besonders der Rauch, in einer virtuellen Realität (engl. Virtual Reality (VR)) darstellen und in bestehende oder potenzielle Anwendungsfälle integrieren lassen. Dazu soll zunächst mit einer Betrachtung der brandschutztechnischen Grundlagen inklusive des BSIs und einer Analyse zum Stand des Brandschutzes in BIM begonnen werden. Im nächsten Schritt sind für die Brandsimulation bestimmte Fragen zu klären, wie z.B. eine entsprechende Berechnung technisch abläuft und welche Ausgabedaten und -formate eine solche Simulation bereitstellt. Zur Darstellung der Simulationsergebnisse in virtuellen Realitäten werden Grafik.Engines benötigt, die VR-Anwendungen ermöglichen. Wichtige Untersuchungsgegenstände sind z.B. die anwendbaren Programmier- und Skriptsprachen, mit deren Einsatz die Daten eingelesen und visualisiert werden können. Für die gefundenen Grafik-Engines wird dann recherchiert, ob es bereits bestehende Anwendungen oder Prozesse zur Darstellung von Brandsimulationen gibt. Ist dies der Fall, sollen deren Workflows untersucht werden, um anschließend ihre grundsätzliche Einsatzfähigkeit zu bewerten und Verbesserungsvorschläge zu äußern...:1. Prozesse im Brandschutz 1.1. Brandschutztechnische Grundlagen 1.2. Angewandte Ingenieurmethoden 1.3. Brandschutz mit Building Information Modeling 2. Ablauf einer Brandsimulation 2.1. Verfügbare Software 2.2. Aufbau einer FDS-Eingabedatei 2.3. Generieren von Simulationsdaten in FDS 2.4. Ausgabedaten und -formate 3. Software zur Darstellung in VR 3.1. Blender 3.2. Unity Engine 3.3. Unreal Engine 3.4. Vergleich der Engines 4. Visualisierung der Brandsimulation 4.1. Konzept der Datenübertragung 4.2. Bestehende Workflows für VR-Programme 4.3. Versuchsdurchführung 4.4. Auswertung der Versuche 5. Anwendungsfälle und Optimierungspotenzial 5.1. Potenzielle Einsatzmöglichkeiten 5.2. Optimierungspotenzial 6. Fazit A. Beispielmodell Blender B. Beispielmodell VRSmokeVis C. Prüfmodell Abkürzungsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Literaturverzeichnis / Digitization in the construction industry is progressing and while the keyword Building Information Modeling (BIM) is frequently mentioned, disciplines like the fire safety engineering are also evolving independently. The fire protection office Brandschutz Consult Ingenieurgesellschaft mbH Leipzig (BCL)) uses fire safety engineering for including engineering procedures. As a corporate philosophy BCL pursues the goal of constantly optimizing and expanding its own processes with new methods and scientific findings. From this point of view, in cooperation with BCL, this master thesis will examine to which extent it is possible to visualize the results of a fire simulation, in particular including the smoke, in Virtual Reality (VR) and to integrate them into existing or evolving applications. For this purpose, a consideration of the fire protection basics including fire protection engineering and an analysis of the status of fire protection in BIM has been started. In the next step the fire simulation must be investigated, i.e. how the corresponding calculation technically works and which output data and formats such a simulation provides. Graphic engines that enable VR applications are required to display the simulation results in VR. Important objects of investigation are e.g. the applicable programming and scripting languages. Those scripting languages are used to import and visualize the data. For the graphic engines found, research is initiated to determine whether there are already existing applications or processes for displaying fire simulations. If this is the case these workflows should be examined in order to subsequently evaluate their fundamental usability and to express suggestions for improvement. If possible, some of the optimizations should be carried out. Based on the existing processes in fire protection helpful application options are derived, for which the use must be proven in future projects.:1. Prozesse im Brandschutz 1.1. Brandschutztechnische Grundlagen 1.2. Angewandte Ingenieurmethoden 1.3. Brandschutz mit Building Information Modeling 2. Ablauf einer Brandsimulation 2.1. Verfügbare Software 2.2. Aufbau einer FDS-Eingabedatei 2.3. Generieren von Simulationsdaten in FDS 2.4. Ausgabedaten und -formate 3. Software zur Darstellung in VR 3.1. Blender 3.2. Unity Engine 3.3. Unreal Engine 3.4. Vergleich der Engines 4. Visualisierung der Brandsimulation 4.1. Konzept der Datenübertragung 4.2. Bestehende Workflows für VR-Programme 4.3. Versuchsdurchführung 4.4. Auswertung der Versuche 5. Anwendungsfälle und Optimierungspotenzial 5.1. Potenzielle Einsatzmöglichkeiten 5.2. Optimierungspotenzial 6. Fazit A. Beispielmodell Blender B. Beispielmodell VRSmokeVis C. Prüfmodell Abkürzungsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Literaturverzeichnis
16

Integration of Head-Up Display Technology as an Assisting Tool for Paramedics / Integration av head-up display teknik som ett hjälpmedel för ambulanspersonal

Tran, Quoc Huy Martin January 2022 (has links)
When paramedics arrive at an accident site there are a lot of complex variables that they must keep in mind when making decisions. Thus, a problem of too much information presented at once makes the decision-making harder. To aid paramedics, smart glasses can be used to streamline the workflow and present relevant information immediately. Attempts at implementing smart glasses within prehospital care have previously been made. However, with no extensive research regarding what an implementation of how the user interface could look like has been presented. In addition, providing paramedics with optimal information to aid in decision making. Thus the goal of this thesis is to develop an Android application for the Google Glass Enterprise Edition 2 to visualise a patient's vital signs to aid paramedics to focus more on treating the patient. A limitation of the project was to only focus on the visualisation of the following vital parameters were focused: pulse from ECG, SpO2, EtCO2, and NiBP. To determine what would be demanded from the application, interviews with paramedics of varying seniority ranging from 7 to 23 years experience, were conducted. The paramedics interviewed were from different regions within Sweden and the UK. This gave a generalised understanding of how paramedics work and what would be desired by paramedics from smart glasses as an assisting tool. The Android application used a Wi-Fi Direct connection with the MobiMed Patient Unit which was transmitting the patient's vital sign data. The data was packaged in a JSON file and then transmitted over User Datagram Protocol to the Google Glass. The data was visualised with a focused layout of only one vital sign showing. In addition, a dual view where two vitals are shown simultaneously was created. The implementation was then run through different experiments to ensure that the glasses would be able to perform under relevant circumstances that could occur at an accident site. Finally, several topics for future development and use cases for the project in pre-hospital and hospital care were explored. / När ambulanspersonal anländer till en olycksplats finns många komplexa variabler som bör beaktas vid fattande av ett avgörande beslut. Genom detta uppstår ett problem där ett överflöde av information presenteras samtidigt vilket försvårar beslutstagande. För att lösa detta introduceras smarta glasögon då det kan effektivisera arbetet och medföra relevant information med en gång. Försök att implementera smarta glasögon inom den prehospitala vården har tidigare gjorts. Men utan omfattande forskning om hur en implementering skulle se ut samt att tillföra ambulanspersonal med information för att underlätta deras beslutsfattande har tidigare gjorts. Därför är målet med detta examensarbete att utveckla en Android-applikation för Google Glass för att visualisera en patients vitalparametrar för att hjälpa ambulanspersonal att fokusera mer på att behandla patienten. För att avgränsa projektet fokuserades visualisering på följande patient parametrarna; puls från EKG, SpO2, EtCO2, och NiBP. För att avgöra vad som skulle krävas från ambulanspersonalen så utfördes en intervjustudie med personal av varierande tjänstgöringstid från 7 till 23 år. Ambulanspersonalen som intervjuades var från olika län i Sverige och Storbritannien. Detta gav en generaliserad förståelse för hur ambulanspersonal arbetar och vad som skulle önskas av ambulanspersonal från smarta glasögon som ett hjälpmedel. Android-applikationen som skapades använde en Wi-Fi Direct-anslutning med MobiMed patientenheten som överför patientens vitalparametrar. Informationen paketerades i en JSON-fil och överfördes sedan via UDP till Google Glass. Data visualiserades med en fokuserad design där endast en parameter visas. Dessutom skapades en dubbelparameter design där två parametrar visas samtidigt. Implementeringen kördes sedan genom olika experiment för att säkerställa att glasögonen skulle kunna prestera under vissa omständigheter som skulle kunna inträffa vid vårdtillfällen. Slutligen undersöktes framtida utvecklingsarbeten och användningsfall för projektet.
17

User experience in mobile augmented reality applications : The digital native perspective

Hellsten, Johanna, Knape, Annie, Simberg, Sofi January 2018 (has links)
Characteristic for upcoming technology is that it is growing, constantly developing and fast implemented in people's lives. Augmented reality (AR) is one of these technologies and more companies are implementing AR in their daily operations. AR can be described as a large amount of data, being transformed into images that are attached to the real world. The technique takes digital images and applies it to the reality through a mobiles camera lens. When used for mobile application it is called mobile augmented reality (MAR). MAR applications are expected to be as successful as smartphones was when it was first released. The revenue is set to be over $120 billion dollars by 2020. Even though it sees huge potential, few studies are done on user experience (UX) and satisfaction for the end user. This information could be a crucial asset for AR stakeholders in the prosperous future. A generation of interest for technology stakeholders is the digital natives who are people born between 1980 and 2000. They have been brought up with technology and they are comfortable with adapting to new technologies and they are not late on trying them out. This study combined the three fields of interest, MAR, UX and the digital natives, for the purpose to develop knowledge of what factors within UX that digital natives’ value as most important for a MAR application. A quantitative method with an inductive approach were used to answer the research question. The researchers used a questionnaire to collect the data that was later analyzed with the help of Google Forms, Microsoft Excel and SPSS. Predetermined factors from a theoretical framework was presented to the participants of the study; perspicuity (easy to learn, easy to understand), dependability (predictable, secure), efficiency (fast, organized), novelty (creative, innovative) and stimulation (exiting, interesting). The study concluded that perspicuity, novelty and efficiency were the most important factors of UX in MAR applications according to the digital natives.
18

Non-photorealistic rendering with coherence for augmented reality

Chen, Jiajian 16 July 2012 (has links)
A seamless blending of the real and virtual worlds is key to increased immersion and improved user experiences for augmented reality (AR). Photorealistic and non-photorealistic rendering (NPR) are two ways to achieve this goal. Non-photorealistic rendering creates an abstract and stylized version of both the real and virtual world, making them indistinguishable. This could be particularly useful in some applications (e.g., AR/VR aided machine repair, or for virtual medical surgery) or for certain AR games with artistic stylization. Achieving temporal coherence is a key challenge for all NPR algorithms. Rendered results are temporally coherent when each frame smoothly and seamlessly transitions to the next one without visual flickering or artifacts that distract the eye from perceived smoothness. NPR algorithms with coherence are interesting in both general computer graphics and AR/VR areas. Rendering stylized AR without coherence processing causes the final results to be visually distracting. While various NPR algorithms with coherence support have been proposed in general graphics community for video processing, many of these algorithms require thorough analysis of all frames of the input video and cannot be directly applied to real-time AR applications. We have investigated existing NPR algorithms with coherence in both general graphics and AR/VR areas. These algorithms are divided into two categories: Model Space and Image Space. We present several NPR algorithms with coherence for AR: a watercolor inspired NPR algorithm, a painterly rendering algorithm, and NPR algorithms in the model space that can support several styling effects.
19

Zařízení pro interakci v rozšířené realitě / Interaction Device for Augmented Reality

Pavlenko, Peter January 2017 (has links)
This master thesis explores interactive augmented reality. The aim is to design, create andtest device, which allows interaction between user and augmented reality. First analyzesaugmented reality, devices for its displaying and necessary calibration methods. Then, onthe basis of acquired knowledge, shows design and construction of few prototypes of devicelike this. Finally it shows experiments to test correctness of the concept.
20

Young adults' adoption to fashion brands use of extended reality technologies such as Virtual Clothing

Mohamed Issak, Fahmo, Jamaleddine, Ghina January 2022 (has links)
Background: There is a noticeable digital shift in the fashion industry. COVID-19 Pandemic has acted as a great accelerator to the digital shift. Specifically retail is one of the industries that has grown more digitally oriented as a result of the global pandemic that hit the world in 2020 (Moneta & Sinclair, 2020). Extended reality technologies (XR) are major components of modern technologies. VR and AR, that fall under XR are being incorporated into the fashion media ecosystem, with the use of different applications (Silvestri, 2020). With the help of XR technology, virtual clothing was introduced to the consumers, which is the intersection of fashion and technology.  Purpose: In order to fill the gaps of literature, the purpose of this paper is to examine how young adults are adopting the brand’s use of extended reality technologies (XR), but specifically, their willingness to adopt virtual clothing.  Method: A qualitative approach was used which followed an interpretivist research philosophy. It included in-depth semi-structured interviews with 12 participants aged between 20-35. The general analytical approach was used to analyze the collected data, and the empirical findings were discussed in relation to the frame of reference.  Conclusion: The findings suggest young adults' adoption to brands' use of extended realities, specifically Virtual clothing is limited due to the lack of knowledge about those technologies. However there are clear signs indicating that they would adopt it in the future if it becomes a norm.

Page generated in 0.1217 seconds