• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 69
  • 36
  • 21
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 281
  • 201
  • 39
  • 32
  • 28
  • 26
  • 26
  • 25
  • 24
  • 21
  • 21
  • 20
  • 20
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Filmklippningens inverkan : För att konstruera overklighet / Film Cutting : To construct fantasy

Olofsson, Emil January 2021 (has links)
Den surrealistiska thrillern I´m thinking of ending things av Charlie Kaufman hade premiär på Netflix hösten 2020. Långfilmens narrativ är en utspelad fantasi och innehåller flera inslag som framställs och kan betraktas som verklighetsfrånvända. Syftet med uppsatsen var att undersöka hur overkligheten framställs genom filmklippning och hur kamerapositionering används för att skapa ett fantasi-perspektiv. Klipp-metoder diskuterade av bland annat Bordwell och Thompson, Karen Pearlman och Walter Murch ligger till grund för en audiovisuell analys. Resultatet visar att några av valda sekvenser bryter mot konventionella klippmetoder för att generera konflikt i betraktarens förväntningar. Temporala förvrängningar används för att skapa illusion och fungerar även väl för att skildra fantasi/dröm. / I´m thinking of ending things by Charlie Kaufman premiered on Netflix in the fall of 2020. The featurefilm is a surrealistic thriller who´s narrative is played out like a fantasy containing several elements deviating from reality. The purpose of the essay was to investigate how unreality is portrayled trough the film editing and how camera work is used to create a fantasy perspective. Editing methods discussed by Bordwell and Thompson, Karen Pearlman and Walter Murch, among others, form the basis for an audiovisual analysis. The result shows that several of the selected sequences violate conventional editing to generate conflict of expectations. The use of temporal distortions works as a tool for illusion and to portray dream/fantasy.
252

Security creating technology for elderly care / Trygghetsskapande Teknik för äldreomsorgen

Bengtsson, Robin January 2020 (has links)
The aging population is growing and as more elderly need nursing the demand on elderly care is increasing. There is a risk of not having enough staff in an industry that already lacks educated staff. Many of the employees also complain that they are stressed out. This has led to an increasing number of gadgets and tools used within elderly care but not without problems. The technologies have been criticized for being designed to fit the need of the people in control rather than the elderly and the caregivers. This thesis has mapped the situation within todays elderly care and provided a solution to those needs and problems found. The focus has been to make a design that is fit for the elderly and the caregivers. The project has been made with a human centered design approach by letting elderly and caregivers participate in the process. A keystone has been to make the solution emit a sense of coherence for the elderly. The result is a radar unit which scans for blood pressure, respiration, pulse, and falls. The radar can be complimented with a camera to provide even more security. The achieved result can bring a sense of coherence for the elderly but needs to be further tested in order to prove it. This work can be used for future studies.
253

Spolehlivé systémy zpracování obrazu / Reliable visual systems

Honec, Peter January 2009 (has links)
The Doctoral thesis demonstrates the design of reliable industrial visual systems. The special emphasis is dedicated to the detection of defects on webs in industrial applications based on line-scan cameras. This system makes possible detection and classification of defects originating during the real production conditions. This work covers a theoretical study of a visual system for the defect detection on endless bands as well as of appropriate lighting and the scene arrangement. Further to that have been selected, adjusted and designed key components of hardware. Following the design and optimization of algorithms a system prototype had been installed on non-woven textiles production line. Eight visual systems implemented into real-life industrial conditions based on this prototype
254

Pokročilý editor 3D scény / Advanced Editor of 3D Scene

Bišof, Martin January 2009 (has links)
This work describes important periods of making application on editing 3D scene. It concerns a program which makes possible visualization of objects and simulation graphic scene. The introduction of this document is dedicated to theorical analysis, which is oriented on objects presentation in computer graphic with detailed orientation on Boundary Representation. The following chapter is about transformations and manipulators. Design part introduces basic problems and apprises with exercise solutions on general level. In the part of the implementation, we find detailed description of actual solution for particular phase of proposal. It states description of advanced camera system and transformation of objects by the help of graphic manipulators. The next chapter discuss implement effects, modifications and solution for graphical user interface.
255

Map Based Sensor Fusion for Lane Boundary Estimation on ADAS / Sensorfusion med Kartdata för Estimering av Körfältsgränser på ADAS

Faghi, Puya January 2023 (has links)
A vehicles ability to detect and estimate its surroundings is important for ensuring the safety of the vehicle and passengers regardless of the level of vehicle autonomy. With an improved road and lane estimation, advanced driver-assistance systems will be able to provide earlier and more accurate warnings and actions to prevent a possible accident. Current lane boundary estimations rely on camera and inertial sensor data to detect and estimate relevant lane boundaries in the vehicles surroundings. The current lane boundary estimation system struggles to provide correct estimations at distances exceeding 75 meters and has a performance which is affected by environmental effects. The methods in this thesis show how map data, together with sensor fusion with radar, camera, inertial measurement unit and global navigation satellite system data is able to provide an improvement to the lane boundary estimations. The map based estimation system is implemented and evaluated for high speed roads (highways and country roads) where lane boundary estimations for distances above 75 meters are needed. The results are conducted in a simulate environment and show how the map based system is able to correct unreliable sensor input to provide more precise boundary estimations. The map based system is also able to provide an up to 36% relative increase in correctly identified objects within ego vehicles lane between 12.5-150 meters in front of ego vehicle. The results indicate the ability to extend the horizon in which driver-assistance functions are able to operate, thus increasing the safety of future autonomous or semi-autonomous vehicles. Future work within the subject is needed to apply map based estimations on urban areas. The precision of such an system also relies on precise positional data. Incorporation of more precise global navigation data would be able to show an increased performance. / Ett fordons förmåga att upptäcka och uppskatta sin omgivning är viktig för att säkerställa fordonets och passagerarnas säkerhet oavsett fordonets autonominivå. Med en förbättrad väg- och körfältsuppskattning kommer avancerade förarassistanssystem att kunna ge tidigare och mer exakta varningar och åtgärder för att förhindra en eventuell olycka. Aktuella estimeringar av körfältsgränser är beroende av kamera och tröghetssensordata för att upptäcka och uppskatta relevanta körfältsgränser i fordonets omgivning. Det nuvarande estimerings-systemet upvisar inkorrekta uppskattningar på avstånd över 75 meter och har en prestanda som påverkas av den omgivande miljön. Metoderna i detta examensarbete visar hur kartdata, tillsammans med sensorfusion av radar, kamera, tröghetsmätenhet och globala satellitnavigeringsdata, kan ge en förbättrad estimering av körfältsgränser. Det kartbaserade systemet är implementerat och utvärderat för höghastighetsvägar (motorvägar och landsvägar) där estimeringar av körfältsgränser för avstånd över 75 meter behövs. Resultaten utförs i en simulerad miljö och visar hur det kartbaserade systemet kan korrigera opålitlig sensorinmatning för att ge mer exakta gränsuppskattningar. Systemet kan också ge en upp till 36% relativ ökning av korrekt identifierade objekt inom ego-fordonets körfält mellan 12.5-150 meter framför ego-fordonet. Resultaten indikerar förmågan att förlänga horisonten som förarassistansfunktioner kan fungera i, vilket ökar säkerheten för framtida autonoma eller halvautonoma fordon. Framtida arbeten inom ämnet behövs för att tillämpa kartbaserade uppskattningar på tätorter. Precisionen hos ett sådant system är också beroende av mer exakt positionsdata. Inkorporering av mer exakt global navigationsdata skulle i detta fall kunna visa en ökad sytemprestanda.
256

Research on the Use of Smartphone Technologies in the Field of Interactive Fitness Apps : How can we learn more about a user’s physical condition? / Undersökning om användning av smartphone-teknik på området interaktiva fitnessappar : Hur kan vi lära oss mer om en användares fysiska kondition?

Heim, Felix January 2022 (has links)
Interactive Ątness apps can motivate people to lead an active lifestyle. However, it is not yet fully understood how smartphone data collected during exercise is related to the user's actual physical condition. The aim of this work is to investigate in what way and how accurately fitness-related parameters can be estimated using a smartphone. To achieve this, three separate tests were conducted: The first test examined how acceleration data (external intensity) and % of heart rate reserve (internal intensity) correlate with each other during three different exercises (bodyweight squats, jumping jacks, and standing mountain climbers). Results (n=6) show that regardless of accelerometer position, there is a moderate to strong correlation between internal and external intensity for squats (r=0.656-0.789) and mountain climbers (r=0.592-0.782), and a weak to moderate correlation for jumping jacks (r=0.291-0.587). The second test determined how accurately heart rate can be estimated with a smartphone camera (contactless and contact-based). Heart rate was determined simultaneously with a heart rate monitor and a smartphone. The mean absolute error of the contact-based method (n=120) was 5.42 ± 1.44 beats per minute. The mean absolute error of the contactless method (n=30) was 3.60 ± 0.81. However, the contactless method did not provide reliable readings for heart rates above the resting level. The third test evaluated how accurately a VO2max test, in this case, the 3-minute step-in-place test, can be monitored with a smartphone. The results show that step count could be computed from a video recording with a mean absolute error of 2.69 ± 1.89 steps per minute. The knee height could be distinguished as high or low in 98% of cases (n=4). The results of this work can help developers create highly personalized and meaningful fitness apps. / Interaktiva fitnessappar kan motivera människor till att leva en aktiv livsstil. Det är dock ännu inte helt klarlagt hur smartphone-data som samlas in under träning är relaterad till användarens faktiska fysiska tillstånd. Syftet med det här arbetet är att undersöka på vilket sätt och hur exakt konditionsrelaterade parametrar kan mätas med hjälp av en smartphone. För att uppnå detta genomfördes tre separata test: Det första testet undersökte hur accelerationsdata (extern intensitet) och % av hjärtfrekvensreserven (intern intensitet) korrelerar med varandra under tre olika övningar (knäböj med kroppsvikt, jumping jacks och stående mountain climbers). Resultaten (n=6) visar att oavsett accelerometerposition finns det en måttlig till stark korrelation mellan intern och extern intensitet för knäböjningar (r=0,656-0,789) och mountain climbers (r=0,592-0,782), samt en svag till måttlig korrelation för jumping jacks (r=0,291-0,587). Det andra testet fastställde hur exakt hjärtfrekvensen kan mätas med en smartphone-kamera (kontaktlös och kontaktbaserad). Hjärtfrekvensen mättes samtidigt med en pulsmätare och en smartphone. Det genomsnittliga absoluta felet för den kontaktbaserade metoden (n=120) var 5,42 ± 1,44 slag per minut. Det genomsnittliga absoluta felet för den kontaktlösa metoden (n=30) var 3,60 ± 0,81. Den kontaktlösa metoden gav dock inte tillförlitliga avläsningar för hjärtfrekvens över vilonivån.  Det tredje testet utvärderade hur ett VO2max-test, i detta fall 3-minuters steg-på-plats-testet, kan övervakas med hjälp av en smartphone. Resultaten visar att stegantalet kunde beräknas från en videoinspelning med ett genomsnittligt absolut fel på 2,69 ± 1,89 steg per minut. Knähöjden kunde urskiljas som hög eller låg i 98 % av fallen (n=4). Resultaten av detta arbete kan hjälpa utvecklare att skapa mycket personliga och meningsfulla fitnessappar.
257

Fisheye live streaming : A study of the dewarping function and the performance of the streaming / Fisköga-objektiv direktsändning : Ett studie av fisköga-förvrängning korrigering samt prestanda av direktsändning

Zhengyu, Wang, Al-Shorji, Yousuf January 2018 (has links)
Provision of live streaming of video from fisheye camera is a popular business in the IT sector. Video dewarping is one of its special fields that expands rapidly. As the requirement of video quality becomes higher and higher, there is an increasing need for efficient solutions that can be utilized to process videos in attempts to gain desirable results. The problem is to determine the right combination of transmission bitrate and resolution for live streaming of the dewarped videos. The purpose of this thesis is to develop a prototype solution for dewarping video from fisheye camera and re-stream it to a client. This prototype is used for testing combinations of bitrate and resolution of the video in different scenarios. A system is devised to live stream a video from a fisheye camera, dewarp the video in a server and display the video in media players. The results reveal that the combination of bitrate 3.5 - 4.5 Mbps and resolution 720p is best suited for transmission to avoid noticeable lagging in playback. Comments of observers prove the promising use of the dewarped videos as Virtual Reality(VR) technology. / Direktsänd videoströmning från en kamera med fiskögaobjektiv är ett populärt och snabbväxande, speciellt inom vissa områden som videoförvrängning korrigering. Eftersom kravet på hög högkvalitativ video blir högre och högre, ökas också behovet av en effektiv videobearbetnings lösning för att få önskvärda resultat. Problemet är att bestämma rätt kombination av överföringsbithastighet och upplösning för direktströmning av bearbetade videon. Syftet med detta examensarbete är att utveckla en prototyplösning som korrigerar videoförvrängning från en kamera med fisköga-objektiv samt vidaresända den korrigerade videon till en klient. Denna prototyp används för att testa olika kombinationer av bithastighet och upplösning i olika scenarier. Ett prototypsystem utvecklades för att direktsända video från en kamera med fisköga-objektiv, korrigera videoförvrängningen i en server och spela upp de korrigerade video i en mediaspelare. Resultatet visar att kombinationen av bithastigheten mellan 3.5 - 4.5 Mbps och upplösningen 720p är den mest lämpliga för att undvika märkbara fördröjningar hos klienten. Den potentiella framtida användningen av den bearbetade videon inom Virtuell verklighet (VV) är lovande baserat på observatörernas kommentarer.
258

Operational data extraction using visual perception

Shunmugam, Nagarajan January 2021 (has links)
The information era has led the manufacturer of trucks and logistics solution providers are inclined towards software as a service (SAAS) based solutions. With advancements in software technologies like artificial intelligence and deep learning, the domain of computer vision has achieved significant performance boosts that it competes with hardware based solutions. Firstly, data is collected from a large number of sensors which can increase production costs and carbon footprint in the environment. Secondly certain useful physical quantities/variables are impossible to measure or turns out to be very expensive solution. So in this dissertation, we are investigating the feasibility of providing the similar solution using a single sensor (dashboard- camera) to measure multiple variables. This provides a sustainable solution even when scaled up in huge fleets. The video frames that can be collected from the visual perception of the truck (i.e. the on-board camera of the truck) is processed by the deep learning techniques and operational data can be extracted. Certain techniques like the image classification and semantic segmentation outputs were experimented and shows potential to replace costly hardware counterparts like Lidar or radar based solutions. / Informationstiden har lett till att tillverkare av lastbilar och logistiklösningsleve -rantörer är benägna mot mjukvara som en tjänst (SAAS) baserade lösningar. Med framsteg inom mjukvaruteknik som artificiell intelligens och djupinlärnin har domänen för datorsyn uppnått betydande prestationsförstärkningar att konkurrera med hårdvarubaserade lösningar. För det första samlas data in från ett stort antal sensorer som kan öka produktionskostnaderna och koldioxidavtry -cket i miljön. För det andra är vissa användbara fysiska kvantiteter / variabler omöjliga att mäta eller visar sig vara en mycket dyr lösning. Så i denna avhandling undersöker vi möjligheten att tillhandahålla liknande lösning med hjälp av en enda sensor (instrumentbrädkamera) för att mäta flera variabler. Detta ger en hållbar lösning även när den skalas upp i stora flottor. Videoramar som kan samlas in från truckens visuella uppfattning (dvs. lastbilens inbyggda kamera) bearbetas av djupinlärningsteknikerna och operativa data kan extraher -as. Vissa tekniker som bildklassificering och semantiska segmenteringsutgång -ar experimenterades och visar potential att ersätta dyra hårdvaruprojekt som Lidar eller radarbaserade lösningar.
259

Optical Synchronization of Time-of-Flight Cameras

Wermke, Felix 23 November 2023 (has links)
Time-of-Flight (ToF)-Kameras erzeugen Tiefenbilder (3D-Bilder), indem sie Infrarotlicht aussenden und die Zeit messen, bis die Reflexion des Lichtes wieder empfangen wird. Durch den Einsatz mehrerer ToF-Kameras können ihre vergleichsweise geringere Auflösungen überwunden, das Sichtfeld vergrößert und Verdeckungen reduziert werden. Der gleichzeitige Betrieb birgt jedoch die Möglichkeit von Störungen, die zu fehlerhaften Tiefenmessungen führen. Das Problem der gegenseitigen Störungen tritt nicht nur bei Mehrkamerasystemen auf, sondern auch wenn mehrere unabhängige ToF-Kameras eingesetzt werden. In dieser Arbeit wird eine neue optische Synchronisation vorgestellt, die keine zusätzliche Hardware oder Infrastruktur erfordert, um ein Zeitmultiplexverfahren (engl. Time-Division Multiple Access, TDMA) für die Anwendung mit ToF-Kameras zu nutzen, um so die Störungen zu vermeiden. Dies ermöglicht es einer Kamera, den Aufnahmeprozess anderer ToF-Kameras zu erkennen und ihre Aufnahmezeiten schnell zu synchronisieren, um störungsfrei zu arbeiten. Anstatt Kabel zur Synchronisation zu benötigen, wird nur die vorhandene Hardware genutzt, um eine optische Synchronisation zu erreichen. Dazu wird die Firmware der Kamera um das Synchronisationsverfahren erweitert. Die optische Synchronisation wurde konzipiert, implementiert und in einem Versuchsaufbau mit drei ToF-Kameras verifiziert. Die Messungen zeigen die Wirksamkeit der vorgeschlagenen optischen Synchronisation. Während der Experimente wurde die Bildrate durch das zusätzliche Synchronisationsverfahren lediglich um etwa 1 Prozent reduziert. / Time-of-Flight (ToF) cameras produce depth images (three-dimensional images) by measuring the time between the emission of infrared light and the reception of its reflection. A setup of multiple ToF cameras may be used to overcome their comparatively low resolution, increase the field of view, and reduce occlusion. However, the simultaneous operation of multiple ToF cameras introduces the possibility of interference resulting in erroneous depth measurements. The problem of interference is not only related to a collaborative multicamera setup but also to multiple ToF cameras operating independently. In this work, a new optical synchronization for ToF cameras is presented, requiring no additional hardware or infrastructure to utilize a time-division multiple access (TDMA) scheme to mitigate interference. It effectively enables a camera to sense the acquisition process of other ToF cameras and rapidly synchronizes its acquisition times to operate without interference. Instead of requiring cables to synchronize, only the existing hardware is utilized to enable an optical synchronization. To achieve this, the camera’s firmware is extended with the synchronization procedure. The optical synchronization has been conceptualized, implemented, and verified with an experimental setup deploying three ToF cameras. The measurements show the efficacy of the proposed optical synchronization. During the experiments, the frame rate was reduced by only about 1% due to the synchronization procedure.
260

Image and RADAR fusion for autonomous vehicles / Bild och RADAR för autonoma fordon

de Gibert Duart, Xavier January 2023 (has links)
Robust detection, localization, and tracking of objects are essential for autonomous driving. Computer vision has largely driven development based on camera sensors in recent years, but 3D localization from images is still challenging. Sensors such as LiDAR or RADAR are used to compute depth; each having its own advantages and drawbacks. The main idea of the project is to be able to mix images from the camera and RADAR detections in order to estimate depths for the objects appearing in the images. Fusion strategies can be considered the solution to give a more detailed description of the environment by utilizing both the 3D localization capabilities of range sensors and the higher spatial resolution of image data. The idea is to fuse 3D detections from the RADAR onto the image plane, this requires a high level of synchronization of the sensors and projections of the RADAR data on the required image. / Robust detektering, lokalisering och spårning av objekt är avgörande för autonom körning. Datorseende har till stor del drivit utvecklingen baserad på kamerasensorer de senaste åren, men 3D-lokalisering från bilder är fortfarande utmanande. Sensorer som LiDAR eller RADAR används för att beräkna djup; var och en har sina egna fördelar och nackdelar. Huvudtanken med projektet är att kunna blanda bilder från kameran och RADAR-detektioner för att uppskatta djup för de objekt som förekommer i bilderna. Fusionsstrategier kan anses vara lösningen för att ge en mer detaljerad beskrivning av miljön med både 3D-lokaliseringsförmågan hos avståndssensorer och den högre rumsliga upplösningen av bilddata. Tanken är att smälta samman 3D-detektioner från RADAR till bildplanet, detta kräver en hög nivå av synkronisering av sensorerna och projektioner av RADAR-data på den önskade bilden.

Page generated in 0.4337 seconds