Spelling suggestions: "subject:"solo"" "subject:"colo""
1 |
Scenanalys av trafikmiljönAlsalehy, Ahmad, Alsayed, Ghada January 2021 (has links)
Antalet vägtrafikanter ökar varje år, och med det ökar trängseln. Man har därför gjort undersökningar med hjälp av objektdetektionsalgoritmer på videoströmmar. Genom att analysera data resultat är det möjligt att bygga en bättre infrastruktur, för att minska trafikstockning samt olyckor. Data som analyseras kan till exempel vara att räkna hur många trafikanter som vistas på en viss väg (Slottsbron i Halmstad) under en viss tid. Detta examensarbete undersöker teoretiskt hur en YOLO algoritm samt TensorFlow kan användas för att detektera olika trafikanter. Utvärderingsmetoder som användes i projektet för att få resultatet och dra slutsatser är mAP, träning och testning av egna och andras YOLO modeller samt övervakning av FPS- och temperatur-värden. För att möjliggöra detekteringen av trafikflöde i realtid nyttjades Jetson nano toolkit. Flera olika jämförelser har skapats för att avgöra vilken YOLO modell som är lämpligast. Resultaten från tester av olika YOLO modeller visar att YOLO-TensorFlows implementationer kan detektera trafikanter med en godtagbar noggrannhet. Slutsatsen är att Jetson nano har tillräckligt med processorkraft för att detektera olika trafikanter i realtid med hjälp av original YOLO implementation. Metoderna för att detektera trafikanter är standard och fungerande för analysering av trafikflöden.Testning av mer varierande trafikmiljö under längre tidsperioder krävs för att ytterligare verifiera om Jetson nanos lämplighet.
|
2 |
3D-Objekterkennung mit Jetson Nano und Integration mit KUKA KR6-Roboter für autonomes Pick-and-PlacePullela, Akhila, Wings, Elmar 27 January 2022 (has links)
Bildverarbeitungssysteme bieten innovative Lösungen für den Fertigungsprozess. Kameras und zugehörige
Bildverarbeitungssysteme können zur Identifizierung, Prüfung und Lokalisierung von Teilen
auf einem Förderband oder in einem Behälter mit Teilen eingesetzt werden. Roboter werden dann
eingesetzt,um jedes Teil aufzunehmen und im Montagebereich zu platzieren oder sogar um die Grundmontage
direkt durchzuführen. Das System für dieses Projekt besteht aus einem Roboter Kuka KR6 900,
der die Position (x-, y- und z-Koordinaten des Objektschwerpunkts) und die Ausrichtung eines Bauteils
von einem Bildverarbeitungssystem basierend auf einem Jetson Nano erhält. Das Ziel dieses Projekts
ist es, eine automatische Erkennung eines Objekts mit Hilfe einer 2D-Kamera und der Auswertung mit
dem Deep Learning Algorithmus Darknet YOLO V4 durchzuführen, so dass der Roboter das Objekt
greifen und platzieren kann. Dieses Projekt verwendet zwei verschiedene Objekttypen: einen Quader
und einen Zylinder. Die Bilderkennung erfolgt mit Hilfe des Jetson Nano, dort erfolgt aus den Pixelkoordinaten
die Berechnung der realen Koordinaten, die dann über die TCP/IP-Schnittstelle des Kuka
KR6 900 zur Durchführung der Entnahme und Platzierung übermittelt werden. Die Flexibilität des Roboters,
dessen Steuerung auf diese Weise von der Bildverarbeitung unterstützt wird, kann den Bedarf
an präzise konstruierten Teilezuführungen verringern und so die Flexibilität in der Fertigungszelle
erhöhen und kurze Produktionsläufe und Anpassungsfähigkeit ermöglichen.
|
3 |
School district reorganization in Yolo CountyCuster, Oral Mearl 01 January 1948 (has links) (PDF)
It is the purpose of this study to survey the schools of Yolo County and to propose a plan for the reorganization of the school districts of that county.
|
4 |
OBJECT DETECTION IN DEEP LEARNINGHaoyu Shi (8100614) 10 December 2019 (has links)
<p>Through the computing advance and GPU (Graphics Processing
Unit) availability for math calculation, the deep learning field becomes more
popular and prevalent. Object detection with deep learning, which is the part
of image processing, plays an important role in automatic vehicle drive and
computer vision. Object detection includes object localization and object
classification. Object localization involves that the computer looks through
the image and gives the correct coordinates to localize the object. Object
classification is that the computer classification targets into different
categories. The traditional image object detection pipeline idea is from
Fast/Faster R-CNN [32] [58]. The region proposal network
generates the contained objects areas and put them into classifier. The first
step is the object localization while the second step is the object
classification. The time cost for this pipeline function is not efficient.
Aiming to address this problem, You Only Look Once (YOLO) [4] network is born. YOLO is the
single neural network end-to-end pipeline with the image processing speed being
45 frames per second in real time for network prediction. In this thesis, the
convolution neural networks are introduced, including the state of art
convolutional neural networks in recently years. YOLO implementation details
are illustrated step by step. We adopt the YOLO network for our applications
since the YOLO network has the faster convergence rate in training and provides
high accuracy and it is the end to end architecture, which makes networks easy
to optimize and train. </p>
|
5 |
USING ADVANCED DEEP LEARNING TECHNIQUES TO IDENTIFY DRAINAGE CROSSING FEATURESEdidem, Michael Isaiah 01 August 2024 (has links) (PDF)
High-resolution digital elevation models (HRDEMs) enable precise mapping of hydrographic features. However, the absence of drainage crossings underpassing roads or bridges hinders accurate delineation of stream networks. Traditional methods such as on-screen digitization and field surveys for locating these crossings are time-consuming and expensive for extensive areas. This study investigates the effectiveness of deep learning models for automated drainage crossing detection using HRDEMs. The study also explores the performance of advanced classification algorithm such as EfficientNetV2 model using various co-registered HRDRM-derived geomorphological features, such as positive openness, geometric curvature, and topographic position index (TPI) variants, for drainage crossings classification. The results reveal that individual layers, particularly HRDEM and TPI21, achieve the best performance, while combining all five layers doesn't improve accuracy. Hence, effective feature screening is crucial, as eliminating less informative features enhances the F1 score. For drainage crossing detection, this study develops and trains deep learning models, Faster R-CNN and YOLOv5 object detectors, using HRDEM tiles and ground truth labels. These models achieve an average F1-score of 0.78 in Nebraska watershed and demonstrate successful transferability to other watersheds. This spatial object detection approach offers a promising avenue for automated, large-scale drainage crossing detection, facilitating the integration of these features into HRDEMs and improving the accuracy of hydrographic network delineation.
|
6 |
Click me: thumbnail extraction for fashion videos : An approach for selecting engaging video thumbnails based on clothing identification, sharpness, and contrast. / Klicka på mig: miniatyrbildsextraktion för modefilmer : En metod för att välja engagerande miniatyrbilder baserat på klädidentifiering, skärpa, och kontrast.Redtzer, Isabel January 2023 (has links)
Video thumbnails are essential to represent the content and summary of a video. This thesis proposed a thumbnail extraction approach for fashion videos based on the presence of clothing items, sharpness, and contrast. Furthermore, this thesis investigated how the proposed thumbnail selection method performed concerning user engagement. Other research has been done on user engagement; however, the impact of clothing item presence has yet to be investigated. Firstly, a YOLOv7 model was trained on a fashion dataset to identify clothing items. The proposed selection method used the model to extract labels to determine what frames contain the maximum number of clothing items. The selected frames were filtered based on a contrast threshold, and the sharpest frame was kept as the proposed thumbnail from the remaining frames. The contrast was measured by calculating the standard deviation of the pixels in each frame. The sharpness was measured with the Laplacian operator. The user engagement was investigated by surveying 119 participants on thumbnail preference. The participants were presented with three frames, the thumbnail extracted with the proposed method, and two control frames: the middle frame of the video and a frame where the YOLOv7 model had only identified one object. The results show that the proposed thumbnail selection method performs well, receiving 59.75% of the total votes, compared to a middle frame and a single-item frame that received 17.46% and 22.79% of the votes, respectively. The results indicate that the proposed parameters for the thumbnail extraction could lead to higher user engagement. / Video-miniatyrbilder är en essentiell del av att presentera och sammanfatta videoinnehåll. Den här uppsatsen föreslår en miniatyrbilds extraktionsmetod för modevideos baserat på klädesplagg, skärpa och kontrast. Denna uppsats utvärderade hur den föreslagna metoden presterar i relation till användarengagemang. Tidigare forskning har utvärderat användarengagemang på miniatyrbilder, dock inte kopplat till närvaro av klädesplagg. Först tränades en YOLOv7 modell på ett modedataset för att identifiera klädesplagg. Den föreslagna metoden använde modellen för att extrahera etiketter för att fastställa vilka bilder som inkluderade flest klädesplagg. De utvalda bilderna filtrerades med en kontrast-tröskel, och den skarpaste bilden av de resterande bilderna behölls som en föreslagen miniatyrbild. Kontrasten mättes med standardavvikelsen mellan pixlar i varje bild. Skärpan mättes med Laplaceoperatorn. Användarengagemanget undersöktes med en enkät genomförd av 119 deltagare för att identifiera vilken miniatyrbild som föredrogs. Deltagarna blev presenterade med tre bilder, en extraherad med den föreslagna metoden och två kontrollbilder: mittenbilden från videon och en bild där YOLOv7 modellen endast identifierat ett objekt. Resultaten visar att den föreslagna metoden presterar bra, den fick 59,75% av rösterna, jämfört med mittenbilden och bilden med ett objekt, som fick respektive 17.46% och 22.79%. Resultaten indikerar att den föreslagna parametrarna kan bidra till ökat användarengagamang i modefilmer.
|
7 |
Detecting Faulty Tape-around Weatherproofing Cables by Computer VisionSun, Ruiwen January 2020 (has links)
More cables will be installed owing to setting up more radio towers when it comes to 5G. However, a large proportion of radio units are constructed high in the open space, which makes it difficult for human technicians to maintain the systems. Under these circumstances, automatic detections of errors among radio cabinets are crucial. Cables and connectors are usually covered with weatherproofing tapes, and one of the most common problems is that the tapes are not closely rounded on the cables and connectors. This makes the tape go out of the cable and look like a waving flag, which may seriously damage the radio systems. The thesis aims at detecting this flagging-tape and addressing the issues. This thesis experiments two methods for object detection, the convolutional neural network as well as the OpenCV and image processing. The former uses YOLO (You Only Look Once) network for training and testing, while in the latter method, the connected component method is applied for the detection of big objects like the cables and line segment detector is responsible for the flagging-tape boundary extraction. Multiple parameters, structurally and functionally unique, were developed to find the most suitable way to meet the requirement. Furthermore, precision and recall are used to evaluate the performance of the system output quality, and in order to improve the requirements, larger experiments were performed using different parameters. The results show that the best way of detecting faulty weatherproofing is with the image processing method by which the recall is 71% and the precision reaches 60%. This method shows better performance than YOLO dealing with flagging-tape detection. The method shows the great potential of this kind of object detection, and a detailed discussion regarding the limitation is also presented in the thesis. / Fler kablar kommer att installeras på grund av installation av fler radiotorn när det gäller 5G. En stor del av radioenheterna är dock konstruerade högt i det öppna utrymmet, vilket gör det svårt för mänskliga tekniker att underhålla systemen. Under dessa omständigheter är automatiska upptäckter av fel bland radioskåp avgörande. Kablar och kontakter täcks vanligtvis med väderbeständiga band, och ett av de vanligaste problemen är att banden inte är rundade på kablarna och kontakterna. Detta gör att tejpen går ur kabeln och ser ut som en viftande flagga, vilket allvarligt kan skada radiosystemen. Avhandlingen syftar till att upptäcka detta flaggband och ta itu med frågorna. Den här avhandlingen experimenterar två metoder för objektdetektering, det invändiga neurala nätverket såväl som OpenCV och bildbehandling. Den förstnämnda använder YOLO (You Only Look Once) nätverk för träning och testning, medan i den senare metoden används den anslutna komponentmetoden för detektering av stora föremål som kablarna och linjesegmentdetektorn är ansvarig för utvinning av bandbandgränsen. Flera parametrar, strukturellt och funktionellt unika, utvecklades för att hitta det mest lämpliga sättet att uppfylla kravet. Dessutom används precision och återkallande för att utvärdera prestandan för systemutgångskvaliteten, och för att förbättra kraven utfördes större experiment med olika parametrar. Resultaten visar att det bästa sättet att upptäcka felaktigt väderbeständighet är med bildbehandlingsmetoden genom vilken återkallelsen är 71% och precisionen når 60%. Denna metod visar bättre prestanda än YOLO som hanterar markering av flaggband. Metoden visar den stora potentialen för denna typ av objektdetektering, och en detaljerad diskussion om begränsningen presenteras också i avhandlingen.
|
8 |
A Comparison Between KeyFrame Extraction Methods for Clothing RecognitionLindgren, Gabriel January 2023 (has links)
With an ever so high video consumption, applications and services need to use smart approaches to make the experience better for their users. By using key frames from a video, useful information can be retrieved regarding the entire video, and used for better explaining the content. At present, many key frame extraction (KFE) methods aim at selecting multiple frames from videos composed of multiple scenes, and coming from various contexts. In this study a proposed key frame extraction method that extracts a single frame for further clothing recognition purposes is implemented and compared against two other methods. The proposed method utilizes the state-of-the-art object detector YOLO (You Only Look Once) to ensure the extracted key frames contain people, and is referred to as YKFE (YOLO-based Key Frame Extraction). YKFE is then compared against the simple and baseline method named MFE (Middle Frame Extraction) which always extracts the middle frame of the video, and the famous optical flow based method referred to as Wolf KFE, that extracts frames having the lowest amount of optical flow. The YOLO model is pre-trained and further fine tuned on a custom dataset. Furthermore, three versions of the YKFE method are developed and compared, each utilizing different measurements in order to select the best key frame, the first one being optical flow, the second aspect ratio, and the third by combining both optical flow and aspect ratio. At last, three proposed metrics: RDO (Rate of Distinguishable Outfits), RSAR (Rate of Successful API Returns), and AET (Average Extraction Time) were used to evaluate and compare the performance of the methods against each other on two sets of test data containing 100 videos each. The results show that YKFE yields more reliable results while taking significantly more time than both MFE and Wolf KFE. However, both MFE and Wolf KFE do not consider whether frames contain people or not, meaning the context in which the methods are used is of significant importance for the rate of successful key frame extractions. Finally as an experiment, a method named Slim YKFE was developed as a combination of both MFE and YKFE, resulting in a substantially reduced extraction time while still maintaining high accuracy. / Med en ständigt växande videokonsumption så måste applikationer och tjänster använda smarta tillvägagångssätt för att göra upplevelsen så bra som möjligt för dess användare. Genom att använda nyckelbilder från en video kan användbar information erhållas om hela videon och användas för att bättre förklara dess innehåll. För nuvarande fokuserar många metoder för nyckelbildutvinning (KFE) på att utvinna ett flertal bilder från videoklipp komponerade av flera scener och många olika kontext. I denna studie föreslås och implementeras en ny nyckelbildutvinningsmetod som enbart extraherar en bild med syfte att användas av ett API för klädigenkänning. Denna metod jämförs sedan med två andra redan existerande metoder. Den föreslagna metoden använder sig av det moderna objektdetekteringssystemet YOLO (You Only Look Once) för att säkerställa förekomsten av personer i de extraherade nyckelbilderna och hänvisas som YKFE (YOLO-based Key Frame Extraction). YKFE jämförs sedan med en enkel basmetod kallad MFE (Middle Frame Extraction) som alltid extraherar den mittersta bilden av en video, och en känd metod som extraherar de bilder med lägst optiskt flöde, kallad Wolf KFE. YOLO-modellen är förtränad och vidare finjusterad på ett eget dataset. Fortsättningsvis utvecklas tre versioner av YKFE-metoden där varje version använder olika värden för att välja ut den bästa nyckelbilden. Den första versionen använder optiskt flöde, den andra använder bildförhållande och den tredje kombinerar både optiskt flöde och bildförhållande. Slutligen används tre föreslagna mättyper; RDO (Rate of Distinguishable Outfits), RSAR (Rate of Successful API Returns), and AET (Average Extraction Time) för att evaluera och jämföra metodernas prestanda mot varandra på två uppsättningar testdata bestånde av 100 videoklipp vardera. Resultaten visar att YKFE ger de mest stabila resultaten samtidigt som den har en betydligt längre exekveringstid än både MFE och Wolf KFE. Däremot betraktar inte MFE och Wolf YKFE bildernas innehåll vilket betyder att kontextet där dessa metoder används är av stor betydelse för antalet lyckade nyckelbildextraheringar. Som ett experiment så utvecklas även en metod kallad Slim YKFE, som kombinerar både MFE och YKFE som resulterade i en betydande minskning av exekveringstid samtidigt som antal lyckade extraheringar förblev hög.
|
9 |
Detection of Rail Clip with YOLO on Raspberry PiShahi, Jonathan January 2024 (has links)
I en modern värld där artificiell intelligens blir allt mer integrerad i våra dagliga liv är en av de mest grundläggande och nödvändiga färdigheterna för en AI att lära sig och bearbeta information, särskilt genom objektdetektering. Det finns många algoritmer som kan användas för denna specifika uppgift, men vårt huvudsakliga fokus ligger på "You Only Look Ones", även känd som YOLO-algoritmen. Denna studie fördjupar sig i användningen av YOLO inom inbyggda system specifikt för att upptäcka tågrelaterade objekt på en Raspberry Pi. Målet med denna studie är att övervinna begränsningar i processorkraft och minne, typiska för småskaliga databehandlingsplattformar som Raspberry Pi, samtidigt som hög detekteringsnoggrannhet, hastighet och låg energiförbrukning bibehålls. Detta uppnås genom att träna YOLO-modellen med olika bildupplösningar och olika inställningar av hyperparametrar och sedan köra inferens på dem så att energiförbrukningen kan beräknas. Resultaten indikerar att även om lägre upplösningar resulterar i lägre noggrannhet, minskar de avsevärt de beräkningsmässiga kraven på Raspberry Pi, vilket gör det till en genomförbar lösning för realtidsapplikationer i miljöer där tillgången till ström är begränsad. / In a modern world where artificial intelligence (AI) is becoming increasingly integrated into our daily lives, one of the most fundamental and essential skills for an AI is to learn and process information especially through object detection. There are many algorithms that could be used for this specific task but our mainly focus is on "You Only Look Ones" aka YOLO algorithm. This study dives into the use of YOLO within embedded systems specifically for detecting train-related objects on a Raspberry Pi. The aim of this study is to overcome limitations in processing power and memory, typical in small-scale computing platforms like Raspberry pi, while maintaining high detection accuracy, fast processing time and low energy consumption. This is achieved by training the YOLO model with different image resolutions and different hyper parameters tuning then running inference on them so that the energy consumption can be calculated. The results indicate that while lower resolutions result in lower accuracy, they significantly reduce the computational demands on the Raspberry Pi, making it a viable solution for real-time applications in environments where power availability is limited
|
10 |
One Stage Fine- Grained ClassificationZeng, Xing January 2021 (has links)
Fine- grained Visual Classification (FGVC) is a rapidly growing field in image classification. However, it is a challenging task due to subcategories sharing subtle differences. Existing approaches tackle this problem by firstly extracting discriminative regions using part localization or object localization or Region Proposal Networks (RPN), then applying Convolutional Neural Network (CNN) or SVM classifier on those regions. In this work, with the purpose of simplifying the above complicated pipeline while keeping high accuracy, we get inspired by the one- stage object detection model YOLO and design a one- stage end- to- end object detector model for FGVC. Specifically, we apply YOLOv5 as a baseline model and replace its Path Aggregation Network (PANet) structure with Weighted Bidirectional Feature Pyramid Network (BiFPN) structure to efficiently fuse information from different resolutions. We conduct experiments on different classification and localization weight ratios to guide choosing loss weights in different scenarios. We have proved the viability of the one- stage detector model YOLO on FGVC, which has 87.1 % top1 accuracy on the FGVC dataset CUB2002011. Furthermore, we have designed a more accurate one- stage model, achieving 88.1 % accuracy, which is the most accurate method compared to the existing localization state- of- the- art models. Finally, we have shown that the higher the classification loss weight, the faster the convergence speed, while increasing slightly localization loss weight can help achieve a more accurate classification but resulting in slower convergence. / Finkornad visuell klassificering (FGVC) är ett snabbt växande fält inom bildklassificering. Det är dock en utmanande uppgift på grund av underkategorier som delar subtila skillnader. Befintliga tillvägagångssätt hanterar detta problem genom att först extrahera diskriminerande regioner med dellokalisering eller objektlokalisering eller Region Proposal Networks (RPN) och sedan tillämpa Convolutional Network eller SVM- klassificering på dessa regioner. I det här arbetet, med syftet att förenkla ovanstående komplicerade rörledning samtidigt som vi håller hög noggrannhet, blir vi inspirerade av enstegs objektdetekteringsmodellen YOLO och designar en enstegs end- to- end objektdetektormodell för FGVC. Specifikt tillämpar vi YOLOv5 som basmodell och ersätter dess Path Aggregation Network (PANet) struktur med en viktad dubbelriktad funktionspyramidnätverk (BiFPN) struktur för att effektivt smälta information från olika upplösningar. Vi utför experiment på olika klassificerings och lokaliseringsviktsförhållanden för att vägleda valet av förlustvikter i olika scenarier. Vi har bevisat livskraften hos enstegsdetektormodellen YOLO på FGVC, som har 87,1 % topp1noggrannhet i FGVC- dataset CUB2002011. Dessutom har vi utformat en mer exakt enstegsmodell som uppnår 88,1 % noggrannhet, vilket är den mest exakta metoden jämfört med befintliga lokaliseringsmodeller. Slutligen har vi visat att ju högre klassificeringsförlustvikten är, desto snabbare är konvergenshastigheten, medan en ökning av lokaliseringsförlustvikten ökar något kan bidra till en mer exakt klassificering men resulterar i långsammare konvergens.
|
Page generated in 0.051 seconds