• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 8
  • Tagged with
  • 22
  • 17
  • 16
  • 16
  • 15
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 7
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Bildigenkänning : Analys, detektering och igenkänning av ansikten med hjälp av Microsofts kognitiva tjänster / Image Recognition : Analysis, detection and identification of faces using Microsoft’s Cognitive Services

Söder, Marcus, Hultqvist, Nicole January 2018 (has links)
Many workplaces and service centers are interested in direct feedback from employees and customers in order to optimize the company and the working environment. Sogeti is interested in automating this process using artificial intelligence from Microsoft's Cognitive Services. The purpose of the project was to create a prototype that uses image recognition to get information about people and their mood. The development resulted in a prototype consisting of a Windows Presentation Foundation (WPF) application and a web application that together analyze passers-byes and report the results to a user. The project shows the constraints and challenges that affected the reliability of the service and how it can be further developed.
2

Kamerasensor : Sensor för att identifiera objekt på bilden från en videokamera

Söderlund, Mikael January 2006 (has links)
Syftet är att konstruera en sensor för att identifiera objekt på bilden från en videokamera. Sensorn består av en mikroprocessor som programmeras i assembler samt en enkel CMOS-videokamera och tillhörande analag elektronik. Sensorn är främst tänkt att användas för övervakning inom tillverkningsindustrin.
3

Kamerasensor : Sensor för att identifiera objekt på bilden från en videokamera

Söderlund, Mikael January 2006 (has links)
<p>Syftet är att konstruera en sensor för att identifiera objekt på bilden från en videokamera. Sensorn består av en mikroprocessor som programmeras i assembler samt en enkel CMOS-videokamera och tillhörande analag elektronik. Sensorn är främst tänkt att användas för övervakning inom tillverkningsindustrin.</p>
4

SIYA - Slide Into Your Albums : Design and construction of a controllable dolly camera with object recognition / Konstruktion av en automatiserad kamerarigg med objektigenkänning.

Adeeb, Karam, Alveteg, Adam January 2019 (has links)
The scope of this project is to design, construct and build an automated camera rig with object recognition. The project explores if there are any advantages with an automated camera rig compared to a manual one, how an external camera module can be implemented to track an object and under what circumstances the camera module can register the objects for optimal performance. The construction is built to travel along a rail of two iron pipes. A camera is mounted on a small wagon that travels on top of the rail with the help of a DC-motor. On the wagon, an external camera module called Pixy2 detects a predetermined object that the user wants the main camera to detect and focus on. Using the feedback data from the Pixy2, two stepper motors run to rotate the main camera horizontally and vertically so that the object is placed in the middle of the frame while the wagon travels along the rail. / Syftet med detta projekt är att konstruera och bygga en automatiserad kamerarigg med objektigenkänning. Projektet undersöker om det finns några fördelar med en automatiserad kamerarigg gentemot en manuell, hur en extern kameramodul implementeras för att kamerariggen ska kunna följa ett objekt och under vilka förhållanden kameramodulen registrerar objekten bäst. Kamerariggen är byggd för att åka längsmed en räls som består av två järnrör. En filmkamera är monterad på en vagn som rullar ovanpå denna räls och drivs med hjälp av en DC-motor. Ovanpå vagnen ska en extern kameramodul vid namn Pixy2 upptäcka ett förbestämt objekt som användaren vill att filmkameran ska fokusera på. Med hjälp av återkoppling av datan som Pixy2 registrerar styrs två stycken stegmotorer som antingen roterar filmkameran horisontellt i x-led eller vertikalt i y-led tills objektet är placerat i mitten av Pixy2’s synfält. På detta sätt kommer konstruktionen att fokusera på objektet samtidigt som den rör sig i sidled på rälsen.
5

Avståndsvarnare till Mobiltelefon

Johansson, Joakim January 2011 (has links)
This report describes a study, description and testing of parts to an application adapted to the operating system Android. The application is supposed to measure the distance to a car ahead. Apart from distance measurements the ability of the application to calculate its own speed with the help of GPS is tested. From these two parameters, speed, distance and some constants the theoretical stopping distance of the car will be calculated in order to warn the driver if the car is too close to the car ahead in relation to its own speed and stopping distance. Tests were conducted on the different applications that were programmed and the result showed that the camera technique in the mobile phone itself limits the maximum distance of the distance measurement application. The max distance the tests in this thesis revealed was approximately 5 meters. The measurement done to the GPS speed calculating application showed that the application was more accurate than the speedometer in the test car. The result of this thesis was that if all the parts were to be put together to a single application the maximum speed that it could be used with some functionality was 13,8 kilometers/hour assuming that the car ahead is at a standstill and the camera on the mobile phone is in a straight line from the license plate. / Denna uppsats beskriver en studie, utveckling och testning av delar och teknik till en applikation anpassad till operativsystemet Android. Applikationen skall kunna mäta avståndet till framförvarande bil. Utöver avståndsmätning så testas applikationens förmåga att kalkylera sin egna hastighet med hjälp av GPS. Utifrån dessa två parametrar, hastighet och avstånd samt några konstanter skall den teoretiska stoppsträckan kunna räknas ut för att kunna varna om fordonet är för nära farmförvarande bil i förhållande till sin egna fart.. Tester utfördes på de olika applikationerna som programmerades och resultatet visade att tekniken i sig sätter stopp för att kunna mäta avståndet till nummerplåten på ett längre avstånd än ca 5m. Mätning av hastigheten var mer noggrann än hastighetsmätaren i bilen. Resultatet blev att om alla delar sattes ihop till en enda applikation så skulle den i bästa fall kunna användas i maximalt 13,8 km/h förutsatt att framförvarande bil är stillastående, och att kameran från telefonen är i en rak vinkel mot framförvarande nummerplåt.
6

Progressiv webbapplikation med bildigenkänning / Progressive web application with image recognition

Behrenfors, Louise, Norlén, Kevin January 2020 (has links)
Allt fler personer i Sverige har tillgång till både Internet och smarttelefoner i en större utsträckning än någonsin förr. Det finns applikationer för det mesta, som tränings-, spel- och nyhetsappar. Utefter detta och vår samtids ökade fokus på miljön och återvinning valdes målet med detta projekt, en progressiv webbapplikation som använder sig av bildigenkänning med hjälp av maskininlärning som ska underlätta för människor att sortera och återvinna sina hushållsavfall. Slutresultatet är en applikation som kan köras likvärdigt på de flesta enheter (mobil, pc, surfplattor etc.), oavsett vilken modell eller vilket operativsystem den har. Applikatio- nen används för att identifiera hushållsavfall genom en bildigenkänningstjänst. Denna rapport behandlar de teknologier som använts för att bygga applikationen och implementationsprocessen av den. Slutligen diskuterar vi resultatet av utvecklingen och några utvalda personer fick testa appen, svara på några frågor och säga vad de tyckte. / More and more people in Sweden have access to both the Internet and smartphones to a greater extent than ever before. There is an application for almost everything, such as training-, games- and news applications. Based on this and the increasing interest for the environment in general and recycling, the goal was set for this project. A progressive web application with the use of image recognition with the help of machine learning that will make it easier for people to sort and recycle their household trash. The final result is an application that can be run equally on most devices (mobile, PC, tablets, etc.), regardless of model or operating system. The application is used to identify household waste through an image recognition service. This report addresses the technologies used to build the application and implementation process of it. Finally we discuss the results of the development and some selected people got to test the app and answer some questions and voice their opinions.
7

Traffic Sign Recognition Using Machine Learning / Igenkänning av parkeringsskyltar med hjälp av maskininlärning

Sharif, Sharif, Lilja, Joanna January 2020 (has links)
Computer vision is an area in computer science that attempts to give computers the ability to see and recognise objects using varying sources of input, such as video or pictures. This problem is usually solved by using artificial intelligence (AI) techniques. The most common being deep learning. The project investigates the possibility of using these techniques to recognisetraffic signs in real time. This would make it possible in the future to build a user application that does this. The case study gathers information about available AI techniques, and three object detection deep learning models are selected. These are YOLOv3, SSD, and Faster R-CNN. The chosen models are used in a case study to find out which one is best suited to the task of identifying parking signs in real-time. Faster R-CNN performed the best in terms of recall and precision combined. YOLOv3 slacked behind in recall, but this could be because of how we chose to label the training data. Finally, SSD performed the worst in terms of recall, but was also relatively fast. Evaluation of the case study shows that it is possible to detect parking signs in real time. However, the hardware necessary is more powerful than that offered by currently available mobile platforms. Therefore it is concluded that a cloud solution would be optimal, if the techniques tested were to be implemented in a parking sign reading mobile app. / Datorseende är ett område inom datorvetenskap som fokuserar på att ge maskiner förmågan att se och känna igen objekt med olika typer av input, såsom bilder eller video. Detta är ett problem som ofta löses med hjälp av artificiell intelligens (AI). Mer specifikt, djupinlärning. I detta projekt undersöks möjligheten att använda djupinlärning för att känna igen trafikskyltar i realtid. Detta så att i framtiden kunna bygga en applikation, som kan byggas att känna igen parkeringsskyltar i realtid. Fallstudien samlar information om tillgängliga AI-tekniker, och tre djupinlärningsmodeller väljs ut. Dessa är YOLOv, SSD, och Faster R-CNN. Dessa modeller används i en fallstudie för att ta reda på vilken av dem som är bäst lämpad för uppgiften att känna igen parkeringsskyltar i realtid. Faster R-CNN presterade bäst vad gäller upptäckande av objekt och precision tillsammans. YOLOv3 upptäckte färre object, men det är sannolikt att detta berodde på hur vi valde att markera träningsdatan. Slutligen upptäckte SSD minst antal objekt, men presterade också relativt snabbt. Bedömning av fallstudien visar att det är möjligt att känna igen parkeringsskyltar i realtid. Den nödvändiga hårdvaran är dock kraftfullare än den som erbjuds av mobiler för närvarande. Därför dras slutsatsen att en molnlösning skulle vara optimal, om de testade teknikerna skulle användas för att implementera en app för att känna igen parkeringskyltar.
8

Identifiering av UNO-kort : En jämförelse av bildigenkänningstekniker

Al-Asadi, Yousif, Streit, Jennifer January 2023 (has links)
Att spela sällskapsspelet UNO är en typ av umgängesform där målet är att trivas. EnUNO-kortlek har 5 olika färger (blå, röd, grön, gul och joker) och olika symboler.Detta kan vara frustrerande för en person med nedsatt färgseende att delta, då enstor andel av spelet är beroende av att identifiera färgen på varje kort. Övergripandesyftet med detta arbete är att utveckla en prototyp för objektigenkänning av UNOkort som stöd för färgnedsatta. Arbetet sker genom jämförelse av objektigenkänningsmetoder som Convolutional Neural Network (CNN) och Template Matchinginspirerade metoder: hue template test samt binary template test. Detta kommer attjämföras i samband med igenkänning av färg och symbol tillsammans och separerat. Utvecklandet av prototypen kommer att utföras genom att träna två olika CNNmodeller, där en modell fokuserar endast på symboler och den andra fokuserar påbåde färg och symbol. Dessa modeller kommer att tränas med hjälp av YOLOv5 algoritmen som anses vara State Of The Art (SOTA) inom CNN med snabb exekvering. Samtidigt kommer template test att utvecklas med hjälp av OpenCV och genom att skapa mallar för korten. Dessa används för att göra en jämförelse av kortetsom ska identifieras med hjälp av mallen. Utöver detta kommer K Nearest Neighbor(KNN), en maskininlärningsalgoritm att utvecklas med syfte att identifiera endastfärg på korten. Slutligen utförs en jämförelse mellan dessa metoder genom mätningav prestanda som består av accuracy, precision, recall och latency. Jämförelsen kommer att ske mellan varje metod genom en confusion matrix för färger och symbolerför respektive modell. Resultatet av studien visade på att modellen som kombinerar CNN och KNN presterade bäst vid valideringen av de olika metoderna. Utöver detta visar studien atttemplate test är snabbare att implementera än CNN på grund av tiden för träningensom ett neuralt nätverk kräver. Dessutom visar latency att det finns en skillnad mellan de olika modellerna, där CNN presterade bäst. / Engaging in the social game of UNO represents a form of social interaction aimed atpromoting enjoyment. Each UNO card deck consists of five different colors (blue,red, green, yellow and joker) and various symbols. However participating in such agame can be frustrating for individuals with color vision impairment. Since a substantial portion of the game relies on accurately identifying the color of each card.The overall purpose of this research is to develop a prototype for object recognitionof UNO cards to support individuals with color vision impairment. This thesis involves comparing object recognition methods, namely Convolutional Neural Network (CNN) and Template Matching (TM). Each method will be compared with respect to color and symbol recognition both separately and combined.   The development of such a prototype will be through creating and training two different CNN models, where the first model focuses on solely symbol recognitionwhile the other model incorporates both color and symbol recognition. These models will be trained though an algorithm called YOLOv5 which is considered state-ofthe-art (SOTA) with fast execution. At the same time, two models of TM inspiredmethods, hue template test and binary template test, will be developed with thehelp of OpenCV and by creating templates for the cards. Each template will be usedas a way to compare the detected card in order to classify it. Additionally, the KNearest Neighbor (KNN) algorithm, a machine learning algorithm, will be developed specifically to identify the color of the cards. Finally a comparative analysis ofthese methods will be conducted by evaluating performance metrics such as accuracy, precision, recall and latency. The comparison will be carried out in betweeneach method using a confusion matrix for color and symbol in respective models. The study’s findings revealed that the model combining CNN and KNN demonstrated the best performance during the validation of the different models. Furthermore, the study shows that template tests are faster to implement than CNN due tothe training that a neural network requires. Moreover, the execution time showsthat there is a difference between the different models, where CNN achieved thehighest performance.
9

Detection and categorization of suggestive thumbnails : A step towards a safer internet / Upptäckt och kategorisering av suggestiva miniatyrer : Ett steg mot ett säkrare internet

Oliveira Franca, Matheus January 2021 (has links)
The aim of this work is to compare methods that predict whether an image has suggestive content, such as pornographic images and erotic fashion. Using binary classification, this work contributes to an internet environment where these images are not seen out of context. It is, therefore, necessary for user experience improvement purposes, such as child protection, publishers not having their campaign associated with inappropriate content, and companies improving their brand safety. For this study, a data set with more than 500k images was created to test the Convolutional Neural Networks (CNN) models: NSFW model, ResNet, EfficientNet, BiT, NudeNet and Yahoo Model. The image classification model EfficientNet-B7 and Big Transfer (BiT) presented the best results with over 91% samples correctly classified on the test set, with precision and recall around 0.7. Model prediction was further investigated using Local Interpretable Model-agnostic Explanation (LIME), a model explainability technique, and concluded that the model uses coherent regions of the thumbnail according to a human perspective such as legs, abdominal, and chest to classify images as unsafe. / Syftet med detta arbete är att jämföra metoder som förutsäger om en bild har suggestivt innehåll, såsom pornografiska bilder och erotiskt mode. Med binär klassificering bidrar detta arbete till en internetmiljö där dessa bilder inte ses ur sitt sammanhang. Det är därför nödvändigt för att förbättra användarupplevelsen, till exempel barnskydd, utgivare som inte har sina kampanjer kopplade till olämpligt innehåll och företag som förbättrar deras varumärkessäkerhet. För denna studie skapades en datamängd med mer än 500 000 bilder för att testa Convolutional Neural Networks (CNN) modeller: NSFW-modell, ResNet, EfficientNet, BiT, NudeNet och Yahoo-modell. Bild klassificerings modellen EfficientNet-B7 och Big Transfer (BiT) presenterade de bästa resultaten med över 91%prover korrekt klassificerade på testuppsättningen, med precision och återkallelse runt 0,7. Modell förutsägelse undersöktes ytterligare med hjälp av Local Interpretable Model-agnostic Explanation (LIME), en modell förklarbarhetsteknik, och drog slutsatsen att modellen använder sammanhängande regioner i miniatyren enligt ett mänskligt perspektiv såsom ben, buk och bröst för att klassificera bilder som osäkra.
10

Bildklassificering av bilar med hjälp av deep learning / Image Classification of Cars using Deep Learning

Lindespång, Victor January 2017 (has links)
Den här rapporten beskriver hur en bildklassificerare skapades med förmågan att via en given bild på en bil avgöra vilken bilmodell bilen är av. Klassificeringsmodellen utvecklades med hjälp av bilder som företaget CAB sparat i samband med försäkringsärenden som behandlats via deras nuvarande produkter. Inledningsvis i rapporten så beskrivs teori för maskininlärning och djupinlärning på engrundläggande nivå för att leda in läsaren på ämnesområdet som rör rapporten, och fortsätter sedan med problemspecifika metoder som var till nytta för det aktuella problemet. Rapporten tar upp metoder för hur datan bearbetats i förväg, hur träningsprocessen gick  till med de valda verktygen samt diskussion kring resultatet och vad som påverkade det – med kommentarer om vad som kan göras i framtiden för att förbättra slutprodukten. / This report describes how an image classifier was created with the ability to identify car makeand model from a given picture of a car. The classifier was developed using pictures that the company CAB had saved from insurance errands that was managed through their current products. First of all the report begins with a brief theoretical introduction to machine learning and deep learning to guide the reader in to the subject of the report, and then continues with problemspecific methods that were of good use for the project. The report brings up methods for how the data was processed before training took place, how the training process went with the chosen tools for this project and also discussion about the result and what effected it – with comments about what can be done in the future to improve the end product.

Page generated in 0.0908 seconds