• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 6
  • 6
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Color based classification of circular markers for the identification of experimental units

Narjala, Lakshmi January 1900 (has links)
Master of Science / Department of Computing and Information Sciences / Daniel Andresen / The purpose of this project is to analyze the growth of plants under certain lighting conditions. In order to ensure ideal lighting for all plants under demanding conditions like lack of optimal light due to shadowing, side wall reflections, overlapping of plants, etc., pots are rotated manually in an irregular fashion. To keep track of the position of these plants from time to time, a marking system is used for each tray of 16 plants. These markers are unique for each tray High definition surveillance cameras placed above these plants capture the plant images periodically. These images undergo image processing. Image processing should be able to identify and recognize the plants from the identification markers that were placed within each tray and thereby draw the statistics about the growth of the plants. Hence the computing part of this project is all about extracting the identity of a plant through image processing. Image processing involves object and color recognition. Fiji, an image processing tool, is used for object recognition and the Python image module called “Image” is used for color recognition. Object recognition accurately locates the position of these circular objects and measures their size and shape. Color recognition identifies the pixel values of these circular objects. Finally the code corresponding to three-element groups of these circular units is fetched and stored. This code gives the identity of the tray and, therefore, each plant. The timestamp that is stored with each plant image along with the code fetched through image processing is used to track the location of a plant in the plant chamber through time.
2

Comparing LED Lighting Systems in the Detection and Color Recognition of Roadway Objects

Terry, Travis N. 25 July 2011 (has links)
This study compared two LED luminaires and their abilities to provide detection distance and color recognition distance of potential roadway hazard. Detection distance is regarded as a metric of visibility. Color recognition distance is a metric for comparing the impact of the (Correlated Color Temperature) CCT of each luminaire and their color contrast impact. Mesopic vision, the mode of vision most commonly used for night driving, was considered in this study. Off-axis objects were presented to participants to assess the peripheral abilities of the luminaires. The impacts of luminance and color contrast were addressed in this study. The experiment was performed on the Virginia Smart Road where standard objects of different colors and pedestrians wearing different colors were detected by drivers of a moving vehicle in a controlled environment. The key difference between the two luminaires was their color temperatures (3500K versus 6000K). The results indicated that neither light source provided a significant benefit over the other although significant interactions were found among object color, age, and lighting level. The results indicate that the luminaires provide similar luminance contrast but their color contrasts depend heavily on the color temperature, the object, and the observer. This study followed the protocol developed by the Mesopic Optimisation of Visual Efficiency (MOVE) consortium developed by the CIE for modeling mesopic visual behavior. / Master of Science
3

SIYA - Slide Into Your Albums : Design and construction of a controllable dolly camera with object recognition / Konstruktion av en automatiserad kamerarigg med objektigenkänning.

Adeeb, Karam, Alveteg, Adam January 2019 (has links)
The scope of this project is to design, construct and build an automated camera rig with object recognition. The project explores if there are any advantages with an automated camera rig compared to a manual one, how an external camera module can be implemented to track an object and under what circumstances the camera module can register the objects for optimal performance. The construction is built to travel along a rail of two iron pipes. A camera is mounted on a small wagon that travels on top of the rail with the help of a DC-motor. On the wagon, an external camera module called Pixy2 detects a predetermined object that the user wants the main camera to detect and focus on. Using the feedback data from the Pixy2, two stepper motors run to rotate the main camera horizontally and vertically so that the object is placed in the middle of the frame while the wagon travels along the rail. / Syftet med detta projekt är att konstruera och bygga en automatiserad kamerarigg med objektigenkänning. Projektet undersöker om det finns några fördelar med en automatiserad kamerarigg gentemot en manuell, hur en extern kameramodul implementeras för att kamerariggen ska kunna följa ett objekt och under vilka förhållanden kameramodulen registrerar objekten bäst. Kamerariggen är byggd för att åka längsmed en räls som består av två järnrör. En filmkamera är monterad på en vagn som rullar ovanpå denna räls och drivs med hjälp av en DC-motor. Ovanpå vagnen ska en extern kameramodul vid namn Pixy2 upptäcka ett förbestämt objekt som användaren vill att filmkameran ska fokusera på. Med hjälp av återkoppling av datan som Pixy2 registrerar styrs två stycken stegmotorer som antingen roterar filmkameran horisontellt i x-led eller vertikalt i y-led tills objektet är placerat i mitten av Pixy2’s synfält. På detta sätt kommer konstruktionen att fokusera på objektet samtidigt som den rör sig i sidled på rälsen.
4

Object Tracking andInterception System : Mobile Object Catching Robot using StaticStereo Vision / Objektspårning och uppfångningssystem

Calminder, Simon, Källström Chittum, Mattew January 2018 (has links)
The aim of this project is to examine the feasibility andreliability of the use of a low cost computer vision system totrack and intercept a thrown object. A stereo vision systemtracks the object using color recognition and then guides amobile wheeled robot towards an interception point in orderto capture it. Two different trajectory prediction modelsare compared. One model fits a second degree polynomialto the collected positional measurements of the object andthe other uses the Forward Euler Method to construct theobjects flight path.To accurately guide the robot, the angular position of therobot must also be measured. Two different methods ofmeasuring the angular position are presented and their respectivereliability are measured. A calibrated magnetometeris used as one method while pure computer vision isimplemented as the alternative method.A functional object tracking and interception system thatwas able to intercept the thrown object was constructed usingboth the polynomial fitting trajectory prediction modelas well as the one based on the Forward Euler Method.The magnetometer and pure computer vision are both viablemethods of determining the angular position of therobot with an error of less than 1.5°. / I detta projekt behandlas konstruktionen av och pålitligheteni en bollfånganderobot och dess bakomliggande lågbudgetkamerasystem.För att fungera i tre dimensioner användsen stereokameramodul som spårar bollen med hjälpav färgigenkänning och beräknar bollbanan samt förutspårnedslaget för att ge god tid till roboten att genskjuta bollen.Två olika bollbanemodeller testas, där den ena tar hänsyntill luftmotståndet och nedslaget beräknas numeriskt ochden andra anpassar en andragradspolynom till de observeradedatapunkterna.För att styra roboten till den tänkta uppfångningspunktenbehövs både robotens position, vilket bestäms med kameramodulen,och robotens riktning. Riktningen bestäms medbåde en magnetometer och med kameramodulen, för attundersöka vilken metod som passar bäst.Den förslagna konstruktionen för roboten och kamerasystemetkan spåra och fånga objekt med bådadera de testademodellerna för att beräkna bollbana, dock så är tillförlitligheteni den numeriska metoden betydligt känsligare fördåliga mätvärden. Det är även möjligt att använda sig avbåde magnetometern eller endast kameramodulen för attbestämma robotens riktning då båda ger ett fel under 1.5°.
5

Tic-Tac-Toe Robot : Automated Tic-Tac-Toe Game With Robotic Control / Tre-i-rad robot : Automatiserat tre-i-rad spel med robotstyrning

Takman, Emil, Rastman, Pontus January 2023 (has links)
This thesis covers the design, construction and programming of an automated tic-tac-toe game with robotic control and image processing. Research shows that robotic systems, over time, have transitioned from manufacturing tools to service tools with a large focus on human interaction, a central aspect- of this project. The research questions of the project are centered around the use of inverse kinematics and difficulties with using color recognition to identify player moves. Furthermore, a theoretical analysis of forward and inverse kinematics, image processing, the minimax algorithm and electrical components is presented. The prototype was developed using a Raspberry Pi, servo motors and a camera module to identify player moves. Multiple tests with regards to speed, accuracy and reliability were performed to evaluate the performance of the prototype. The accuracy tests showed minor positional deviations in the movement of the prototype. Additionally, the tests of the image processing algorithm showed that lighting is important to attain reliable color recognition. The project resulted in a fully functional prototype that enables a game of tic-tac-toe to be played against an automated opponent. Potential future work includes an improved design, more efficient methods to determine the optimal move and alternative image processing algorithms. / Detta arbete omfattar design, konstruktion och programmering av ett automatiserat tre-i-rad spel med robotstyrning och bildbehandling. Forskning visar att robotsystem med tiden har övergått från tillverkningsverktyg till hjälpmedel med ett stort fokus på mänsklig interaktion, en central aspekt i detta projekt. Forskningsfrågorna som behandlas i projektet innefattar användning av inverterad kinematik och svårigheter med att använda färgigenkänning för att identifiera spelardrag. Dessutom utförs en teoretisk analys av framåt- och inverterad kinematik, bildbehandling, minimax algoritmen och elektriska komponenter. Prototypen utvecklades med hjälp av en Raspberry Pi, servomotorer samt en kameramodul för att identifiera spelardrag. Flertalet tester kring hastighet, noggranhet och pålitlighet genomfördes för att utvärdera prototypens prestanda. Noggranhetstesterna visade på små positionavvikelser i prototypens rörelse. Testerna av bildbehandlingalgoritmen indikerade att belysning är en viktig aspekt för att uppnå en tillförlitlig färgigenkänning. Projektet resulterade i en fullt fungerande prototyp som gör det möjligt att spela tre-i-rad mot en automatiserad motståndare. Potentiella framtida förbättringar inkluderar en förbättrad design, effektivare metoder för att bestämma optimala spelardrag samt alternativa bildbehandlingsalgoritmer.
6

Object Tracking and Interception System : Mobile Object Catching Robot using Static Stereo Vision / Objektspårning och uppfångningssystem

CALMINDER, SIMON, KÄLLSTRÖM CHITTUM, MATTHEW January 2018 (has links)
The aim of this project is to examine the feasibility and reliability of the use of a low cost computer vision system to track and intercept a thrown object. A stereo vision system tracks the object using color recognition and then guides a mobile wheeled robot towards an interception point in order to capture it. Two different trajectory prediction models are compared. One model fits a second degree polynomial to the collected positional measurements of the object and the other uses the Forward Euler Method to construct the objects flight path. To accurately guide the robot, the angular position of the robot must also be measured. Two different methods of measuring the angular position are presented and their respective reliability are measured. A calibrated magnetometer is used as one method while pure computer vision is implemented as the alternative method. A functional object tracking and interception system that was able to intercept the thrown object was constructed using both the polynomial fitting trajectory prediction model as well as the one based on the Forward Euler Method. The magnetometer and pure computer vision are both viable methods of determining the angular position of the robot with an error of less than 1.5°. / I detta projekt behandlas konstruktionen av och pålitligheten i en bollfånganderobot och dess bakomliggande lågbudgetkamerasystem. För att fungera i tre dimensioner används en stereokameramodul som spårar bollen med hjälp av färgigenkänning och beräknar bollbanan samt förutspår nedslaget för att ge god tid till roboten att genskjuta bollen. Två olika bollbanemodeller testas, där den ena tar hänsyn till luftmotståndet och nedslaget beräknas numeriskt och den andra anpassar en andragradspolynom till de observerade datapunkterna. För att styra roboten till den tänkta uppfångningspunkten behövs både robotens position, vilket bestäms med kameramodulen, och robotens riktning.Riktningen bestäms medbåde en magnetometer och med kameramodulen, för att undersöka vilken metod som passar bäst. Den förslagna konstruktionen för roboten och kamerasystemet kan spåra och fånga objekt med bådadera de testade modellerna för att beräkna bollbana, dock så är tillförlitligheten i den numeriska metoden betydligt känsligare för dåliga mätvärden. Det är även möjligt att använda sig av både magnetometern eller endast kameramodulen för att bestämma robotens riktning då båda ger ett fel under 1.5°.

Page generated in 0.1369 seconds