• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1464
  • 569
  • 408
  • 204
  • 178
  • 103
  • 54
  • 42
  • 37
  • 23
  • 22
  • 16
  • 14
  • 14
  • 14
  • Tagged with
  • 3699
  • 778
  • 678
  • 549
  • 529
  • 488
  • 463
  • 385
  • 356
  • 349
  • 336
  • 287
  • 285
  • 265
  • 257
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Particle Segmentation In Transmission Electron Microscopy Images

Svens, Lisa January 2022 (has links)
When pharmaceutical companies develop new drugs or vaccines there are large amounts of data in the form of images that need to be analysed, and any automation of that process is helpful to reduce time. These analyses could be for example concentration, decomposition, or classification, and essential to all these is high-quality particle localisation and segmentation. Therefore this thesis will focus on semantic segmentation of images of particles and viruses from a TEM microscope.  Various kinds of CNNs have been shown to give promising results in this area, however, there is still a need for improvement of these methods. Therefore it is interesting to see if combining a modern CNN with a graph-based model would improve its performance.  This thesis proposes a combination of a CNN, a modified version of the U-net, and a graph-based method, the CRF-RNN. The CRF-RNN is appended to the modified U-net and they are merged to create an end-to-end trainable segmentation network. This is then compared to using the standalone modified U-net to see if the CRF-RNN improves the accuracy.  Various loss functions, activation functions, and dropout rates are then tested to see which gives the best results under the given conditions. For both models, the best out of the tested hyperparameters were the dice loss and no dropout layers at all. For the standalone modified U-net the optimal activation function was the sigmoid function. However, for the network with the CRF-RNN addition, both softmax and sigmoid were good in different aspects.  Experiments done show that the model with the CRF-RNN addition performs slightly better than the model without, based on both measured metrics and visual inspection of the predicted outputs. Therefore it can be concluded that the CRF-RNN does improve the network it is attached to in this case. There is still much that could improve the networks though, for example parameter tuning of more hyperparameters using a GA.
192

Automation! : where it is taking us.

Lynch, John R. 01 January 1965 (has links) (PDF)
No description available.
193

Data-driven Modeling of Robotic Manipulators – Efficiency Aspects

Zimmermann, Stefanie January 2023 (has links)
Robotic manipulators are used for industrial automation and play an important role in manufacturing industry. Increasing performance requirements such as high operating speed and motion accuracy conflict with demands on heavy pay-loads and light-weight design with reduced structural stiffness. The motion control system is a key factor for dealing with these requirements, particularly for increasing the robot performance, improving safety and reducing power consumption. Most industrial robot control systems rely on current and angular position measurements from the motors, meaning that the actual controlled variable, that is the position of the robot’s end-effector, needs to be calculated using a model. Therefore, the mathematical model used for motion control must accurately describe the system’s dynamic behavior. Based on physics equations, the model contains unknown parameters that are usually identified from experimental data. This identification is a challenging problem, since the equations are nonlinear in the parameters, the system is highly resonant and experiments can only be done in closed loop with a controller.  Assuming a real robot is available for experiments, data-driven identification is common in order to obtain the most accurate description of the real system’s behavior. The method applied in this thesis estimates the dynamic stiffness parameters by matching the model’s frequency response function to the system’s frequency response, which is obtained from measurements done with the closed-loop robot system. The main focus of this thesis are strategies for increasing the process efficiency such that the time it takes to do the experiments is reduced, while the quality of the model is maintained or improved. Two strategies related to experiment design are presented: First, the number of quasi-static robot configurations for data collection is decreased by choosing the most informative configurations from a set of candidates. Second, less data-demanding methods for estimating the system’s frequency response are considered. The effectiveness of the presented approaches is demonstrated both in simulation and with real data.  If no robot is available for experiments, e.g. in the development phase, a model must be built based on specification data of components and other information available to the designer, such as CAD data. This thesis contains a modeling approach that derives a high-fidelity robot model of low order (lumped parameter model with few degrees of freedom) by combining results from test-rig measurements of isolated components with carefully reduced finite element models of the robot’s structural parts. / Robotmanipulatorer används för industriell automation och de spelar en viktig roll inom tillverkningsindustrin. Ökande prestandakrav som hög hastighet och noggrannhet hos robotens rörelse står i konflikt med trenden att bygga lättviktsrobotar som kan hantera tunga laster och som samtidigt är säkra för att jobba nära människor. Robotens styrsystem är en nyckelfaktor för att hantera dessa krav, särskilt för att öka robotens prestanda, förbättra säkerheten och minska strömförbrukningen. I de flesta tillämpningar är styrsystemets uppgift att säkerställa att robotens hand gör den önskade rörelsen, d.v.s. att handens position och hastighet motsvarar användarprogrammet. Positionen och hastigheten hos robotens hand är inte mätbara med sensorerna som är inbyggda i vanliga industriella robotar, vilket gör att de måste beräknas med hjälp av en matematisk modell. Denna modell måste beskriva det komplicerade sambandet mellan robotarmens rörelser och de motorer som orsakar rörelsen. Modellen är baserad på fysikaliska samband och innehåller okända parametrar som vanligtvis tas fram med hjälp av mätdata. Det som mäts är position och moment hos robotens alla motorer och det som är eftersökt är parametrarna relaterat till robotens styvhet. Metoden som används i denna avhandling tar fram styvhetsparametrarna genom att matcha modellens frekvenssvarsfunktion med det uppmätta frekvenssvaret för den verkliga roboten. Huvudfokus är strategier för att öka processeektiviteten så att tiden det tar att utföra mätningarna minskar, samtidigt som modellens kvalitet bibehålls eller förbättras. Två strategier presenteras: Den första minskar antalet robotkonfigurationer för mätdatainsamling genom att välja de mest informativa konfigurationerna från ett antal kandidater. Den andra strategin bygger på mindre datakrävande metoder för att skatta robotens frekvenssvar. Effektiviteten av de presenterade strategierna visas både i simulering och med verklig mätdata. Att få fram en bra matematisk modell är svårt om ingen robot är tillgänglig för mätningar, t.ex. i utvecklingsfasen av en ny robot. I så fall måste en modell byggas baserat på specifikationsdata för komponenter, t.ex. leverantörens information om växellådans styvhet, eller materialegenskaper för robotens struktur-delar. Styvheten av robotens strukturdelar kan beskrivas mycket noggrant med den så kallade finita element-metoden som delar strukturen i små delar och kombinerar ekvationerna för varje del till ett stort ekvationssystem. Detta ekvationssystem måste reduceras för att vara användbart i styrsystemets robotmodell. Denna avhandling innehåller ett modelleringssätt där man får fram en noggrann robotmodell genom att kombinera en reducerad styvhetsbeskrivning av robotens strukturdelar med specifikationsdata för komponenter. / <p><strong>Funding:</strong> Vinnova competence center LINK-SIC.</p><p></p><p>2023-05-04: ISBN (PDF) has been added in the E-version.</p>
194

Fjärrstyrningav industriell robot : En jämförande studie av fjärrstyrningslösningar

Carlsson, Oscar January 2023 (has links)
Fjärrstyrning av industrirobotar är en efterfrågan som ökar inom den svenska industrin. Detta är en efterfrågan dels för att följa mål 9 i Agenda 2030 att hålla personal borta från farlig arbetsmiljö. Studien kommer att genomföras på företaget IndustriAutomation (IA) i Sandviken och framöver vara ett underlag för arbetsuppdrag.Lösningar som togs upp i studien gäller både mjuk- och hårdvara med fokus på lösningar som fungerar med KUKA som robotleverantör. KUKA UK har tidigare tagit fram en joystick-lösning som har ett högt pris, den ligger som grund till tanken bakom studien där det bland annat undersöks om den ekonomiska kostnaden är hållbar kontra andra alternativ.Intervjuer med företag, en undersökning av marknaden och samtal med kunder genomförs för att ta fram de lösningar som används i studien. Fokus läggs på lösningar som innebär att roboten kan fjärrstyras i drift.Lösningarna som studien tar upp håller sig mycket lägre i pris än KUKAs joystick och dessutom erbjuds det flera olika lösningar som kan komma att passa olika kunder bättre. Styrdon med haptisk feedback till användare för ett billigare inköpspris återfinns bland alternativen. Kostnadsberäkningen är genomförd på inköpspris och tar inte hänsyn till de arbetstimmar som kan tillkomma för att leverera lösningen till kund, vilket innebär att det i slutändan kan vara mer lönsamt med KUKAs joystick. Den lösningen innefattar allting, installation och setup. I stort sett en plug-in lösning för en robotcell att komma åt fjärrstyrning.
195

Design of a Bistable Origami Stent with Pneumatic Actuation

von Rosen, Michelle January 2023 (has links)
What if stents could be easier removed when complications arise or removed once theirjob has been done? No matter how perfect a stent design becomes, the fundamental issueis that a foreign object in the body under extended periods eventually will cause devicedegradation and complications. So instead of making a long-term solution of a perfectstent, the focus in this paper is redirected from expensive materials to a simple design,with simple materials. The goal of this master’s thesis was, therefore, to design a stentthat incorporates bistability with the use of origami so it has the possibility of beingremoved after actuation. The result is a family of designs where the bistable behavior,cylinder roughness, and cylinder length are some of the parameters that can be adjusted.The design family is made out of a cylinder body based on Waterbomb origami and twobistable star elements at the cylinder’s endpoints. This design’s bistability is observedmathematically, with a projection approach, and then in simulation by doing an FEAAbaqus. Prototypes are manufactured with laser-cut designs and an assembly consistingof laying two stif l ayers w ith a n a dhesive l ayer i n b etween. T hese p rototypes a re thenused in an experimental setup that results in a clear display of the bistability, scalability,and adaptability of the design. The paper also gives a step-by-step guide in reproducingthe designed stent and suggestions for further research where applying the design toa medical setting is the most prominent one. With the design’s very fexible nature,further study also includes other actuation uses that could beneft from this radially andlongitudinal expanding bistable actuator.
196

Profiling Primitives of Networked Embedded Automation

Archer, Branden 21 May 2010 (has links)
No description available.
197

SENSOR FUSION FOR AUTONOMOUS NAVIGATION

Österlund, Dan January 2023 (has links)
This report describes the progress made in designing and constructing an unmanned surface vehicle. The focus is on the development of the vessel's perception system, which includes three LiDAR sensors and a camera. To process and integrate the data from these sensors, a sensor fusion architecture was implemented using a method called Point Painting. This approach involves labelling the points of a point cloud with class labels by projecting the pixels from a semantically segmented image onto the cloud. Since the initial publication of the algorithm, more modern segmentation networks have been invented. To improve the model's accuracy, the segmentation network is replaced with a more modern architecture. Using the CityScapes dataset, the implementation achieved accuracy comparable to the state-of-the-art, which is competitive with the state-of-the-art models for semantic segmentation.
198

Automating Network Operation Centers using Reinforcement Learning

Altamimi, Sadi 18 May 2023 (has links)
Reinforcement learning (RL) has been at the core of recent advances in fulfilling the AI promise towards general intelligence. Unlike other machine learning (ML) paradigms, such as supervised learning (SL) that learn to mimic how humans act, RL tries to mimic how humans learn, and in many tasks, managed to discover new strategies and achieved super-human performance. This is possible mainly because RL algorithms are allowed to interact with the world to collect the data they need for training by themselves. This is not possible in SL, where the ML model is limited to a dataset collected by humans which can be biased towards sub-optimal solutions. The downside of RL is its high cost when trained on real systems. This high cost stems from the fact that the actions taken by an RL model during the initial phase of training are merely random. To overcome this issue, it is common to train RL models using simulators before deploying them in production. However, designing a realistic simulator that faithfully resembles the real environment is not easy at all. Furthermore, simulator-based approaches don’t utilize the sheer amount of field-data available at their disposal. This work investigates new ways to bridge the gap between SL and RL through an offline pre-training phase. The idea is to utilize the field-data to pre-train RL models in an offline setting (similar to SL), and then allow them to safely explore and improve their performance beyond human-level. The proposed training pipeline includes: (i) a process to convert static datasets into RL-environment, (ii) an MDP-aware data augmentation process of offline-dataset, and (iii) a pre-training step that improves RL exploration phase. We show how to apply this approach to design an action recommendation engine (ARE) that automates network operation centers (NOC); a task that is still tackled by teams of network professionals using hand-crafted rules. Our RL algorithm learns to maximize the Quality of Experience (QoE) of NOC users and minimize the operational costs (OPEX) compared to traditional algorithms. Furthermore, our algorithm is scalable, and can be used to control large-scale networks of arbitrary size.
199

Robotic Radar Target Test-system : Test vehicle

Faroun, Ahmad, Hallgran, Sara January 2022 (has links)
Methods and tools for making testing and verification work more efficient and quality-assured are constantly being developed. These tests should ensure that the products delivered are set up correctly, have no defects and provide the desired functionality.In this project, a robot system and a computer program have been developed. Robot systems can move around a radar target along a route described by a line taped to the floor, the web application sends instructions to the robot. The robot is a CNC-cut 4WD base, the robot's functions are built up of a number of electrical components: IG42 gear motors and omnidirectional wheels, microcontrollers, motor drivers and Pixy2 camera. The robot's speed is regulated by means of a PD controller where the robot drives forward and maintains a straight direction, the robot also has the ability to rotate and find an object using a Pixy2 camera. The computer program is a web-based application that runs on a web browser.The work aims to automate product testing and product verification. By driving to different test points in a test track, the robot must, with the help of the web application, stop and carry out instructions on a radar target mounted on the robot. The result of the work was a robot that can follow a line, stop at test points, rotate and find objects as well as a web application that communicates and sends instructions to the robot. / Metoder och verktyg för att göra test och verifieringsarbetet effektivare ochkvalitetssäkert utvecklas hela tiden. Dessa tester skall leda till att produkter somlevereras är rätt inställda, har inget fel och ger den funktionalitet som önskas.I detta projekt har ett robotsystem och ett datorprogram utvecklats. Robotsystemkan flytta runt ett radarmål efter en rutt som beskrivs av en linje tejpad på golvet,webbapplikationen skickar instruktioner till roboten. Roboten är en CNC-skuren4WD-bas, robotens funktioner byggs upp av ett flertal elektriska komponenter:IG42- växelmotorer och rundstrålande hjul, mikrokontroller, motordrivare ochPixy2-kamera. Robotens hastighet regleras med hjälp av en PD-regulator därroboten kör fram och håller en rak riktning, roboten har också möjlighet att roteraoch hitta ett objekt med hjälp av en Pixy2-kamera. Datorprogrammet är enwebbaserad applikation som körs på en webbläsare.Arbetet har i syfte att automatisera produkttester och produktverifiering. Genom attköra fram till olika testpunkter i en testbana, ska roboten med hjälp av webb-applikationen stanna och utföra instruktioner på ett radarmål som är monterat påroboten. Arbetets resultat blev en robot som kan följa en linje, stanna vidtestpunkter, rotera och hitta objekt samt en webbapplikation som kommunicera ochskickar instruktioner till roboten.
200

Depth Inclusion for Classification and Semantic Segmentation / Klassificering och semantisk segmentering med färg och djup

Lotz, Max January 2018 (has links)
The  majority  of  computer  vision  algorithms  only  use  RGB  images  to  make  inferencesabout  the  state  of  the  world.  With  the  increasing  availability  of  RGB-D  cameras  it  is  im-portant  to  examine  ways  to  effectively  fuse  this  extra  modality  for  increased  effective-ness.  This  paper  examines  how  depth  can  be  fused  into  CNNs  to  increase  accuracy  in  thetasks  of  classification  and  semantic  segmentation,  as  well  as  examining  how  this  depthshould  best  be  effectively  encoded  prior  to  inclusion  in  the  network.  Concatenating  depthas  a  fourth  image  channel  and  modifying  the  dimension  of  the  initial  layer  of  a  pretrainedCNN  is  initially  examined.  Creating  a  separate  duplicate  network  to  train  depth  on,  andfusing  both  networks  in  later  stages  is  shown  to  be  an  effective  technique  for  both  tasks.The  results  show  that  depth  concatenation  is  an  ineffective  strategy  as  it  clamps  the  ac-curacy  to  the  lower  accuracy  of  the  two  modalities,  whilst  late  fusion  can  improve  thetask  accuracy  beyond  that  of  just  the  RGB  trained  network  for  both  tasks.  It  is  also  foundthat  methods  such  as  HHA  encoding  which  revolve  around  calculating  geometric  prop-erties  of  the  depth,  such  as  surface  normals,  are  a  superior  encoding  method  than  sim-pler  colour  space  transformations  such  as  HSV.  This  only  holds  true  when  these  depthimages  are  normalised  over  the  maximum  depth  of  the  dataset  as  opposed  to  the  maxi-mum  depth  of  each  individual  image,  thus  retaining  geometric  consistency  between  im-ages.  The  reverse  holds  true  for  simpler  colour  space  transformations. / Majoriteten av algoritmerna för datorseende använder bara färginformation för att dra sultsatser om hur världen ser ut. Med ökande tillgänglighet av RGB-D-kameror är det viktigt att undersöka sätt att effektivt kombinera färg- med djupinformation. I denna uppsats undersöks hur djup kan kombineras med färg i CNN:er för att öka presentandan i både klassificering och semantisk segmentering, så väl som att undersöka hur djupet kodas mest effektivt före dess inkludering i nätverket. Att lägga till djupet som en fjärde färgkanal och modifiera en förtränad CNN utreds inledningsvis. Sedan studeras att istället skapa en separat kopia av nätverket för att träna djup och sedan kombinera utdata från båda nätverken. Resultatet visar att det är ineffektivt att lägga till djup som en fjärde färgkanal då nätverket begränsas av den sämsta informationen från djup och färg. Fusion från två separata nätverk med färg och djup ökar prestanda bortom det som färg och djup erbjuder separat. Resultatet visar också att metoder så som HHA-kodning, är överlägsna jämfört med enklare transformationer så som HSV. Värt att notera är att detta endast gäller då djupbilderna är normaliserade över alla bilders maxdjup och inte i varje enskild bilds för sig. Motsatsen är sann för enklare transformationer.

Page generated in 0.0908 seconds