Return to search

Accelerated LiDAR and RADAR sensor simulation for autonomous vehicles in mining environments

Background. Digital simulations of physical scenarios are becoming increasingly feasible and driverless vehicles are playing an ever growing part in contemporary mining operations and have the potential to increase productivity and worker safety. Such vehicles require sensors to detect their environments, two of the most common types being LiDAR and RADAR sensors. LiDAR sensors are sensitive to atmospheric sensory pollutants whereas RADAR sensors typically are not, but more susceptible to echoes. As such, digital simulations of such sensors seem a viable alternative to reduce costs and risks in testing new hardware. Objectives. This thesis aims to adapt existing models for CPU simulated LiDAR and RADAR sensors to the GPU as well as to further develop their functionality. These models will then be evaluated against one another according to their performance and scalability. Methods. The stated goals are achieved through the method of literary research, implementation, experimentation, and gathering of data. This data will then be structured, analyzed, and discussed to reach conclusions about the developed software models. Results. The results show that GPU accelerated sensor models have a high overhead cost compared to CPU implementation which hampers performance for low intensity simulations. GPU implementations do however scale more efficiently in many scenarios and achieved speedups of up to 650 times when executed on DXR shaders with heavy workloads than equivalent tests on the CPU. Likewise, low workloads appear unfit for GPU accelerations as the overhead cost of streaming data and instructions between the CPU and GPU can take over twice as long as merely executing the same instructions on the CPU. Conclusions. In conclusion, GPU accelerated ray tracing sensor simulations can be highly efficient compared to CPU implementations when tracing large numbers of rays or simulating many concurrent sensors, but may result in increased execution time if the workload is not high enough to justify the additional overhead cost of CPU-to-GPU communication. / Bakgrund. Digitala simuleringar av fysikaliska fenomen blir mer och mer görbara och självgående fordon spelar en allt större roll i dagens gruvoperationer. Dessa fordon har möjligheten att öka produktiviteten för företaget och säkerheten för arbetarna. Sådana fordon behöver sensorer för att finna sig i sin omgivning och LiDAR- och RADAR-sensorer är två av de vanligaste alternativen. LiDAR-sensorer är känsliga för luftburna störningsmoment medan RADAR-sensorer är jämförelsevis opåverkade men känsliga mot ekon. Med detta i åtanke verkar digitala simuleringar av sådana sensorer vara ett lovande alternativ för att sänka kostnader och risker med att testa ny hårdvara. Syfte. Syftet med arbetet är att översätta befintliga CPU modeller för att simulera LiDAR- och RADAR-sensorer till GPU-programvara såväl som att vidareutveckla deras funktionalitet. Dessa modeller kommer sedan att bli utvärderade gentemot varandra vad gäller deras prestanda och skalbarhet. Metod. De givna målen kommer att uppfyllas via litterära studier, implementation, experimentering och datainsamling. Denna data kommer sedan att bli omstrukturerad, analyserad, diskuteras, och få slutsatser dragna kring sig gällande den mjukvara som utvecklats och framförts. Resultat. Resultaten visar att GPU-accelererade sensormodeller har en hög overheadkostnad jämfört med CPU implementationerna, vilket sänker deras relativa prestanda i lågintensitetssimuleringar. GPU-implementationerna har dock högre skalbarhet i många situationer och kan uppnå resultat upp till 650 gånger snabbare än originalkoden när de istället utförs via DXR-shaders med hög arbetsbörda. Likaså är framstår låg arbetsbörda som opassande scenarion för GPU accelererad mjukvara då exekveringstiden på CPUn kan komma att bli snabbare än overheadkostnaden av att strömma datan och instruktionerna till GPUn. Slutsatser. GPU accelererad raytracing med stora antal strålar eller sensorer som exekveras samtidigt ger upphov till mycket tidseffektiva simuleringar men kan leda till ökad total exekveringstid om arbetsbördan inte blir tillräckligt hög för att rättfärdiga overheadkostnaden av GPU-till-CPU kommunikation.

Identiferoai:union.ndltd.org:UPSALLA1/oai:DiVA.org:bth-26357
Date January 2024
CreatorsLarsson, Herman
PublisherBlekinge Tekniska Högskola, Institutionen för datavetenskap
Source SetsDiVA Archive at Upsalla University
LanguageEnglish
Detected LanguageSwedish
TypeStudent thesis, info:eu-repo/semantics/bachelorThesis, text
Formatapplication/pdf
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0018 seconds