• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 495
  • 123
  • 72
  • 59
  • 43
  • 24
  • 23
  • 10
  • 8
  • 6
  • 5
  • 5
  • 3
  • 3
  • 2
  • Tagged with
  • 957
  • 368
  • 210
  • 137
  • 136
  • 130
  • 128
  • 127
  • 124
  • 116
  • 108
  • 92
  • 87
  • 80
  • 76
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Preenchimento e iluminação interativa de modelos 2.5 D

Marques, Bruno Augusto Dorta January 2014 (has links)
Orientador: Prof. Dr. João Paulo Gois / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Ciência da Computação, 2015. / Os avanços recentes para a criação de desenhos animados têm incorporado características que fazem alusão a profundidade e orientação tanto de efeitos de iluminação e sombreamento, como também a simulação de transformações geométricas 3D. Esses recursos melhoram a percepção visual de modelos cartoons e permitem a utilização de efeitos distintos e únicos. Um avanço que ganhou atenção nos últimos anos é o Modelo 2.5D, que simula transformações 3D a partir de um conjunto de imagens vetoriais 2D. Com isso, é criada não somente a percepção de orientação 3D, mas também a automatização do processo de criação de quadros intermediários (in-betweening) em uma animação. Entretanto, as técnicas atuais de modelagem 2.5D não permitem o uso de efeitos interativos de iluminação e preenchimento. Neste trabalho, é apresentado uma resolução ao problema de aplicar efeitos de iluminação em modelos 2.5D. A técnica proposta procura explorar, de forma inédita, a flexibilidade da GPU para inferir relevo e simular transformações 3D nos efeitos de preenchimento e iluminação de modelos 2D em tempo real. Demonstramos a aplicação de diversos efeitos, entre eles Phong shading, Cartoon shading, environment mapping, simulação de pelo (fur shading), mapeamento de texturas estáticas e dinâmicas e hatching shading. / Recent advances for designing and animating cartoons have incorporated depth and orientation cues such as shading and lighting effects, as well as the simulation of 3D geometrical transformations. These features improve the visual perception of cartoon models while increase the artists flexibility to achieve distinctive design styles. A recent advance that has gained attention in the last years is the 2.5D modeling, which simulates 3D transformations from a set of 2D vector arts. Therefore it creates not only the perception of animated 3D orientation, but also automatizes the inbetweening process. However, current 2.5D modeling techniques do not allow the use of interactive shading effects. In this work we approach the problem of delivering interactive 3D shading effects to 2.5D modeling. Our technique relies on the graphics pipeline to infer relief and to simulate the 3D transformations of the shading effect inside the 2D models in real-time. We demonstrate the application on Phong, Gooch and cel shadings, as well as environment mapping, fur simulation, animated texture mapping and (object-space and screen-space) texture hatchings.
312

Rendering Methods for 3D Fractals

Englund, Rickard January 2010 (has links)
3D fractals can be visualized as 3D objects with complex structure and has unlimited details. This thesis will be about methods to render 3D fractals effectively and efficiently, both to explore it in real-time and to create beautiful high resolution images with high details. The methods discussed is direct volume rendering with ray-casting and cut plane rendering to explore the fractal and an approach that uses super sampling to create high resolution images. Stereoscopic rendering is discussed and how it enhance the visual perception of the fractal
313

Odšumování obrazu pomocí vážené lokální regrese / Image Denoising Using Weighted Local Regression

Šťasta, Jakub January 2017 (has links)
The problem of accurately simulating light transport using Monte Carlo integration can be very difficult. In particular, scenes with complex illumination effects or complex materials can cause a scene to converge very slowly and demand a lot of computational time. To overcome this problem, image denoising algorithms have become popular in recent years. In this work we first review known approaches to denoising and adaptive rendering. We implement one of the promising algorithm by Moon et al. [2014] in a commercial rendering system Corona Standalone Renderer, evaluate its performance, strengths and weaknesses on 14 test scenes. These include difficult to denoise and converge rendering effects such as fine sub-pixel geometry, participating media, extreme depth of field of highlights, motion blur, and others. We propose corrections which make the algorithm more stable and robust. We show that it is possible to denoise renderings with Linear Weighted Regression only using a CPU. However, still even after our propositions, it is not possible to filter scenes in a consistent manner without over-blurring or not filtering where desired.
314

Alpha Tested Geometry in DXR : Performance Analysis of Asset Data Variations

Fast, Tobias January 2020 (has links)
Background. Ray tracing can be used to achieve hyper-realistic 3D rendering but it is a computationally heavy task. Since hardware support for real-time ray tracing was released, the game industry has been introducing this feature into games. However, even modern hardware still experience performance issues when implementing common rendering techniques with ray tracing. One of these problematic techniques is alpha testing. Objectives. The thesis will investigate the following: 1) How the texture format of the alpha map and the number of alpha maps affect the rendering times. 2) How tessellation of the alpha tested geometry affects the performance and if tessellation has the potential to fully replace the alpha test from a performance perspective. Methods. A DXR 3D renderer will be implemented capable of rendering alpha tested geometry using an any-hit shader. The renderer was used to conduct a computational performance benchmark of the rendering times while varying texture and geometry data. Two alpha tested tree models were tessellated to various levels and their related textures were converted into multiple formats that could be used for the test scenes. Results & Conclusions. When the texture formats BC7, R(1xfloat32), and BC4 were used for the alpha map, the rendering times decreased in all cases, relative RGBA(4xfloat32). BC4 showed to give the best performance gain, decreasing the rendering times with up to 17% using one alpha map per model and up to 43% using eight alpha maps. When increasing the number of alpha maps used per model the rendering times increased with up to 52% when going from one alpha map to two. A large increase in rendering times was observed when going from three to four alpha maps in all cases. Using alpha testing on the tessellated model versions increased the rendering times in most cases, at most 135%. A decrease of up to 8% was however observed when the models were tessellated a certain amount. Turning off alpha testing gave a significant decrease in rendering allowing higher tessellated versions to be rendered for all models. In one case, while increasing the number of triangles with a factor of 78 the rendering times were still decreased by 30% relative to the original alpha test implementation. This suggests that pre-tessellated models could potentially be used to replace alpha tessellated geometry when performance is highly required. / Bakgrund. Strålspårning(Ray tracing) kan användas för att uppnå hyperrealistisk 3D-rendering, men det är en mycket tung beräkningsuppgift. Sedan hårdvarustöd för att utföra strålspårning i realtid lanserades har spelindustrin introducerat funktionen i spel. Trots modern hårdvara upplevers fortfarande prestandaproblem när vanliga renderingstekniker kombineras med strålspårning. En av dessa problematiska tekniker är alfa-testning(alpha testing). Syfte. Denna avhandling kommer att undersöka följande: 1) Hur texturformatet på alfamasken(alpha map) och hur antalet alfamaskar påverkar renderingstiderna. 2) På vilket sätt tesselering av den alfa-testade geometrin påverkar prestandan och om tesselering har potentialen att ersätta alfa-testet helt ur ett prestandaperspektiv. Metod. En DXR 3D-renderare kommer att implementeras som kan rendera alfatestad geometri med hjälp av en “Any-hit” shader. Renderaren användes för att mäta och jämföra renderingstider givet varierande textur- och geometri-data. Två alfaprövade trädmodeller tesselaterades till olika nivåer och deras relaterade texturer konverterades till fyra format som användes i testscenerna. Resultat & Slutsatser. När texturformaten BC7, R(1xfloat32) och BC4 användes för alfamasken visade alla en minskad renderingstid relativ RGBA (4xfloat32). BC4 gav bästa prestandaökningen och minskade renderingstiden med upp till 17% med en alfamask per modell och upp till 43% med åtta alfamasker. När antalet alfamasker som användes per modell ökade renderingstiderna med upp till 52% när alfamaskerna ökade från en till två. En stor ökning av renderingstiden observerades när alfamaskerna gick från tre till fyra i alla testfall. När alfatestning användes på de tesselerade modellversionerna ökade renderingstiderna i de flesta fall, som högst 135%. En minskning på upp till 8% observerades emellertid när modellerna tesselaterades till en viss grad. Att stänga av alfatestning gav en signifikant ökning av prestandan, vilket tillät högre tesselerade versioner att renderas för alla modeller. Samtidigt som antalet trianglar ökade med en faktor på 78, i ett av fallen, minskades renderingstiden med 30%. Detta antyder att förtesselerade modeller potentiellt kan användas för att ersätta alfatestad geometri när prestanda är ett högt krav.
315

Improving Ray Tracing Performance with Variable Rate Shading

Dahlin, Alexander January 2021 (has links)
Background. Hardware-accelerated ray tracing has enabled ray traced reflections for real-time applications such as games. However, the number of rays traced each frame must be kept low to achieve expected frame rates. Therefore, techniques such as rendering the reflections at quarter resolution are used to limit the number of rays traced each frame. The new hardware features inline ray tracing, and hardware variable rate shading (VRS) could be combined to limit the rays even further. Objectives. The first goal is to use hardware VRS to limit the number of rays even further than rendering the reflections at quarter resolution, while maintaining the visual quality in the final rendered image. The second goal is to determine if inline ray tracing provides better performance than using ray generation shaders. Methods. Experiments are performed on a ray traced reflections pipeline using different techniques to generate rays. The techniques use inline ray tracing, inline ray tracing combined with VRS, and ray generation shaders. These are compared and evaluated using performance tests and the image evaluator \FLIP. Results. The results show that limiting the number of rays with hardware VRS result in a performance increase. The difference in visual quality between using inline ray tracing with VRS and previous techniques remain comparable. The performance tests show that inline ray tracing performs worse than ray generation shaders with increased scene complexity. Conclusions. The conclusion is that hardware VRS can be used to limit the number of rays and achieve better performance while visual quality remain comparable to previous techniques. Inline ray tracing does not perform better than ray generation shaders for workloads similar to ray traced reflections. / Bakgrund. Hårdvaruaccelererad strålspårning har möjliggjort strålspårade reflektioner för realtidsapplikationer såsom spel. Däremot måste antalet strålar som spåras hållas lågt för att förväntade bildfrekvenser ska uppnås. Därför används renderings-tekniker som att rendera reflektioner i en fjärdedels upplösning för att begränsa mängden strålar. De nya teknikerna inline strålspårning och hårdvarubaserad variable rate shading (VRS) kan användas för att minska antalet strålar ytterliggare. Syfte. Det första målet är att använda hårdvarubaserad VRS för att minska antalet strålar ytterligare jämfört med att rendera reflektioner i en fjärdedels upplösning, men samtidigt upprätthålla den visuella kvalitén. Det andra målet är att avgöra om inline strålspårning ger bättre prestanda än att använda strålgenererings shaders för reflektioner. Metod. För att svara på forskningsfrågorna ufördes experiment på en strålspårad reflektionspipeline med olika tekniker för att generera strålar. Teknikerna som testas är inline strålspårning, inline strålspårning kombinerat med VRS, samt strålgenererings shaders. Dessa jämförs och evalueras med prestandatester och bild-evaulatorn \FLIP. Resultat. Resultaten visar att minska mängden strålar med hårdvarubaserad VRS resulterar i en prestandaökning. Skillnaden i visuell kvalité mellan inline strålspårning kombinerat med VRS och tidigare tekniker är jämförbara. Prestandatesterna visar att inline strålspårning presterar värre än strålgenererings shaders vid ökad scenkomplexitet. Slutsatser. Slutsatsen är att hårdvarubaserad VRS kan användas för att minska antalet strålar och resultera i bättre prestanda, medan den visuella kvalitén är jämförbar med tidigare tekniker. Inline strålspårning ger inte bättre prestanda än strålgenererings shaders vid strålspårade reflektioner och liknande arbetsbelastning.
316

Real-Time Ray Tracing With Polarization Parameters

Enfeldt, Viktor January 2020 (has links)
Background. The real-time renderers used in video games and similar graphics applications do not model the polarization aspect of light. Polarization parameters have previously been incorporated in some offline ray-traced renderers to simulate polarizing filters and various optical effects. As ray tracing is becoming more and more prevalent in real-time renderers, these polarization techniques could potentially be used to simulate polarization and its optical effects in real-time applications as well. Objectives. This thesis aims to determine if an existing polarization technique from offline renderers is, from a performance standpoint, viable to use in real-time ray-traced applications to simulate polarizing filters, or if further optimizations and simplifications would be needed. Methods. Three ray-traced renderers were implemented using the DirectX RayTracing API: one polarization-less Baseline version; one Polarization version using an existing polarization technique; and one optimized Hybrid version, which is a combination of the other two. Their performance was measured and compared in terms of frametimes and VRAM usage in three different scenes and with five different ray counts. Results. The Polarization renderer is ca. 30% slower than the Baseline in the two more complex scenes, and the Hybrid version is around 5–15% slower than the Baseline in all tested scenes. The VRAM usage of the Polarization version was higher than the Baseline one in the tests with higher ray counts, but only by negligible amounts. Conclusions.  The Hybrid version has the potential to be used in real-time applications where high frame rates are important, but not paramount (such as the commonly featured photo modes in video games). The performance impact of the Polarization renderer's implementation is greater, but it could potentially be used as well. Due to limitations in the measurement process and the scale of the test application, no conclusions could be made about the implementations' impact on VRAM usage. / Bakgrund. Realtidsrenderarna som används i videospel och liknande grafikapplikationer simulerar inte ljusets polarisering. Polariseringsinformation har tidigare implementerats i vissa stålföljningsbaserade (ray-traced) offline-renderare för att simulera polariseringsfilter och diverse optiska effekter. Eftersom strålföljning har blivit allt vanligare i realtidsrenderare så kan dessa polariseringstekniker potentiellt också användas för att simulera polarisering och dess optiska effekter i sådana program. Syfte. Syftet med denna rapport är att avgöra om en befintlig polariseringsteknik från offline-renderare, från en prestandasynpunkt, är lämplig att använda för att simulera polariseringsfilter i stålföljningsbaserade realtidsapplikationer, eller om ytterligare optimeringar och förenklingar behövs. Metod. DirectX RayTracing API:et har använts för att implementera tre stålföljningsbaserade realtidsrenderare: en polarisationsfri Baseline-version; en Polarization-version med en befintlig polariseringsteknik; och en optimerad Hybrid-version, som är en kombination av de andra två. Deras prestanda mättes och jämfördes med avseende på frametime och VRAM-användning i tre olika scener och med fem olika antal strålar per pixel. Resultat. Polarization-versionen är ca 30% långsammare än Baseline-versionen i de två mest komplexa scenerna, och Hybrid-versionen är ca 5–15% långsammare än Baseline-versionen i alla testade scener. Polarization-versionens VRAM-användningen var högre än Baseline-versions i testerna med högre strålantal, men endast med försumbara mängder. Slutsatser. Hybrid-versionen har potential att användas i realtidsapplikationer där höga bildhastigheter är viktiga, men inte absolut nödvändiga (exempelvis de vanligt förekommande fotolägena i videospel). Polarization-versionens implementation hade sämre prestanda, men även den skulle potentiellt kunna användas i sådana applikationer. På grund av mätprocessens begränsningar och testapplikationens omfattning så kunde inga slutsatser dras gällande implementeringarnas påverkan på VRAM-användning.
317

Image Vectorization

Price, Brian L. 31 May 2006 (has links) (PDF)
We present a new technique for creating an editable vector graphic from an object in a raster image. Object selection is performed interactively in subsecond time by calling graph cut with each mouse movement. A renderable mesh is then computed automatically for the selected object and each of its (sub)objects by (1) generating a coarse object mesh; (2) performing recursive graph cut segmentation and hierarchical ordering of subobjects; (3) applying error-driven mesh refinement to each (sub)object. The result is a fully layered object hierarchy that facilitates object-level editing without leaving holes. Object-based vectorization compares favorably with current approaches in the representation and rendering quality. Object-based vectorization and complex editing tasks are performed in a few 10s of seconds.
318

FOLAR: A FOggy-LAser Rendering Method for Interaction in Virtual Reality / FOLAR: En FOggy-LAser Rendering Metod för Interaktion i Virtual Reality

Zhang, Tianli January 2020 (has links)
Current commercial Virtual Reality (VR) headsets give viewers immersion in virtual space with stereoscopic graphics and positional tracking. Developers can create VR applications in a working pipeline similar to creating 3D games using game engines. However, the characteristics of VR headsets give disadvantages to the rendering technique particle system with billboard sprites. In our study, we propose a rendering technique called FOggy-LAser Rendering method (FOLAR), which renders realistic laser in fog on billboard sprites. With this method, we can compensate for the disadvantages of using particle systems and still render the graphics in interactive performance for VR. We studied the characteristics of this method by performance benchmarks and comparing the rendered result to a baseline ray-casting method. User study and image similarity metrics are involved in the comparison study. As a result, we observed a satisfying performance and a similar rendering result compared to ray-casting. However, the user study still shows a significant difference in the rendered result between methods. These results imply that FOLAR is an acceptable method for its performance and ness in the rendered result, but still have inevitable trade-offs‌‌‌ in the graphics. / Nuvarande kommersiella Virtual Reality (VR) headset ger användare immersion i virtuellt utrymme med stereoskopisk grafik och positionsspårning. Utvecklare kan skapa VR-applikationer i en fungerande pipeline på ett liknande sätt som att skapa 3D-spel med hjälp av spelmotorer. Egenskaperna hos VR-headset ger emellertid nackdelar med renderingstekniken av billboard sprite partikelsystem. I vår studie föreslår vi en renderingsteknik som kallas FOggy-LAser Rendering method (FOLAR), som renderar realistiska lasrar i dimma på billboard sprites. Med denna metod kan vi kompensera för nackdelarna med att använda partikelsystem och fortfarande göra grafiken i interaktiv prestanda för VR. Vi studerade egenskaperna hos denna metod genom prestanda benchmarks och jämförde renderade resultatet med en baseline ray-cast metod. Användarstudie och image similarity mätvärden är involverade i jämförelsestudien. Som resultat observerade vi en tillfredsställande prestanda och liknande renderings resultat jämfört med ray-casting. Dock visar användarstudien fortfarande en signifikant skillnad i det gjorda resultaten mellan metoderna. Dessa resultat pekar på att FOLAR är en acceptabel metod för dess prestanda och korrekthet i det renderade resultatet, men har fortfarande oundvikliga avvägningar i grafiken.
319

Client-side rendering och Server-side rendering : En komparativ studie ur ett prestanda-, SEO- och tillgänglighetsperspektiv / Client-side rendering and Server-side rendering : A comparative study from a performance, SEO and accessibility perspective

Weber, Mateusz January 2023 (has links)
Valet mellan client-side rendering och server-side rendering har varit en stor fråga de senasteåren. Server-side rendering har alltid varit den man lutar sig åt för snabba initialaladdningstider och SEO-optimering, men utvecklingen av webbsidor går snabbt och merinteraktiva webbsidor önskas av användare, där kommer client-side rendering in i valet och dåmåste man ta ett beslut. Denna komparativa studie genomfördes i syfte med att jämföra server-side rendering ochclient-side rendering. Jämförelsen gjordes på fyra testobjekt ur ett prestanda, SEO ochtillgänglighetsperspektiv. Prestandakriterierna som användes är first contentful paint, largestcontentful paint, speed index, total blocking time och cumulative layout shift. SEO-optimering mätte man igenom hur korrekt implementerad den var och samma förtillgängligheten. Fyra testobjekt valdes ut med liknande interaktivitet och funktionalitet för att få en sånoggrann jämförelse som möjligt. För att samla in data så användes verktyget Google Lighthouse som ett tillägg i webbläsaren Google Chrome. En sekvens följdes för att samla indata medan man interagerar med webbsidan för att se hur bra prestanda testobjekten har underinteraktivitet. Resultaten visade att båda renderingsteknikerna har både fördelar och nackdelar. Server-siderendering visade bättre prestandaresultat och SEO-optimering medan client-side hade bättreresultat på tillgänglighet och användbarhet. Sammanfattningsvis så rekommenderas en teknik beroende på vad för krav som ställs i början av projektet. Vill man ha en användarvänlig webbsida med mycket interaktivitet så rekommenderas client-side rendering och vill man ha en webbsida som har snabba laddningstider och bra SEO-optimering så rekommenderas server-side rendering.
320

Volumetric Rendering of the Inner Coma of a Theoretically Modelled Comet for Comet Interceptor Mission

Vinod, Amal January 2023 (has links)
The Comet Interceptor is a joint mission by European Space Agency (ESA) and Japan Aerospace Exploration Agency (JAXA) which seeks to perform a flyby over a Long Period Comet using a multi-element spacecraft. The Comet Interceptor comprises three spacecrafts- A, B1 and B2. All three spacecrafts will observe and map the comet at three different points on the coma of the comet, thereby making this mission the first ever multipoint mission dedicated to study a Long Period Comet. Out of the eleven instruments aboard the Comet Interceptor, the work done for this thesis aims to help the team designing the instrument-Optical Periscope Imager forComets (OPIC). The team designing OPIC uses the imaging simulation software Space Imaging Simulator for Proximity Operations (SISPO) to render images of theoretically modelled dust and gas densities of the coma of a comet to obtain prerequisite knowledge of the images which is to be taken by OPIC during its flyby. Using the theoretical model of the coma, a 3D model was created as part of the thesis which shall be later implemented in SISPO. The structure of the coma was made with the help of a sparse volumetric data manipulation tool OpenVDB, which was coded and run in Python. The generated data was imported in Blender to visualise the volumetric data with the help of Blender’s rendering engine-Cycles. To visualise the 3D model with utmost physical realism as the software Blender allows, a study on the scattering properties of the dust and gas model was done. Also, a motion blur was implemented in Blender to simulate the high relative velocity between the instrument and comet. Multiple approaches of varying complexities and time consumption were considered for importing and visualising the volumetric data. The final render images were brightness-matched with reference to images from previous cometary missions. Finally, a qualitative analysis was done by visually comparing the render images to the images from previous missions. With the help of this qualitative analysis, several features and characteristics were identified which were analogous to the real life images, thus establishing the correctness of the renders produced.

Page generated in 0.1703 seconds