• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 8
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 27
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Desenvolvimento de um modelo computacional para cálculos de dose absorvida em órgãos e tecidos do corpo humano nas situações de exposições acidentais

SANTOS, Adriano Márcio dos January 2006 (has links)
Made available in DSpace on 2014-06-12T23:15:41Z (GMT). No. of bitstreams: 2 arquivo9084_1.pdf: 2082722 bytes, checksum: 16498a33dff006a2b3ac65bb3600d937 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / A exposição a um campo de radiação pode ser de natureza medica, ambiental, ocupacional ou acidental, mas em todos os casos, o principal objetivo é a determinação da dose absorvida no corpo inteiro ou a distribuição da dose absorvida em órgãos e tecidos específicos. Nos anos recentes, as estimativas de dose absorvida no corpo humano se tornaram mais precisas devido aos avanços da tecnologia moderna nas áreas de instrumentação e desenvolvimento de computadores. Além dos dosímetros e métodos biodosimétricos, existem os modelos computacionais de exposição baseados nos métodos Monte Carlo (MC) para o cálculo da dose absorvida em órgãos e tecidos. Para simular corretamente os processos de transporte da radiação no corpo humano, o código computacional MC pode ser acoplado a um fantoma antropomórfico de voxels, que atualmente pode ser considerado como a melhor representação da natureza do corpo humano para o propósito de determinação da dose absorvida. Neste trabalho, um modelo computacional de exposição foi desenvolvido pelo acoplamento do código Monte Carlo EGS4 ao fantoma de voxels MAX, que foi adequadamente modificado para permitir especialmente a avaliação da dose absorvida em humanos expostos a fontes externas de radiação em situações acidentais. Para adaptar facilmente o modelo de exposição MAX/EGS4 as situações acidentais, uma fonte pontual generalizada foi desenvolvida para ser colocada em posições arbitrárias com respeito ao corpo humano. As propriedades funcionais desta fonte pontual generalizada foram verificadas com um fantoma Alderson-Rando (AR). O fantoma físico AR foi digitalizado por um tomógrafo computadorizado e as imagens segmentadas do fantoma AR virtual foram subseqüentemente conectadas ao código MC EGS4. Os dados das exposições experimentais do fantoma físico AR foram comparados aos resultados obtidos de correspondentes simulações de exposições do fantoma AR virtual com o código MC EGS4. Aplicações do modelo de exposição acidental MAX/EGS4 foram demonstradas neste estudo para dois acidentes radiológicos selecionados que aconteceram em Yanango (Peru) e Nesvizh (Belarus). De acordo com as informações relatadas nos correspondentes relatórios da IAEA (International Atomic Energy Agency), as condições de exposição dos dois acidentes foram simuladas com o modelo de exposição MAX/EGS4, e no caso do acidente em Nesvizh (Belarus) incluiu uma modificação na postura do fantoma MAX. Os resultados mostraram que o modelo de exposição MAX/EGS4 pode ser ajustado corretamente para condições de irradiações específicas, e doses absorvidas em tecidos e órgãos radiossensíveis resultantes de exposições acidentais podem ser determinadas com precisão suficiente, condição crucial para o tratamento médico de indivíduos expostos
2

GigaVoxels : un pipeline de rendu basé Voxel pour l'exploration efficace de scènes larges et détaillées / GigaVoxels : a Voxel-Based Rendering Pipeline For Efficient Exploration Of Large and Detailed Scenes

Crassin, Cyril 12 July 2011 (has links)
Dans cette thèse, nous présentons une nouvelle approche efficace pour le rendu de scènes vastes et d'objets détaillés en temps réel. Notre approche est basée sur une nouvelle représentation pré-filtrée et volumique de la géométrie et un lancer de cone basé-voxel qui permet un rendu précis et haute performance avec une haute qualité de filtrage de géométries très détaillées. Afin de faire de cette représentation voxel une primitive de rendu standard pour le temps-réel, nous proposons une nouvelle approche basée sur les GPUs conçus entièrement pour passer à l'échelle et supporter ainsi le rendu des volumes de données très volumineux. Notre système permet d'atteindre des performances de rendu en temps réel pour plusieurs milliards de voxels. Notre structure de données exploite le fait que dans les scènes CG, les détails sont souvent concentrées sur l'interface entre l'espace libre et des grappes de densité et montre que les modèles volumétriques pourrait devenir une alternative intéressante en tant que rendu primitif pour les applications temps réel. Dans cet esprit, nous permettons à un compromis entre qualité et performances et exploitons la cohérence temporelle. Notre solution est basée sur une représentation hiérarchiques des données adaptées en fonction de la vue actuelle et les informations d'occlusion, couplé à un algorithme de rendu par lancer de rayons efficace. Nous introduisons un mécanisme de cache pour le GPU offrant une pagination très efficace de données dans la mémoire vidéo et mis en œuvre comme un processus data-parallel très efficace. Ce cache est couplé avec un pipeline de production de données capable de charger dynamiquement des données à partir de la mémoire centrale, ou de produire des voxels directement sur le GPU. Un élément clé de notre méthode est de guider la production des données et la mise en cache en mémoire vidéo directement à partir de demandes de données et d'informations d'utilisation émises directement lors du rendu. Nous démontrons notre approche avec plusieurs applications. Nous montrons aussi comment notre modèle géométrique pré-filtré et notre lancer de cones approximé peuvent être utilisés pour calculer très efficacement divers effets de flou ainsi d'éclairage indirect en temps réel. / In this thesis, we present a new approach to efficiently render large scenes and detailed objects in real-time. Our approach is based on a new volumetric pre-filtered geometry representation and an associated voxel-based approximate cone tracing that allows an accurate and high performance rendering with high quality filtering of highly detailed geometry. In order to bring this voxel representation as a standard real-time rendering primitive, we propose a new GPU-based approach designed to entirely scale to the rendering of very large volumetric datasets. Our system achieves real-time rendering performance for several billion voxels. Our data structure exploits the fact that in CG scenes, details are often concentrated on the interface between free space and clusters of density and shows that volumetric models might become a valuable alternative as a rendering primitive for real-time applications. In this spirit, we allow a quality/performance trade-off and exploit temporal coherence. Our solution is based on an adaptive hierarchical data representation depending on the current view and occlusion information, coupled to an efficient ray-casting rendering algorithm. We introduce a new GPU cache mechanism providing a very efficient paging of data in video memory and implemented as a very efficient data-parallel process. This cache is coupled with a data production pipeline able to dynamically load or produce voxel data directly on the GPU. One key element of our method is to guide data production and caching in video memory directly based on data requests and usage information emitted directly during rendering. We demonstrate our approach with several applications. We also show how our pre-filtered geometry model and approximate cone tracing can be used to very efficiently achieve blurry effects and real-time indirect lighting.
3

Avaliações dosimétricas em pacientes submetidos à radioiodoterapia com base em fantomas de Voxels e em imagens de medicina nuclear

de Jesus Lopes Filho, Ferdinand January 2007 (has links)
Made available in DSpace on 2014-06-12T23:13:24Z (GMT). No. of bitstreams: 2 arquivo2638_1.pdf: 2679589 bytes, checksum: 974e8cefad2d337fc1433833c1971a27 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Em radioiodoterapia, os pacientes são submetidos à incorporação da substância radioativa Iodeto de Sódio (NaI), que reage fisiologicamente com metástases, restos de tecido tireoideano e outros órgãos e tecidos do corpo humano. Uma questão complexa é a estimativa da distribuição temporal e espacial da dose absorvida em órgãos e tecidos radiossensíveis dos pacientes submetidos a este tipo de tratamento. Como é praticamente impossível medir de forma direta a dose absorvida em regiões internas do paciente, utiliza-se a dosimetria numérica para tais estimavas. A dosimetria numérica utiliza modelos antropomórficos acoplados a códigos Monte Carlo para simular o transporte da radiação e sua interação com a matéria, bem como avaliar a dose depositada em órgãos e tecidos radiossensíveis. Para realizar estas avaliações de dose é preciso desenvolver algoritmos para simular as fontes radioativas envolvidas no problema. O conjunto formado pelas fontes radioativas, o modelo antropomórfico e o código Monte Carlo é, usualmente, denominado modelo computacional de exposição, onde a palavra exposição está aqui grafada no seu sentido mais geral. A proposta deste trabalho é desenvolver um destes modelos para estimar as frações absorvidas, as frações absorvidas específicas e as razões entre dose equivalente e atividade acumulada do 131I, específico para pacientes submetidos ao tratamento de radioiodoterapia. O modelo antropomórfico usado é o fantoma de voxels FAX (Female Adult VoXel), os algoritmos para simular as fontes radioativas internas são baseados em imagens de varredura de corpo inteiro do paciente e o código Monte Carlo é o EGS4. Os resultados obtidos com o modelo computacional desenvolvido foram comparados com os obtidos com o software MIRDOSE 3 e outros similares publicados. É possível estimar as doses equivalentes nos órgãos e tecidos radiossensíveis dos pacientes usando os coeficientes de conversão aqui desenvolvidos
4

Desenvolvimento de modelos antropomórficos patológicos usando técnicas de modelagem 3D para dosimetria numérica

Souza da Silva Costa, Kleber 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T23:14:39Z (GMT). No. of bitstreams: 2 arquivo2686_1.pdf: 1662849 bytes, checksum: 23142fd4598edf7118a9f66feffb46c3 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Os Modelos Computacionais de Exposição são utilizados para estimar a dose absorvida pelo paciente em uma série de situações, tais como: exames de raios-X para diagnóstico, acidentes e tratamentos médicos. Esses modelos são compostos, fundamentalmente, por um simulador antropomórfico (fantoma), um algoritmo que simule uma fonte radioativa e um código Monte Carlo. O acoplamento de um fantoma de voxels a um código Monte Carlo é um processo complexo e quase sempre resulta na solução de um problema particular dentro de uma das situações citadas anteriormente. A fidelidade dos dados obtidos na simulação está fortemente ligada à adequação desta simulação à situação real. O fantoma é um dos fatores de difícil manipulação pelo pesquisador, pois geralmente são desenvolvidos em decúbito dorsal e apresentam anatomia padrão. Diversas patologias alteram a estrutura dos órgãos ou tecidos do corpo. Para mensurar o quanto essas alterações são significativas, este projeto desenvolveu dois modelos antropomórficos patológicos: uma paciente mastectomizada e um paciente com aumento do volume renal bilateral. Estes dois modelos foram desenvolvidos a partir dos fantomas de voxels Mash (Male Adult meSH) e Fash (Female Adult meSH), e foram acoplados ao código Monte Carlo EGSnrc (Electron Gamma Shower, versão nrc). As ferramentas utilizadas e desenvolvidas nesse trabalho estão implementadas em 3 softwares do GDN/CNPq: o FANTOMAS, o DIP e o FantomaGL (desenvolvido nesse trabalho). Os Modelos Computacionais de exposição desenvolvidos permitem a comparação de dados dosimétricos levando em consideração fantomas patológicos e fantomas saudáveis
5

Thresholding FMRI images

Pavlicova, Martina January 2004 (has links)
No description available.
6

Análise geoestatística multi-pontos / Analysis of multiple-point geostatistics

Cruz Rodriguez, Joan Neylo da 12 June 2013 (has links)
Estimativa e simulação baseados na estatística de dois pontos têm sido usadas desde a década de 1960 na análise geoestatístico. Esses métodos dependem do modelo de correlação espacial derivado da bem conhecida função semivariograma. Entretanto, a função semivariograma não pode descrever a heterogeneidade geológica encontrada em depósitos minerais e reservatórios de petróleo. Assim, ao invés de usar a estatística de dois pontos, a geoestatística multi-pontos, baseada em distribuições de probabilidade de múltiplo pontos, tem sido considerada uma alternativa confiável para descrição da heterogeneidade geológica. Nessa tese, o algoritmo multi-ponto é revisado e uma nova solução é proposta. Essa solução é muito melhor que a original, pois evita usar as probabilidades marginais quando um evento que nunca ocorre é encontrado no template. Além disso, para cada realização a zona de incerteza é ressaltada. Uma base de dados sintética foi gerada e usada como imagem de treinamento. A partir dessa base de dados completa, uma amostra com 25 pontos foi extraída. Os resultados mostram que a aproximação proposta proporciona realizações mais confiáveis com zonas de incerteza menores. / Estimation and simulation based on two-point statistics have been used since 1960\'s in geostatistical analysis. These methods depend on the spatial correlation model derived from the well known semivariogram function. However, the semivariogram function cannot describe the geological heterogeneity found in mineral deposits and oil reservoirs. Thus, instead of using two-point statistics, multiple-point geostatistics based on probability distributions of multiple-points has been considered as a reliable alternative for describing the geological heterogeneity. In this thesis, the multiple-point algorithm is revisited and a new solution is proposed. This solution is much better than the former one because it avoids using marginal probabilities when a never occurring event is found in a template. Moreover, for each realization the uncertainty zone is highlighted. A synthetic data base was generated and used as training image. From this exhaustive data set, a sample with 25 points was drawn. Results show that the proposed approach provides more reliable realizations with smaller uncertainty zones.
7

Mandible and Skull Segmentation in Cone Bean Computed Tomography Data / Segmentação da mandíbula e o crânio em tomografia computadorizada de feixe cônico

Linares, Oscar Alonso Cuadros 18 December 2017 (has links)
Cone Beam Computed Tomography (CBCT) is a medical imaging technique routinely employed for diagnosis and treatment of patients with cranio-maxillo-facial defects. CBCT 3D reconstruction and segmentation of bones such as mandible or maxilla are essential procedures in orthodontic treatments. However, CBCT images present characteristics that are not desirable for processing, including low contrast, inhomogeneity, noise, and artifacts. Besides, values assigned to voxels are relative Hounsfield Units (HU), unlike traditional Computed Tomography (CT). Such drawbacks render CBCT segmentation a difficult and time-consuming task, usually performed manually with tools designed for medical image processing. We introduce two interactive two-stage methods for 3D segmentation of CBCT data: i) we first reduce the CBCT image resolution by grouping similar voxels into super-voxels defining a graph representation; ii) next, seeds placed by users guide graph clustering algorithms, splitting the bones into mandible and skull. We have evaluated our segmentation methods intensively by comparing the results against ground truth data of the mandible and the skull, in various scenarios. Results show that our methods produce accurate segmentation and are robust to changes in parameter settings. We also compared our approach with a similar segmentation strategy and we showed that it produces more accurate segmentation of the mandible and skull. In addition, we have evaluated our proposal with CT data of patients with deformed or missing bones. We obtained more accurate segmentation in all cases. As for the efficiency of our implementation, a segmentation of a typical CBCT image of the human head takes about five minutes. Finally, we carried out a usability test with orthodontists. Results have shown that our proposal not only produces accurate segmentation, as it also delivers an effortless and intuitive user interaction. / Tomografia Computadorizada de Feixe Cônico (TCFC) é uma modalidade para obtenção de imagens médicas 3D do crânio usada para diagnóstico e tratamento de pacientes com defeitos crânio-maxilo-faciais. A segmentação tridimensional de ossos como a mandíbula e a maxila são procedimentos essências em tratamentos ortodônticos. No entanto, a TCFC apresenta características não desejáveis para processamento digital como, por exemplo, baixo contraste, inomogeneidade, ruído e artefatos. Além disso, os valores atribuídos aos voxels são unidades de Hounsfield (HU) relativas, diferentemente da Tomografia Computadorizada (TC) tradicional. Esses inconvenientes tornam a segmentação de TCFC uma tarefa difícil e demorada, a qual é normalmente realizada por meio de ferramentas desenvolvidas para processamento digital de imagens médicas. Esta tese introduz dois métodos interativos para a segmentação 3D de TCFC, os quais são divididos em duas etapas: i) redução da resolução da TCFC por meio da agrupamento de voxels em super-voxels, seguida da criação de um grafo no qual os vértices são super-voxels; ii) posicionamento de sementes pelo usuário e segmentação por algoritmos de agrupamento em grafos, o que permite separar os ossos rotulados. Os métodos foram intensamente avaliados por meio da comparação dos resultados com padrão ouro da mandíbula e do crânio, considerando diversos cenários. Os resultados mostraram que os métodos não apenas produzem segmentações precisas, como também são robustos a mudanças nos parâmetros. Foi ainda realizada uma comparação com um trabalho relacionado, gerando melhores resultados tanto na segmentação da mandíbula quanto a do crânio. Além disso, foram avaliadas TCs de pacientes com ossos faltantes e quebrados. A segmentação de uma TCFC é realizada em cerca de 5 minutos. Por fim, foram realizados testes com usuarios ortodontistas. Os resultados mostraram que nossa proposta não apenas produz segmentações precisas, como também é de fácil interação.
8

Mandible and Skull Segmentation in Cone Bean Computed Tomography Data / Segmentação da mandíbula e o crânio em tomografia computadorizada de feixe cônico

Oscar Alonso Cuadros Linares 18 December 2017 (has links)
Cone Beam Computed Tomography (CBCT) is a medical imaging technique routinely employed for diagnosis and treatment of patients with cranio-maxillo-facial defects. CBCT 3D reconstruction and segmentation of bones such as mandible or maxilla are essential procedures in orthodontic treatments. However, CBCT images present characteristics that are not desirable for processing, including low contrast, inhomogeneity, noise, and artifacts. Besides, values assigned to voxels are relative Hounsfield Units (HU), unlike traditional Computed Tomography (CT). Such drawbacks render CBCT segmentation a difficult and time-consuming task, usually performed manually with tools designed for medical image processing. We introduce two interactive two-stage methods for 3D segmentation of CBCT data: i) we first reduce the CBCT image resolution by grouping similar voxels into super-voxels defining a graph representation; ii) next, seeds placed by users guide graph clustering algorithms, splitting the bones into mandible and skull. We have evaluated our segmentation methods intensively by comparing the results against ground truth data of the mandible and the skull, in various scenarios. Results show that our methods produce accurate segmentation and are robust to changes in parameter settings. We also compared our approach with a similar segmentation strategy and we showed that it produces more accurate segmentation of the mandible and skull. In addition, we have evaluated our proposal with CT data of patients with deformed or missing bones. We obtained more accurate segmentation in all cases. As for the efficiency of our implementation, a segmentation of a typical CBCT image of the human head takes about five minutes. Finally, we carried out a usability test with orthodontists. Results have shown that our proposal not only produces accurate segmentation, as it also delivers an effortless and intuitive user interaction. / Tomografia Computadorizada de Feixe Cônico (TCFC) é uma modalidade para obtenção de imagens médicas 3D do crânio usada para diagnóstico e tratamento de pacientes com defeitos crânio-maxilo-faciais. A segmentação tridimensional de ossos como a mandíbula e a maxila são procedimentos essências em tratamentos ortodônticos. No entanto, a TCFC apresenta características não desejáveis para processamento digital como, por exemplo, baixo contraste, inomogeneidade, ruído e artefatos. Além disso, os valores atribuídos aos voxels são unidades de Hounsfield (HU) relativas, diferentemente da Tomografia Computadorizada (TC) tradicional. Esses inconvenientes tornam a segmentação de TCFC uma tarefa difícil e demorada, a qual é normalmente realizada por meio de ferramentas desenvolvidas para processamento digital de imagens médicas. Esta tese introduz dois métodos interativos para a segmentação 3D de TCFC, os quais são divididos em duas etapas: i) redução da resolução da TCFC por meio da agrupamento de voxels em super-voxels, seguida da criação de um grafo no qual os vértices são super-voxels; ii) posicionamento de sementes pelo usuário e segmentação por algoritmos de agrupamento em grafos, o que permite separar os ossos rotulados. Os métodos foram intensamente avaliados por meio da comparação dos resultados com padrão ouro da mandíbula e do crânio, considerando diversos cenários. Os resultados mostraram que os métodos não apenas produzem segmentações precisas, como também são robustos a mudanças nos parâmetros. Foi ainda realizada uma comparação com um trabalho relacionado, gerando melhores resultados tanto na segmentação da mandíbula quanto a do crânio. Além disso, foram avaliadas TCs de pacientes com ossos faltantes e quebrados. A segmentação de uma TCFC é realizada em cerca de 5 minutos. Por fim, foram realizados testes com usuarios ortodontistas. Os resultados mostraram que nossa proposta não apenas produz segmentações precisas, como também é de fácil interação.
9

Análise geoestatística multi-pontos / Analysis of multiple-point geostatistics

Joan Neylo da Cruz Rodriguez 12 June 2013 (has links)
Estimativa e simulação baseados na estatística de dois pontos têm sido usadas desde a década de 1960 na análise geoestatístico. Esses métodos dependem do modelo de correlação espacial derivado da bem conhecida função semivariograma. Entretanto, a função semivariograma não pode descrever a heterogeneidade geológica encontrada em depósitos minerais e reservatórios de petróleo. Assim, ao invés de usar a estatística de dois pontos, a geoestatística multi-pontos, baseada em distribuições de probabilidade de múltiplo pontos, tem sido considerada uma alternativa confiável para descrição da heterogeneidade geológica. Nessa tese, o algoritmo multi-ponto é revisado e uma nova solução é proposta. Essa solução é muito melhor que a original, pois evita usar as probabilidades marginais quando um evento que nunca ocorre é encontrado no template. Além disso, para cada realização a zona de incerteza é ressaltada. Uma base de dados sintética foi gerada e usada como imagem de treinamento. A partir dessa base de dados completa, uma amostra com 25 pontos foi extraída. Os resultados mostram que a aproximação proposta proporciona realizações mais confiáveis com zonas de incerteza menores. / Estimation and simulation based on two-point statistics have been used since 1960\'s in geostatistical analysis. These methods depend on the spatial correlation model derived from the well known semivariogram function. However, the semivariogram function cannot describe the geological heterogeneity found in mineral deposits and oil reservoirs. Thus, instead of using two-point statistics, multiple-point geostatistics based on probability distributions of multiple-points has been considered as a reliable alternative for describing the geological heterogeneity. In this thesis, the multiple-point algorithm is revisited and a new solution is proposed. This solution is much better than the former one because it avoids using marginal probabilities when a never occurring event is found in a template. Moreover, for each realization the uncertainty zone is highlighted. A synthetic data base was generated and used as training image. From this exhaustive data set, a sample with 25 points was drawn. Results show that the proposed approach provides more reliable realizations with smaller uncertainty zones.
10

GigaVoxels : un pipeline de rendu basé Voxel pour l'exploration efficace de scènes larges et détaillées

Crassin, Cyril 12 July 2011 (has links) (PDF)
Dans cette thèse, nous présentons une nouvelle approche efficace pour le rendu de scènes vastes et d'objets détaillés en temps réel. Notre approche est basée sur une nouvelle représentation pré-filtrée et volumique de la géométrie et un lancer de cone basé-voxel qui permet un rendu précis et haute performance avec une haute qualité de filtrage de géométries très détaillées. Afin de faire de cette représentation voxel une primitive de rendu standard pour le temps-réel, nous proposons une nouvelle approche basée sur les GPUs conçus entièrement pour passer à l'échelle et supporter ainsi le rendu des volumes de données très volumineux. Notre système permet d'atteindre des performances de rendu en temps réel pour plusieurs milliards de voxels. Notre structure de données exploite le fait que dans les scènes CG, les détails sont souvent concentrées sur l'interface entre l'espace libre et des grappes de densité et montre que les modèles volumétriques pourrait devenir une alternative intéressante en tant que rendu primitif pour les applications temps réel. Dans cet esprit, nous permettons à un compromis entre qualité et performances et exploitons la cohérence temporelle. Notre solution est basée sur une représentation hiérarchiques des données adaptées en fonction de la vue actuelle et les informations d'occlusion, couplé à un algorithme de rendu par lancer de rayons efficace. Nous introduisons un mécanisme de cache pour le GPU offrant une pagination très efficace de données dans la mémoire vidéo et mis en œuvre comme un processus data-parallel très efficace. Ce cache est couplé avec un pipeline de production de données capable de charger dynamiquement des données à partir de la mémoire centrale, ou de produire des voxels directement sur le GPU. Un élément clé de notre méthode est de guider la production des données et la mise en cache en mémoire vidéo directement à partir de demandes de données et d'informations d'utilisation émises directement lors du rendu. Nous démontrons notre approche avec plusieurs applications. Nous montrons aussi comment notre modèle géométrique pré-filtré et notre lancer de cones approximé peuvent être utilisés pour calculer très efficacement divers effets de flou ainsi d'éclairage indirect en temps réel.

Page generated in 0.0384 seconds