• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 468
  • 87
  • 74
  • 64
  • 48
  • 39
  • 16
  • 10
  • 8
  • 5
  • 4
  • 4
  • 3
  • 3
  • 2
  • Tagged with
  • 1000
  • 131
  • 84
  • 80
  • 76
  • 71
  • 66
  • 65
  • 64
  • 63
  • 59
  • 58
  • 54
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Hardware Acceleration of Most Apparent Distortion Image Quality Assessment Algorithm on FPGA Using OpenCL

January 2017 (has links)
abstract: The information era has brought about many technological advancements in the past few decades, and that has led to an exponential increase in the creation of digital images and videos. Constantly, all digital images go through some image processing algorithm for various reasons like compression, transmission, storage, etc. There is data loss during this process which leaves us with a degraded image. Hence, to ensure minimal degradation of images, the requirement for quality assessment has become mandatory. Image Quality Assessment (IQA) has been researched and developed over the last several decades to predict the quality score in a manner that agrees with human judgments of quality. Modern image quality assessment (IQA) algorithms are quite effective at prediction accuracy, and their development has not focused on improving computational performance. The existing serial implementation requires a relatively large run-time on the order of seconds for a single frame. Hardware acceleration using Field programmable gate arrays (FPGAs) provides reconfigurable computing fabric that can be tailored for a broad range of applications. Usually, programming FPGAs has required expertise in hardware descriptive languages (HDLs) or high-level synthesis (HLS) tool. OpenCL is an open standard for cross-platform, parallel programming of heterogeneous systems along with Altera OpenCL SDK, enabling developers to use FPGA's potential without extensive hardware knowledge. Hence, this thesis focuses on accelerating the computationally intensive part of the most apparent distortion (MAD) algorithm on FPGA using OpenCL. The results are compared with CPU implementation to evaluate performance and efficiency gains. / Dissertation/Thesis / Masters Thesis Electrical Engineering 2017
392

Avaliação do impacto durante marcha de amputados de membro inferior / Impact assessment during gait of lower limb amputees

Oliveira, Thessaly Puel de 15 March 2010 (has links)
Made available in DSpace on 2016-12-06T17:07:25Z (GMT). No. of bitstreams: 1 Thessaly.pdf: 2082772 bytes, checksum: 7efd72e2946d701313f5004c51c0ccd2 (MD5) Previous issue date: 2010-03-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The present research had as general objective to analyze the comportment about the impact during the gait of unilateral limb inferior amputees, prosthesis users, with transfemoral and transtibial level of amputation. Also was objective of this study to analyze, during the gait cycle, the vibration imposed on the full member and on the member with prosthesis. It was selected 15 people of both genera being five transtibial amputees and ten transfemoral amputees. Collections began after the signing of consent, following for completing the personal interview to acquire information as the time of amputation, time fitting, adaptation, among other things. After, there were anthropometric measurements (weight and height) and following the assessment of gait. For the evaluation of vibrations that reach the locomotor system was used accelerometry system containing two uniaxial accelerometers (Brüel Kj&#1237;r model 4507®) and a software of data acquisition G-power 0.5.3 version which allowed an acquisition frequency of 1000 Hz. Accelerometers were set one on each leg tibial/prosthesis. 10 acquisitions were performed with the subjects walking on a catwalk usual speed of 9 meters. It was analyzed the peaks of acceleration and Average RMS each week. The statistical treatment consisted initially of exploratory data analysis and after applied analysis of variance (ANOVA) for variables PA and RMS among the categories: full member, limb, and amputation levels. The confidence level adopted for all comparisons was 95%. The results showed significant differences between the Full Member and the Limb on both levels, what represents the asymmetry on amputees gait (p = 0,01). Were also found statistically significant differences between Limb of Transtibial amputees (1.93 g) and Transfemoral (1,42 g) on the variable Peak of Acceleration (p = 0,01) and to the average RMS this difference is presented for the Full Member and Limb (p = 0,01). We also checked the correlations between the Peak of Accelerations x Speed and RMS x Speed and both presented weak correlation (R² < 0,3). It was possible to conclude that the gait of the assessed subjects presented itself asymmetrical and the gait training during the rehabilitation must focus on the adjustment of this asymmetry in order to avoid overload on the lower limbs. / O presente estudo teve como objetivo geral analisar o comportamento do impacto durante a marcha de sujeitos amputados unilaterais de membro inferior, usuários de próteses, com níveis de amputação transfemoral e transtibial. Também foi objetivo do estudo analisar durante o ciclo da marcha a vibração imposta ao membro íntegro e ao membro com prótese. Foram selecionados 15 sujeitos de ambos os gêneros sendo cinco amputados transtibiais e dez amputados transfemorais. As coletas iniciaram após a assinatura do termo de consentimento, seguindo para o preenchimento da Entrevista Pessoal Estruturada para a aquisição de informações como o tempo de amputação, tempo protetização, adaptação, entre outros aspectos. Após, foram realizadas as mensurações antropométricas (massa e estatura) e na sequência a avaliação da marcha. Para a avaliação das vibrações que chegam ao aparelho locomotor foi utilizado um sistema de acelerometria contendo dois acelerômetros uniaxiais (Brüel Kj&#1237;r modelo 4507®) e um software de aquisição de dados G-power versão 0.5.3 que possibilitou uma frequência de aquisição 1000 Hz. Os acelerômetros foram fixados um em cada membro inferior tíbia/prótese. Foram realizadas 10 aquisições com os sujeitos caminhando em velocidade habitual numa passarela de 9 metros. Foram analisados os Picos de Aceleração e a Média RMS de cada passada. O tratamento estatístico consistiu inicialmente de análise exploratória dos dados e após aplicadas análises de variância (ANOVA) para as variáveis PA e RMS entre as categorias: membro íntegro (MI), membro amputado (MA) e níveis de amputação. O nível de confiança adotado para todas as comparações foi 95%. Os resultados apresentaram diferenças significantes entre o MI e MA nos dois níveis de amputação o que representa a assimetria na marcha dos amputados (p = 0,01). Também foram encontradas diferenças estatísticas significantes entre MA dos amputados transtibiais (1,93 g) e transfemorais (1,42 g) na variável Pico de Aceleração (p = 0,01) e para a Média RMS esta diferença apresentou-se para o MI e MA (p = 0,01). Também foram verificadas as correlações existentes entre o Pico de Aceleração X Velocidade e RMS X Velocidade e ambas apresentaram fraca correlação (R² < 0,3). Foi possível concluir que a marcha dos sujeitos avaliados apresentava-se assimétrica e o treinamento da marcha durante a reabilitação deve enfocar na correção desta assimetria para evitar sobrecargas nos membros inferiores.
393

Propellant Mass Scaling and Decoupling and Improved Plasma Coupling in a Pulsed Inductive Thruster

January 2018 (has links)
abstract: Two methods of improving the life and efficiency of the Pulsed Inductive Thruster (PIT) have been investigated. The first is a trade study of available switches to determine the best device to implement in the PIT design. The second is the design of a coil to improve coupling between the accelerator coil and the plasma. Experiments were done with both permanent and electromagnets to investigate the feasibility of implementing a modified Halbach array within the PIT to promote better plasma coupling and decrease the unused space within the thruster. This array proved to promote more complete coupling on the edges of the coil where it had been weak in previous studies. Numerical analysis was done to predict the performance of a PIT that utilized each suggested switch type. This model utilized the Alfven velocity to determine the critical mass and energy of these theoretical thrusters. / Dissertation/Thesis / Masters Thesis Aerospace Engineering 2018
394

Multi-pulse PTV: Evaluation on Spatial Resolution, Velocity Accuracy and Acceleration Measurement

January 2014 (has links)
abstract: Multi-pulse particle tracking velocimetry (multi-pulse PTV) is a recently proposed flow measurement technique aiming to improve the performance of conventional PTV/ PIV. In this work, multi-pulse PTV is assessed based on PTV simulations in terms of spatial resolution, velocity measurement accuracy and the capability of acceleration measurement. The errors of locating particles, velocity measurement and acceleration measurement are analytically calculated and compared among quadruple-pulse, triple-pulse and dual-pulse PTV. The optimizations of triple-pulse and quadruple-pulse PTV are discussed, and criteria are developed to minimize the combined error in position, velocity and acceleration. Experimentally, the velocity and acceleration fields of a round impinging air jet are measured to test the triple-pulse technique. A high speed beam-splitting camera and a custom 8-pulsed laser system are utilized to achieve good timing flexibility and temporal resolution. A new method to correct the registration error between CCDs is also presented. Consequently, the velocity field shows good consistency between triple-pulse and dual-pulse measurements. The mean acceleration profile along the centerline of the jet is used as the ground truth for the verification of the triple-pulse PIV measurements of the acceleration fields. The instantaneous acceleration field of the jet is directly measured by triple-pulse PIV and presented. Accelerations up to 1,000 g's are measured in these experiments. / Dissertation/Thesis / M.S. Mechanical Engineering 2014
395

Accelerated Simulation of Modelica Models Using an FPGA-Based Approach

Lundkvist, Herman, Yngve, Alexander January 2018 (has links)
This thesis presents Monza, a system for accelerating the simulation of modelsof physical systems described by ordinary differential equations, using a generalpurpose computer with a PCIe FPGA expansion card. The system allows bothautomatic generation of an FPGA implementation from a model described in theModelica programming language, and simulation of said system.Monza accomplishes this by using a customizable hardware architecture forthe FPGA, consisting of a variable number of simple processing elements. A cus-tom compiler, also developed in this thesis, tailors and programs the architectureto run a specific model of a physical system.Testing was done on two test models, a water tank system and a Weibel-lung,with up to several thousand state variables. The resulting system is several timesfaster for smaller models and somewhat slower for larger models compared to aCPU. The conclusion is that the developed hardware architecture and softwaretoolchain is a feasible way of accelerating model execution, but more work isneeded to ensure faster execution at all times.
396

Cosmologias aceleradas com criação de matéria: teoria e testes observacionais / Accelerating Cosmologies with Matter Creation: Theory and Observational Tests

Felipe Andrade Oliveira 13 March 2015 (has links)
Os recentes avanços em cosmologia observacional indicam que o universo esteja passando por uma fase de expansão acelerada. A determinação do mecanismo responsável pela aceleração cósmica constitui um dos problemas mais intrigantes na ciência hoje. Entre os diversos candidatos a mecanismo de aceleração, a explicação mais simples e econômica é assumir a existência de uma constante cosmológica associada à energia do vácuo. Contudo, essa interpretação leva a importantes problemas conceituais associados à natureza dessa componente. Nesta tese, investigamos a dinâmica de diferentes mecanismos de aceleração cósmica, comparando suas previsões com diversos testes observacionais. Em particular, demos ênfase aos cenários baseados na criação de matéria escura fria (CCDM), nos quais a presente aceleração do universo é produzida sem a presença de um fluido exótico, como consequência do processo de produção de partículas de matéria escura gravitacionalmente induzido. Inicialmente, propusemos um modelo no qual o mecanismo de criação de partículas é capaz de gerar uma cosmologia dinamicamente degenerada com o modelo padrão, CDM. Discutimos no chamado modelo de Lima, Jesus & Oliveira (LJO) a dinâmica cosmológica com criação de matéria escura fria e com pressão. Através de um teste estatístico de $\\chi^2$, mostramos que o modelo fornece ótimo ajuste aos dados de supernovas tipo Ia (SNe Ia). Posteriormente, estudamos a evolução de pequenas perturbações de densidade em um fundo homogêneo para modelos tipo CCDM, através do formalismo Neo-Newtoniano. Restringindo-nos ao modelo LJO, comparamos as previsões obtidas nesse contexto com as proveniente do modelo CDM. Mostramos que o modelo é capaz de fornecer excelente ajuste aos dados observacionais de medidas da taxa de crescimento linear, para o caso plano e com velocidade efetiva do som $c^2_=-1$. Ainda dentro do cenário CCDM, investigamos uma segunda proposta original, com capacidade de ajuste às observações similar aos modelos CDM e LJO com mesmo número de parâmetros livres, porém com dinâmica não degenerada com estes. Derivamos a dinâmica cosmológica do modelo e discutimos a sua viabilidade através da análise estatística de medidas de SNe Ia e do parâmetro de Hubble em diferentes redshifts $H(z)$. Finalmente, discutimos a dinâmica de um modelo com decaimento do vácuo ((t)CDM) e sua descrição em campos escalares. Assumindo como forma d o termo de vácuo uma série de potências truncada do parâmetro de Hubble, derivamos as equações dinâmicas básicas e as previsões cosmológicas do modelo. Mostramos que, quando a transferência de energia entre as componentes dos setor escuro se dá através da criação de partículas, modelos CCDM e (t)CDM podem compartilhar a mesma dinâmica e termodinâmica, dentro de certas condições. Adicionalmente, mostramos que o modelo é capaz de prover um bom ajuste às medidas de SNe Ia e da chamada razão CMB/BAO. Obtivemos ainda uma descrição do modelo (t)CDM por um campo escalar, estendendo a validade do modelo para outros espaços-tempos e outras teorias gravitacionais. Nossos resultados mostram que existem diversas alternativas viáveis ao atual modelo padrão em cosmologia, capazes de contornar os problemas as sociados à constante cosmológica. A discussão dessas alternativas é essencial para uma compreensão mais profunda acerca da dinâmica, da composição e do destino do universo. / Recent advances in observational cosmology indicate that the universe is undergoing an accelerating stage of expansion. The determination of the mechanism responsible for the cosmic acceleration is one of the most intriguing problems in science today. Among many candidates for the acceleration mechanism, the simplest and most economical explanation is to assume the existence of a cosmological constant associated with the vacuum energy. However, this interpretation leads to important conceptual problems associated with the nature of this component. In this thesis, we investigate the dynamics of different mechanisms of cosmic acceleration, comparing their predictions through several observational tests. In particular, we emphasize the scenarios based on creation of cold dark matter (CCDM), in which the present acceleration of the universe is produced without the presence of an exotic fluid as a result of the gravitationally induced dark matter production process. Initially, we have proposed a model in which the particle creation mechanism is able to produce a cosmology dynamically degenerated with respect to the standard model, CDM. We discussed the cosmological dynamics for the creation of cold dark matter and dark matter with pressure within the so-called model of Lima, Jesus & Oliveira (LJO). Through a statistical $\\chi^2$ test, we showed that the model provides a good fit to the type Ia supernovae (SNe Ia) data. Subsequently, we studied the evolution of small density perturbations in a homogeneous background for CCDM type models through the Neo-Newtonian formalism. Restricting ourselves to the LJO model, the predictions obtained in this context were compared with those from the CDM model. We showed that the model is able to provide a very good fit to the linear growth rate observational data, for a flat universe and effective speed of sound $c^2_=-1$. Also within the CCDM scenario, we discussed a second original proposal with similar goodnes-of-fit and same degree of freedom to the models CDM and LJO, but with a non-degenerated dynamics. We derived the dynamics of the model and discussed its viability through the statistical analysis of measurements of SNe Ia and Hubble parameter in different redshifts $H(z)$, obtaining results in complete agreement. Finally, we discussed the dynamics of a model with vacuum decay ((t)CDM) and its description by scalar fields. Assuming the form of the vacuum term as a power series in the Hubble parameter, we derived the basic dynamic equations and the cosmological predictions of the model. We showed that when the energy exchange between the components of the dark sector is through the creation of particles, CCDM models and (t)CDM can share the same dynamics and thermodynamics under certain conditions. Additionally, we showed that the model is able to provide a good fit to the SNe Ia data and measurements of the CMB/BAO ratio. We also derived a description of CDM model by a scalar field, extending the validity of the model for other space-times and other gravitational theories. Our results show that there are several viable alternatives to the current standard model of cosmology, able to overcome the problems associated with the cosmological constant. The discussion of these alternatives is essential to a deeper understanding of the dynamics,composition and fate of the universe.
397

Interferência coulombiana-nuclear no espalhamento inelástico de Dêuterons por ANTIPOT.99,101 Ru. / Coulomb-nuclear interference in the inelastic scattering of deuterons by Ru99, Ru101

Cleber Lima Rodrigues 31 October 2005 (has links)
Medidas inéditas de Interferência Coulombiana-Nuclear (ICN) nos núcleos ímpares ANTPOT.99,101 Ru complementam a investigação da coletividade da primeira excitação quadrupolar dos isótopos pares de Ru ao redor de A~100, com projéteis que interagem isoescalamente com núcleo. As distribuições angulares do espalhamento inelástico com dêuterons incidentes de 13 MeV, nos núcleos ímpares estáveis de rutênio, foram obtidas no sistema Acelerador Pelletron - Espectrógrafo Magnético Enge, utilizando emulsões nucleares no plano focal. Foram medidos espectros associados a catorze e dezesseis ângulos de espalhamento nos ANTPOT.99 Ru e ANTPOT.101 Ru, respectivamente, com excelente caracterização do mínimo de interferência na primeira excitação qadrupolar do caroço. O exame da ICN foi realizado na descrição DWBA-DOMP com parâmetros globais de potencial óptico, mantendo tratamento consistente com outras análises de ICN na região. O ajuste das previsões teóricas às distribuições angulares experimentais, através da minimização do Chi2 pelo método iterativo de Gauss-Marquardt, possibilitou a extração simultânea do comprimento de deformação de massa ( POT.N) e da razão entre os comprimentos de deformação de carga ( POT.C) e de massa (C= POT.C/ POT.N). Simulações de Monte Carlo com 5000 novos conjuntos de dados, gerados por sorteio gaussiano, mostraram a adequação estatística do método. Os valores experimentais de C se posicionaram ao redor de 1,25 para o ANTPOT.99 Ru 1,40 para o ANTPOT.101 Ru, com incertezas em torno de 5%, indicando maior contribuição de prótons do que de nêutrons na excitação, na comparação com s razões N/Z. As medidas de POT.N, com incertezas menores que 5%, revelaram valores inferiores aos relatados para os núcleos pares vizinhos. Os valores de C e POT.N extraídos permitiram o cálculo das razões B(E2)/B(IS2) para os estados analisados. / Coulomb-Nuclear Interference measurements not previously reported in the 99,10 Ru odd nuclei complement the investigation of the collectivity of the first quadrupolar excitation in even Ru isotopes around A-I00, with projectiles that interact isoscarlarly with the nucleus. The Inelastic scattering angular distributions with 13 MeV incident deuterons on odd Ru stable nuclei were obtained in the facility Pelletron Accelerator - Enge Magnetic Spectrograph, using nuclear emulsion plates in the focal plane. Spectra associated with fourteen and sixteen scattering angles in 99Ru and 101Ru, respectively, were measured achieving an excellent characterization of the interference minimum of the core first quadrupolar excitation. The DWBADOMP description of the CNI with global optical model parameters employed allows the consistent analysis of the data in comparison with other analysis of the region. The simultaneous extraction of g N, mass deformation length and of C = C/N, ratio of charge (C ) and mass (N ) deformation lengths, was obtained in the fit of the theoretical predictions to the experimental angular distributions through the X2 minimization using the iterative Gauss-Marquardt method. Monte Carlo simulations of 5000 new sets of data, gaussian randomly generated, show the statistical adequacy of the method. The experimental values of C obtained distributed around 1.25 for 99Ru and 1.40 for lOlRu, with uncertainties of approximately 5%, indicating higher contribution of protons than neutrons in the excitations, in comparison with the N/Z ratios. The N measurements, with uncertainties less than 5%, point to lower values than published for even neighbor isotopes. The values of N and C extracted allow for the calculation of B(IS2), isoscalar reduced transition probability, and B(E2)/B(IS2), the ratio between electric (B(E2)) and isoscalar reduced transition probabilities.
398

\"Início de operação e caracterização do sistema injetor do Mícrotron do IFUSP\" / Commissioning of the injector system of the IFUSP Microtron

Tiago Fiorini da Silva 08 December 2006 (has links)
Neste trabalho apresentamos o início de operação do sistema injetor do Mícrotron do IFUSP. São apresentados estudos inéditos do tratamento de desalinhamentos tanto de uma única lente quanto de um conjunto delas. As lentes magnéticas deste estágio foram alinhadas com precisão melhor que 0,18 mm. Estabelecemos um sistema de aquisição de imagens do feixe e com ele fizemos medidas da emitância, cujo valor foi determinado em (2,32 ± 0,05) pi.mm.mrad, independentemente da tensão de aceleração no canhão de elétrons, devido à limitação imposta pelo colimador da entrada do chopper. / In this work we present the commissioning of the IFUSP Microtron injector system. We developed a new method to treat misalignments on a single lens as well as in a group of them. We installed an image acquisition system to acquire beam images from the fluorescent screen monitor. Emittance was measured and found to be (2,32 ± 0,05) pi.mm.mrad, independently of the beam energy, showing the limitation imposed by the collimator placed at the entrance of the chopper cavity.
399

A construção de um modelo de acompanhamento da evolução de startups digitais em contexto de aceleração: o caso Start-Up Brasil / Building a model for monitoring the evolution of digital startups in context of acceleration: the case of Start-Up Brasil program

Felipe de Matos Sardinha Pinto 18 December 2017 (has links)
Esta pesquisa tem como objetivo apresentar um modelo metodológico para o acompanhamento da evolução de startups digitais em contexto de aceleração, a partir do estudo de caso do programa governamental de fomento a startups denominado Start-Up Brasil, construído no período compreendido entre 2013 e 2014. Para tanto, descreve o modelo e seu processo de desenvolvimento, bem como os principais elementos presentes na literatura que o embasaram, tais como as abordagens customer development (BLANK, 2003) e lean startup (RIES, 2011), dentre outras. A pesquisa contextualiza os principais conceitos relacionados à temática abordada, tais como startup, aceleradora, ecossistema de empreendedorismo e habitats de inovação. Sendo assim, através de um levantamento teórico e do acompanhamento direto do autor no processo de desenvolvimento e implementação deste modelo, enquanto diretor de operações do programa no período estudado, o trabalho baseia-se em metodologia que combina relato técnico, pesquisa descritiva e revisão bibliográfica a partir de relato técnico para então apresentar o modelo. Considerando a importância das startups para o desenvolvimento de inovações com alto potencial de crescimento, especialmente aquelas ligadas ao setor de tecnologia de informação e comunicação (TIC), espera-se que esta pesquisa possa contribuir para o desenvolvimento do setor, uma vez que metodologias de acompanhamento bem implementadas podem levar a uma melhor qualidade na seleção e aceleração de startups, e por consequência, seu desenvolvimento e o incremento dos ecossistemas em que estão inseridas. / This research aims to present a methodological model to monitor the evolution of digital startups in acceleration context, based on the case study of the Brazilian public program Start-Up Brasil, that supports digital startups, specifically in the period between years 2013 and 2014. Thus, it describes the model developed by the program and its development process, as well as the main elements present in the literature that have supported it, such as the customer development (BLANK, 2003) and lean startup (RIES, 2011) approaches, among others. The research also contextualized the main concepts related to the thematic, such as startup, accelerator, entrepreneurship ecosystem and innovation habitats. By utilizing both theoretical references and the professional report of the author, who held the position of Operations Director of the program during that period, this work is based on a combination of technical report, descriptive research and bibliographic review methods to then introduce the model. Considering the importance of startups to the development of high impact innovations, especially those related with the Information Technology and Communications (ITC) sector, it is expected that this work can contribute to the development of this area, once that monitoring methods, when well applied, can lead to a better quality of the selection and acceleration of startups, and as a consequence, to the development of the ecosystems in which they are present.
400

Integração de sistemas de partículas com detecção de colisões em ambientes de ray tracing / Integration of particle systems with colision detection in ray tracing environments

Steigleder, Mauro January 1997 (has links)
Encontrar um modo de criar imagens fotorealísticas tem sido uma meta da Computação Gráfica por muitos anos [GLA 89]. Neste sentido, os aspectos que possuem principal importância são a modelagem e a iluminação. Ao considerar aspectos de modelagem, a obtenção de realismo mostra-se bastante difícil quando se pretende, através de técnicas tradicionais de modelagem, modelar objetos cujas formas não são bem definidas. Dentre alguns exemplos destes tipos de objetos, podem-se citar fogo, fumaça, nuvens, água, etc. Partindo deste fato, Reeves [REE 83] introduziu uma técnica denominada sistemas de partículas para efetuar a modelagem de fogo e explosões. Um sistema de partículas pode ser visto como um conjunto de partículas que evoluem ao longo do tempo. Os procedimentos envolvidos na animação de um sistema de partículas são bastante simples. Basicamente, a cada instante de tempo, novas partículas são geradas, os atributos das partículas antigas são alterados, ou estas partículas podem ser extintas de acordo com certas regras pré-definidas. Como as partículas de um sistema são entidades dinâmicas, os sistemas de partículas são especialmente adequados para o uso em animação. Ainda, dentre as principais vantagens dos sistemas de partículas quando comparados com as técnicas tradicionais de modelagem, podem-se citar a facilidade da obtenção de efeitos sobre as partículas (como borrão de movimento), a necessidade de poucos dados para a modelagem global do fenômeno, o controle por processos estocásticos, o nível de detalhamento ajustável e a possibilidade de grande controle sobre as suas deformações. Entretanto, os sistemas de partículas possuem algumas limitações e restrições que provocaram o pouco desenvolvimento de algoritmos específicos nesta área. Dentre estas limitações, as principais são a dificuldade de obtenção de efeitos realísticos de sombra e reflexão, o alto consumo de memória e o fato dos sistemas de partículas possuírem um processo de animação específico para cada efeito que se quer modelar. Poucos trabalhos foram desenvolvidos especificamente para a solução destes problemas, sendo que a maioria se destina à modelagem de fenômenos através de sistemas de partículas. Tendo em vista tais deficiências, este trabalho apresenta métodos para as soluções destes problemas. É apresentado um método para tornar viável a integração de sistemas de partículas em ambientes de Ray Tracing, através do uso de uma grade tridimensional. Também, são apresentadas técnicas para a eliminação de efeitos de aliasing das partículas, assim como para a redução da quantidades de memória exigida para o armazenamento dos sistemas de partículas. Considerando aspectos de animação de sistemas de partículas, também é apresentado uma técnica de aceleração para a detecção de colisões entre o sistema de partículas e os objetos de uma cena, baseada no uso de uma grade pentadimensional. Aspectos relativos à implementação, tempo de processamento e fatores de aceleração são apresentados no final do trabalho, assim como as possíveis extensões futuras e trabalhos sendo realizados. / Finding a way to create photorealistic images has been a goal of Computer Graphics for many years [GLA 89]. In this sense, the aspects that have main importance are modeling and illumination. Considering aspects of modeling, the obtention of realism is very difficult when it is intended to model fuzzy objects using traditional modeling techniques. Among some examples of these types of objects, fire, smoke, clouds, water, etc. can be mentioned. With this fact in mind, Reeves [REE 83] introduced a technique named particle systems for modeling of fire and explosions. A particle system can be seen as a set of particles that evolves over time. The procedures involved in the animation of particle systems are very simple. Basically, at each time instant, new particles are generated, the attributes of the old ones are changed, or these particles can be extinguished according to predefined rules. As the particles of a system are dynamic entities, particle systems are specially suitable for use in animation. Among the main advantages of particle systems, when compared to traditional techniques, it can be mentioned the facility of obtaining effects such as motion blur over the particles, the need of few data to the global modeling of a phenomen, the control by stochastic processes, an adjustable level of detail and a great control over their deformations. However, particle systems present some limitations and restrictions that cause the little development of specific algorithms in this area. Among this limitations, the main are the difficulty of obtention of realistic effects of shadow and reflection, the high requirement of memory and the fact that particle systems need a specific animation process for each effect intended to be modeled. Few works have been developed specifically for the solution of these problems; most of them are developed for the modeling of phenomena through the use of particle systems. Keeping these deficiencies in mind, this work presents methods for solving these problems. A method is presented to make practicable the integration of particle systems and ray tracing, through the use of a third-dimensional grid. Also, a technique is presented to eliminate effects of aliasing of particles, and to reduce the amount of memory required for the storage of particle systems. Considering particle systems animation, a technique is also presented to accelerate the collision detection between particle systems and the objects of a scene, based on the use of a fifth-dimensional grid. Aspects related to the implementation, processing time and acceleration factors are presented at the end of the work, as well as the possible future extensions and ongoing works.

Page generated in 0.12 seconds