Made available in DSpace on 2015-03-05T13:59:43Z (GMT). No. of bitstreams: 0
Previous issue date: 15 / Hewlett-Packard Brasil Ltda / Este trabalho apresenta um modelo para prover habilidades perceptivas (visão, olfato e audição) aos agentes virtuais, focando em aplicações de simulação de multidões
em situações de emergência. Os modelos visual e olfativo foram baseados em trabalhos já publicados por autores da literatura, enquanto que a audição virtual foi modelada com
maiores detalhes. A modelagem do sistema auditivo baseou-se em características reais, tais como as atenuações do som em relação às perdas energéticas causadas pelas paredes (refrações) e distância percorrida pelo som. Além destas, foram estudados alguns comportamentos fisiológicos do ouvido humano, tais como a dificuldade em que um ser humano tem em ouvir determinadas bandas de freqüência, perdas auditivas decorrentes do envelhecimento, e
ainda possíveis doenças auditivas. Ainda, aplicou-se um modelo de mascaramento sonoro, no qual alguns sons podem ser mascarados por outros com freqüências similares.
O modelo perceptivo virtual foi avaliado em aplicações de simulação de / This work presents a model to provide perceptual abilities (vision, smelling and hearing) to virtual agents, focusing on applications of crowd simulation for emergency situations. The models for synthetic vision and hearing were based on papers published by known authors, while the virtual hearing was modeled in details. The synthetic hearing model was based on real characteristics, such as sound attenuation caused by walls and distance from the sound source. Also, some physiological behaviors of the human hear were considered, such as the natural diffculty of a human being to hear some frequency bands, and hearing losses due to aging. Finally, the hearing model also included masking effects, in which some sounds may be masked by others with similar frequencies.
The proposed perceptual model was evaluated in applications of crowd simulation for emergency situations, in which an alarm was placed into different positions of the virtual environment, and the agents had to decide what to do based on their percept
Identifer | oai:union.ndltd.org:IBICT/oai:www.repositorio.jesuita.org.br:UNISINOS/2259 |
Date | 15 January 2008 |
Creators | Cony, Carlos Akcelrud |
Contributors | http://lattes.cnpq.br/1538338871689655, Jung, Claudio Rosito |
Publisher | Universidade do Vale do Rio do Sinos, Programa de Pós-Graduação em Computação Aplicada, UNISINOS, Brasil, Escola Politécnica |
Source Sets | IBICT Brazilian ETDs |
Language | Portuguese |
Detected Language | English |
Type | info:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis |
Source | reponame:Repositório Institucional da UNISINOS, instname:Universidade do Vale do Rio dos Sinos, instacron:UNISINOS |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0028 seconds