11 |
[en] TOWARDS DIRECT SPATIAL MANIPULATION OF VIRTUAL 3D OBJECTS USING VISUAL TRACKING AND GESTURE RECOGNITION OF UNMARKED HANDS / [pt] RUMO À MANIPULAÇÃO DIRETA ESPACIAL DE OBJETOS VIRTUAIS 3D USANDO RASTREAMENTO BASEADO EM VISÃO E NO RECONHECIMENTO DE GESTOS DE MÃOS SEM MARCADORESSINISA KOLARIC 03 November 2008 (has links)
[pt] A necessidade de executar manipulações espaciais (como
seleção, deslocamento, rotação, e escalamento) de objetos
virtuais 3D é comum a muitos tipos de aplicações do
software, inclusive aplicações de computer-aided design
(CAD), computer-aided modeling (CAM) e aplicações de
visualização científica e de engenharia. Neste trabalho é
apresentado um protótipo de aplicação para manipulação de
objetos virtuais 3D utilizando movimentos livres de mãos e
sem o uso de marcadores, podendo-se fazer gestos com uma ou
duas mãos. O usuário move as mãos no volume de trabalho
situado imediatamente acima da mesa, e o sistema integra
ambas as mãos (seus centróides) no ambiente virtual que
corresponde a este volume de trabalho. As mãos são
detectadas e seus gestos reconhecidos usando o método
de detecção de Viola-Jones. Tal reconhecimento de gestos é
assim usado para ligar e desligar modalidades da
manipulação. O rastreamento 3D de até duas mãos é então
obtido por uma combinação de rastreamento 2D chamado flocks-
of-KLT-features e reconstrução 3D baseada em triangulação
estéreo. / [en] The need to perform spatial manipulations (like selection,
translation, rotation, and scaling) of virtual 3D objects
is common to many types of software applications, including
computer-aided design (CAD), computer-aided
modeling (CAM) and scientific and engineering visualization
applications. In this work, a prototype application for
manipulation of 3D virtual objects using free-hand 3D
movements of bare (that is, unmarked, uninstrumented)
hands, as well as using one-handed and two-handed
manipulation gestures, is demonstrated. The user moves his
hands in the work volume situated immediately above the
desktop, and the system effectively integrates both
hands (their centroids) into the virtual environment
corresponding to this work volume. The hands are being
detected and their posture recognized using the Viola-Jones
detection method, and the hand posture recognition
thus obtained is then used for switching between
manipulation modes. Full 3D tracking of up to two hands is
obtained by a combination of 2D flocksof-KLT-features
tracking and 3D reconstruction based on stereo riangulation.
|
12 |
[en] IMPLEMENTATION OF AN OPTICAL TRACKING DEVICE WITH 6 DEGREES OF FREEDOM FOR INTERACTING WITH VIRTUAL REALITY APPLICATIONS / [pt] IMPLEMENTAÇÃO DE UM DISPOSITIVO DE RASTREAMENTO ÓPTICO COM 6 GRAUS DE LIBERDADE PARA INTERAÇÃO COM APLICAÇÕES DE REALIDADE VIRTUALMANUEL EDUARDO LOAIZA FERNANDEZ 28 June 2005 (has links)
[pt] Os sistemas de rastreamento são uma das tecnologias
cruciais para os
sistemas de realidade virtual. Eles permitem detectar
continuamente a posição e
orientação de marcadores ou objetos específicos que o
usuário utiliza para
interagir com o sistema. Uma das tecnologias mais
utilizadas para implementar
este tipo de sistema é o rastreamento óptico, a qual
permite ao usuário ter maior
liberdade em seus movimentos porque não precisa de cabos
ou elementos
mecânicos que possam restringir ou atrapalhar a sensação
de imersão que se tenta
criar na interação com ambientes de realidade virtual.
Este trabalho apresenta a
construção e implementação de um dispositivo de entrada,
baseado em
rastreamento óptico, que é utilizado para interação com
aplicações de realidade
virtual do tipo semi-imersivas em um ambiente desktop
comum. O dispositivo
tem a capacidade de recuperar seis graus de liberdade dos
movimentos feitos por
um conjunto de marcadores que são controlados pela mão do
usuário. A partir da
recuperação dos seis graus de liberdade, o dispositivo é
complementado com a
capacidade de emissão de eventos que permitem a interação
do usuário com a
aplicação. No final apresenta-se uma aplicação que
demonstra a adaptação dos
eventos gerados e o desempenho do dispositivo implementado. / [en] Tracking systems are a fundamental technology in virtual
reality systems.
They provide a continuous detection of the position and
orientation of markers or
specific objects that the user employs to interact with
the system. One of the
technologies most commonly used to implement these types
of systems is the
optical tracking, which allows the users to have more
freedom in their movements
because it does not need cables or mechanical elements
that can restrict or hinder
the immersion sensation that is tried to create in the
interaction with virtual reality
environments. This work presents the construction and
implementation of an input
device that is based on optical tracking that is used for
interaction with semiimmersive
virtual reality applications on ordinary desktop
environments. This
device has the capability to get the six degrees of
freedom of the movements made
by a set of markers that are controlled by the user hand.
Based on the six degrees
of freedom recovered, the device is complemented with the
ability to emit events
that allow the interaction of the user with the
application. Finally, an application is
presented for demonstrating the use of the generated
events and the performance
of our device.
|
13 |
[en] PEOPLE COUNTING SYSTEM / [pt] SISTEMA DE CONTAGEM DE PESSOASPRISCILA MARQUES DIAS 11 October 2005 (has links)
[pt] Atualmente, a preocupação com segurança vem crescendo dia
após dia.
Vários trabalhos abordando o desenvolvimento de sistemas
de supervisão já
foram realizados. Esta dissertação propõe um método
automático capaz de
determinar o número de pessoas em uma área monitorada por
uma câmera de
vídeo, assim como detectar mudanças na imagem
potencialmente causadas por
atitudes ilícitas. Uma aplicação típica seria a segurança
de galpões durante a
noite, em finais de semana ou em qualquer momento onde o
acesso de pessoas
é permitido, mas o movimento de cargas não. Mais
precisamente, a intenção é
detectar se uma pessoa que está passando pelo ambiente
carrega consigo um
objeto pertencente ao local ou deixa um objeto no local,
quando apenas o
movimento de pessoas é admitido na área. Além disto, o
sistema determina o
número de pessoas na cena. O método consiste na aplicação
de quatro etapas
em seqüências de vídeo: a) separação de fundo / primeiro
plano, b) atualização
dinâmica da estimativa de fundo, c) localização / contagem
de pessoas, e d)
detecção de atitudes suspeitas. Os algoritmos de separação
de fundo / primeiro
plano e de estimativa de fundo toleram variações pequenas
de iluminação e
efeitos de sombra. Já a contagem / localização de pessoas
explora informações
de cor e coerência de movimento. Soluções para atender
estes aspectos são
encontradas na literatura, porém nenhuma delas atende
todos eles juntos. O
método foi avaliado por experimentos realizados através de
um protótipo e
apresentou resultados encorajadores. / [en] There is worldwide an increasing concern about security
issues. A great
deal of efforts have been undertaken in order to provide
surveillance systems.
This work proposes an automatic method to determine the
number of people
moving in an area monitored by a video camera, as well as
to detect image
changes, which are potentially due to illicit attitudes. A
typical application is the
security of warehouses during the night, on weekends or at
any time when
people access is allowed but no load movement is
admissible. Specifically it
focuses on detecting when a person passing by the
environment carries any
object belonging to the background away or leaves any
object in the background,
while only people movement is allowed in the area. Besides
it estimates the
number of people on scene. The method consists of
performing four main tasks
on video sequences: a) background and foreground
separation, b) background
estimative dynamic update, c) people location and
counting, and d) suspicious
attitudes detection. The proposed background and
foreground separation and
background estimative update algorithms deal with
illumination fluctuation and
shade effects. People location and counting explores
colour information and
motion coherence. Solutions meeting these requirements are
proposed in the
literature, but no one deals with all of them together.
The method has been
validated by experiments carried out on a prototype and
produced encouraging results.
|
14 |
[en] USE OF ARTIFICIAL NEURAL NETWORKS IN THE RECOGNITION OF BI-DIMENSION IMAGES / [pt] REDES NEURAIS APLICADAS AO RECONHECIMENTO DE IMAGENS BI-DIMENSIONAISGUY PERELMUTER 05 July 2006 (has links)
[pt] Esta dissertação investiga a aplicação de Redes Neurais
Artificiais no reconhecimento de imagens bi-dimensionais. O
trabalho de tese foi dividido em quatro partes principais:
um estudo sobre a importância da Visão Computacional e
sobre os benefícios da aplicação das técnicas da
Inteligência Computacional na área; um estudo da estrutura
dos sistemas de reconhecimento de imagens encontrados na
literatura; o desenvolvimento de dois sistemas de
reconhecimento de imagens baseados em redes neurais; e o
estudo de caso e a análise de desempenho dos sistemas
desenvolvidos. A Visão Computacional tem se beneficiado das
principais técnicas de Inteligência Computacional (redes
neurais, algoritmos genéticos e lógica nebulosa) na
implementação de sistemas de reconhecimento de imagens.
Neste trabalho estudou-se a aplicação de diversos tipos de
redes neurais na classificação de imagens Back-Propagation,
Competitivas, RBF e Hierárquicas. Além disso, foi realizado
um estudo das áreas de aplicação da Visão Computacional. A
estrutura básica utilizada por diversos sistemas de Visão
Computacional encontrada na literatura foi analisada. Esta
estrutura é tipicamente composta por três módulos
principais: um pré-processador, um extrator de
características e um classificador. Dois sistemas de
reconhecimento de imagens, denominados de XVision e
SimpleNet, foram desenvolvidos neste trabalho. O sistema
XVision segue a estrutura descrita acima, enquanto que o
sistema SimpleNet utiliza a informação da imagem bruta para
realizar a classificação. O módulo de pré-processamento do
sistema XVision executa uma série de transformações na
imagem, extraindo suas características intrínsecas para que
seja obtida uma representação da imagem invariante a
aspectos como rotação, translação e escalonamento. Este Pré-
Processador é baseado em um trabalho previamente realizado
no campo de Processamento de Sinais. A etapa de extração de
características visa detectar as informações mais
relevantes contidas na representação da imagem intrínseca
obtida na etapa anterior. Foram investigados extratores
baseados em técnicas estatísticas (utilizando o
discriminante de Fisher) e em técnicas inteligentes
(utilizando algoritmos genéticos). Para o módulo de
classificação das imagens foram utilizados diversos tipos
de redes neurais artificiais: Back-Propagation,
Competitivas, RBFs e Hierárquicas. No sistema SimpleNet, o
pré-processamento limita-se à redução das dimensões da
imagem a ser classificada. Como os próprios pixels da
imagem são utilizados para a classificação, não foi
implementado um módulo de extração de características. Na
etapa de classificação foram empregadas redes neurais Back-
Propagation e Competitivas. O sistema XVision apresentou
resultados promissores para dois conjuntos distintos de
objetos bi-dimensionais: o primeiro composto por peças
mecânicas e o segundo por objetos triviais. As amostras
utilizadas nos testes apresentavam características
diferentes daquelas com as quais as redes neurais foram
treinadas - não apenas com rotações, translações e
escalonamentos, mas com diferenças estruturais. O
classificador conseguiu taxas de acerto superiores a 83% em
ambos os conjuntos de objetos. O sistema SimpleNet também
mostrou-se eficiente na diferenciação de imagens
semelhantes (cartões telefônicos e radiografias de
pulmões), obtendo taxas de acerto superiores a 80%. O
desenvolvimento destes sistemas demonstrou a viabilidade da
aplicação de redes neurais na classificação de objetos bi-
dimensionais. Devido ao grande interesse na utilização de
sistemas de Visão em aplicações de tempo real, mediu-se o
tempo gasto nos processos de reconhecimento. Desta forma
foram detectados os garagalos dos sistemas, facilitando
assim sua otimização. / [en] This work investigates the use of Artificial Neural
Networks in the recognition of bi-dimensional images. The
work was divided in four main parts: a survey on the
importance of Computational Vision and on the benefits of
the application of intelligent techniques in the fiels; a
survey on the structure of image recognition systems found
in the literature; the development of two image recognition
systems based on neural networks; and an analysis of the
performance of the developed systems.
Computational Vision has benefited from the main
Computational Intelligence techniques (neural networks,
genetic algoritms and fuzzy logic) to implement image
recognition systems. In this work, the usage of different
Kinds of neural networks in image classification was
studied: Back-Propagation, Competitive, RBF and
Hierarchical. Besiades that, a survey on the fields of
application of Computational Vision was made.
The basic structure is typically composed of three modules:
a pre-processor, a characteristics extractor and a
classifier.
In this work, two image recognition systems, called Xvision
and SimpleNet, were developed. The XVision system follows
the structure described above, while the SimpleNet system
performs the classification using the information present
in the raw picture.
The pre-processing module of the Xvision system executes a
series of transforms over the image, extracting its
essential characteristics so that an invariant
representation of the image can be obtained. This pre-
processor is based on a previous work in the fiels of
Signal Processing.
The characteristcs extractor aims to detect the most
relevant information present in the image representation
obtained after the previous step. Two kinds of extractors
were investigated: one based on statistical tecniques
(applyng the Fisher`s discriminant) and another based on
intelligent techniques (applyng genetic algorithms).
The classification module was implementede through several
Kinds of neural networks: Back-Propagation, Competitive,
RBF and Hierarchical.
The pre-processing of the SimpleNet system simply reduces
the image`s dimensions. Since the image`s pixels are used
for the classification process, no characteristics
extractor module was implemented. In the classification
module, Back-Propagation and Competitive neural networks
were employed.
The Xvision system yielded promising results for two sets
of objects: the first one composed of mechanical parts and
the second one composed of trivial objects. The samples
used during the tests presented different characteristics
from those samples used during the training process - not
only rotated, translated and scaled, but also with
structural differences. The classifier obtained a hit ratio
above 83% with both sets. The SimpleNet system also showed
a good performance in the differentiation of similar
objects (telephone cards and X-rays of lungs), achieving
hit ratios of more than 80%.
The development of both systems demonstrated the viability
of the use of neural networks in the classification of bi-
dimensional objects. Due to the interest of applying Vision
systems in real-time, the time spent in the recognition
process was measured. This allowed the detection of the
systems` bottlenecks, making their optimization easier.
|
15 |
[pt] DETECÇÃO DE PADRÕES EM IMAGENS BIDIMENSIONAIS: ESTUDO DE CASOS / [en] PATTERN DETECTION IN BIDIMENSIONAL IMAGENS: CASES STUDYGUILHERME LUCIO ABELHA MOTA 10 November 2005 (has links)
[pt] A presente dissertação estudo dois problemas de detecção
de padrões em imagens com fundo complexo, casos onde os
algoritmos de segmentação convencionais não podem
proporcionar bons resultados: a localização de Unidades
Estruturais (UE`s) em imagens obtidas por Microscópio
Eletrônico de Transmissão em Alta Resolução, e a detecção
de faces frontais na posição vertical em imagens. Apesar
de serem abordados problemas diferentes, as metodologias
empregadas na solução de ambos os problemas possuem
semelhanças. Uma operação de vizinhança é aplicada a
imagem de entrada em busca de padrões de interesse. Sendo
cada região extraída desta imagem submetida a um operador
matemático composto por etapas de pré-processamento,
redução de dimensionalidade e classificação.
Na detecção de UE`s foram empregados três métodos
distintos de redução de dimensionalidade - Análise de
Componentes Principais (PCA), PCA do conjunto de
treinamento equilibrado (PCAEq), e um método inédito,
eixos que maximizam a distância ao centróide de uma classe
(MAXDIST) - e dois modelos de classificador -
classificador baseado na distância euclideana (EUC) e rede
neural back-propagation (RN). A combinação PCAEq/RN
forneceu taxa de detecção de 88% para 25 componentes. Já a
combinação MAXDIST/EUC com apenas uma atributo forneceu
82% de detecção com menos falsas detecções. Na detecção de
faces foi empregada uma nova abordagem, que utiliza uma
rede neural back-propagation como classificador. Aplica-se
a sua entrada recebe a representação no subespaço das
faces e o erro de reconstrução. Em comparação com os
resultados de referência da literatura na área, o método
proposto atingiu taxas de detecção similares. / [en] This dissertation studies two pattern detection problems
in images with complex background, in which standard
segmentation techniques do not provide good results: the
detection of structural units (SU`s) in images obtained
through High resolution transmission Electron Microscopy
and the detection of frontal human faces in images.
The methods employed in the solution of both
problems have many similarities - a neighborhood operator,
basically composed of pre-processing, dimensionality
reduction and classification steps, scans the input image
searching for the patterns of interest.
For SU detection three dimensionality reduction
methods - Principal Component Analysis (PCA), PCA of the
balanced training set (PACEq), and a new method, axis that
maximize the distance to a given class centroid
(MAXDIST) -, and two classifiers - Euclidean Distance
(EUC) and back-propagation neural network (RN). The
MAXDIST/EUC combination, with just one component, provided
a detection rate of 82% with less false detections.
For face detection a new approach was employed,
using a back-propagation neural network as classifier. It
takes as input a representation in the so-called face
space and the reconstruction error (DFFS). In comparison
with benchmark results from the literature, the proposed
method reached similar detection rates.
|
16 |
[en] VISION BASED IN-SITU CALIBRATION OF ROBOTS WITH APPLICATION IN SUBSEA INTERVENTIONS / [pt] CALIBRAGEM VISUAL IN SITU DE MANIPULADORES ROBÓTICOS COM APLICAÇÃO EM INTERVENÇÕES SUBMARINASTROND MARTIN AUGUSTSON 08 May 2008 (has links)
[pt] A maioria dos robôs industriais da atualidade são
programados para seguir
uma trajetória pré-definida. Isto é suficiente quando o
robô está trabalhando em
um ambiente imutável onde todos os objetos estão em uma
posição conhecida
em relação à base do manipulador. No entanto, se a posição
da base do robô é
alterada, todas as trajetórias precisam ser reprogramadas
para que ele seja capaz
de cumprir suas tarefas. Outra opção é a teleoperação, onde
um operador
humano conduz todos os movimento durante a operação em uma
arquitetura
mestre-escravo. Uma vez que qualquer erro de posicionamento
pode ser
visualmente compensado pelo operador humano, essa
configuração não requer
que o robô possua alta precisão absoluta. No entanto, a
desvantagem deste
enfoque é a baixa velocidade e precisão se comparado com um
sistema
totalmente automatizado. O manipulador considerado nesta
dissertação está fixo
em um ROV (Remote Operating Vehicle) e é trazido até seu
ambiente de
trabalho por um teleoperador. A cada vez que a base do
manipulador é
reposicionada, este precisa estimar sua posição e
orientação relativa ao ambiente
de trabalho. O ROV opera em grandes profundidades, e há
poucos sensores que
podem operar nestas condições adversas. Isto incentiva o
uso de visão
computacional para estimar a posição relativa do
manipulador. A diferença entre
a posição real e a desejada é estimada através do uso de
câmeras submarinas. A
informação é enviada aos controladores para corrigir as
trajetórias préprogramadas.
Os comandos de movimento do manipulador podem então ser
programados off-line por um sistema de CAD, sem a
necessidade de ligar o robô,
permitindo rapidez na validação das trajetórias. Esse
trabalho inclui a calibragem
tanto da câmera quanto da estrutura do manipulador. As
melhores precisões
absolutas obtidas por essas metodologias são combinadas
para obter calibração
in-situ da base do manipulador. / [en] The majority of today`s industrial robots are programmed
to follow a
predefined trajectory. This is sufficient when the robot
is working in a fixed
environment where all objects of interest are situated in
a predetermined position
relative to the robot base. However, if the robot`s
position is altered all the
trajectories have to be reprogrammed for the robot to be
able to perform its
tasks. Another option is teleoperation, where a human
operator conducts all the
movements during the operation in master-slave
architecture. Since any
positioning errors can be visually compensated by the
human operator, this
configuration does not demand that the robot has a high
absolute accuracy.
However, the drawback is the low speed and low accuracy
of the human
operator scheme. The manipulator considered in this
thesis is attached to a ROV
(Remote Operating Vehicle) and is brought to its working
environment by the
ROV operator. Every time the robot is repositioned, it
needs to estimate its
position and orientation relative to the work
environment. The ROV operates at
great depths and there are few sensors which can operate
at extreme depths. This
is the incentive for the use of computer vision to
estimate the relative position of
the manipulator. Through cameras the differences between
the actual and desired
position of the manipulators is estimated. This
information is sent to controllers
to correct the pre-programmed trajectories. The
manipulator movement
commands are programmed off-line by a CAD system, without
need even to turn
on the robot, allowing for greatest speed on its
validation, as well as problem
solving. This work includes camera calibration and
calibration of the structure of
the manipulator. The increased accuracies achieved by
these steps are merged to
achieve in-situ calibration of the manipulator base.
|
17 |
[en] SCENE RECONSTRUCTION USING SHAPE FROM TEXTURE / [pt] RECONSTRUÇÃO DO ESPAÇO TRIDIMENSIONAL A PARTIR DA DEFORMAÇÃO DE TEXTURA DE IMAGENSDIOGO MENEZES DUARTE 11 September 2006 (has links)
[pt] O presente trabalho apresenta um estudo sobre técnicas de
construção de um
modelo tridimensional de objetos a partir unicamente da
informação de textura.
Estas técnicas são baseadas na medida da deformação da
textura ao longo de uma
superfície, obtendo assim a orientação do vetor normal à
superfície em cada
ponto. De posse da orientação é possível construir um
modelo tridimensional do
objeto. São avaliados três métodos. O primeiro emprega
Filtros de Gabor e
momentos de segunda ordem como medida de textura e os
outros dois estimam a
transformação afim entre recortes de igual tamanho na
imagem. A estimativa da
transformação afim tem ênfase especial neste trabalho por
ser um passo
fundamental no algoritmo que mede a deformação da textura.
Os métodos foram
validados em diferentes etapas, de forma a avaliar:
estimativa da transformação
afim; decomposição em ângulos; e reconstrução do modelo 3D
a partir do mapa
de orientação, também conhecido como mapa de agulhas. A
avaliação
experimental foi realizada com imagens sintéticas e fotos
de objetos reais. Os
resultados mostram a aplicabilidade, dificuldades e
restrições dos métodos
analisados. / [en] The current work presents a study about methods for 3D
object shape
reconstruction based on their texture information. These
methods, called Shape
from Texture, measure texture deformation along object
surface, obtaining the
orientation in each point of the image. Having the
orientation in each point (a
needle map) it is possible to construct the object 3D
model. Three methods are
studied in this dissertation. One of these methods uses
Gabor Filters and second
order moments, and other two that estimate the affine
transform between images
patches. The affine estimation problem gets emphasis in
the present work since it
is an essential step in most Shape from Texture
algorithms. The methods were
tested in separate steps: evaluate the affine transform
estimation; the
decomposition of the affine matrix in slant and tilt
angles; and the 3D model
reconstruction using the needle map. Both synthetic and
real images were used on
the experiments. The results clearly show the
applicability, difficulties and
restrictions of the investigated methods.
|
18 |
[en] A METHOD FOR REAL-TIME OBJECT DETECTION IN HD VIDEOS / [pt] UM MÉTODO PARA DETECÇÃO EM TEMPO REAL DE OBJETOS EM VÍDEOS DE ALTA DEFINIÇÃOGUSTAVO COSTA GOMES MOREIRA 29 April 2015 (has links)
[pt] A detecção e o subsequente rastreamento de objetos em sequencias de vídeo é um desafio no que tange o processamento de vídeos em tempo real. Nesta tese propomos um método de detecção em tempo real adequado para o processamento de vídeos de alta definição. Neste método utilizamos um procedimento de segmentação de quadros usando as imagens integrais de frente, o que permite o rápido descarte de várias partes da imagem a cada quadro, desta maneira atingindo uma alta taxa de quadros processados por segundo. Estendemos ainda o algoritmo proposto para que seja possível detectar múltiplos objetos em paralelo. Além disto, através da utilização de uma GPU e técnicas que podem ter seu desempenho aumentado por meio de paralelismo, como o operador prefix sum, conseguimos atingir um desempenho ainda melhor do algoritmo, tanto para a detecção do objeto, como na etapa de treinamento de novas classes de objetos. / [en] The detection and subsequent tracking of objects in video sequences is a challenge in terms of video processing in real time. In this thesis we propose an detection method suitable for processing high-definition video in real-time. In this method we use a segmentation procedure through integral image of the foreground, which allows a very quick disposal of various parts of the image in each frame, thus achieving a high rate of processed frames per second. Further we extend the proposed method to be able to detect multiple objects in parallel. Furthermore, by using a GPU and techniques that can have its performance enhanced through parallelism, as the operator prefix sum, we can achieve an even better performance of the algorithm, both for the detection of the object, as in the training stage of new classes of objects.
|
19 |
[en] AN EXPERIMENT ON CONCEPTUAL DESIGN OF PERVASIVE MOBILE GAMES USING QUALITY REQUIREMENTS / [pt] UM EXPERIMENTO NO DESIGN CONCEITUAL DE JOGOS PERVASIVOS MÓVEIS USANDO REQUISITOS DE QUALIDADEFELIPE BALDINO MOREIRA 28 January 2016 (has links)
[pt] Jogos pervasivos móveis são um tipo novo de jogo que mistura
aparelhos móveis (como telefones celulares), mundos virtuais e atividades
que acontecem no mundo real. Nessa àrea recente, a literatura sobre projeto
conceitual e requisitos de qualidade sobre pervasividade são escassas. A
pervasividade é a qualidade (difícil de ser definida objetivamente) que difere
os jogos pervasivos móveis dos jogos digitais tradicionais. Neste trabalho, nós
discutimos o desenvolvimento de um jogo pervasivo móvel usando requisitos
de qualidade relacionados à pervasividade. Nós consideramos esses requisitos
durante todo o processo de desenvolvimento (i.e., as etapas de projeto,
produção e pós-produção), focando na análise, implementação e gameplay.
Nós esperamos que os nossos resultados possam ajudar a melhorar guias de
desenvolvimento relacionadas a jogos pervasivos móveis. / [en] Pervasive games is an emerging game genre that mixes up mobile
devices (such as smartphones), virtual worlds, and gameplay based on the
real world, creating a mixed-reality game. This recent area lacks literature
about conceptual design and quality requirements related to pervasiveness
– the ultimate and elusive quality that differentiate pervasive mobile
games from traditional digital games. In the present work, we discuss the
development of a pervasive mobile game using quality requirements related
to pervasiveness. Also, we consider those requirements in the entire game
project (e.g., design, production, and post-production stages), focusing on
the analysis, implementation, and gameplay. We expect that our results
could help in improving the current state of design guidelines to develop
pervasive mobile games.
|
20 |
[en] POSITIONING AND CALIBRATION OF A UNDERWATER ROBOTIC MANIPULATOR WITH USE OF COMPUTACIONAL VISION / [pt] POSICIONAMENTO E CALIBRAÇÃO DE UM MANIPULADOR ROBÓTICO SUBMARINO COM USO DE VISÃO COMPUTACIONALMIGUEL ANGELO GASPAR PINTO 22 November 2006 (has links)
[pt] Muitos dos robôs industriais utilizados atualmente seguem
uma programação
baseada em rastreamento de trajetórias. O robô é guiado
por um operador humano para
localizações fixas onde ele atuará. Esses movimentos são,
então, gravados na linguagem
de programação residente no controlador do robô, de forma
que este seja capaz de
repetir as tarefas. Este método pode ser suficiente para,
por exemplo, movimentar
objetos entre locais fixos. Como o robô está treinado para
se movimentar em posições
fixas, todas as partes do manipulador, bem como todos os
objetos que serão
manipulados devem estar em posições bem definidas, ou uma
nova programação deverá
ser feita. Outra metodologia é a de teleoperação, na qual
a movimentação de sistemas
robóticos é executada em modo manual, no qual o operador
trabalha em uma arquitetura
mestre-escravo controlando direta e continuamente as
posições do manipulador. Para
essas tarefas é necessário apenas que o sistema possua um
alto grau de repetibilidade,
uma vez que quaisquer erros absolutos de posicionamento
são visualmente
compensados pelo operador humano. Porém em certas
aplicações robóticas essas
técnicas de programação de manipuladores são impraticáveis
ou insatisfatórias. A
primeira vem a ser impraticável no caso de alta
variabilidade do ambiente onde a tarefa
está sendo feita. O segundo método atribui ao robô uma
precisão absoluta baixa, devido
a própria deficiência da percepção humana. Este trabalho
segue pelas tendências
modernas de automação, as quais vêm colocando uma
crescente ênfase em robôs
guiados por sensores e programação off-line, automatizando
total ou parcialmente
muitas das tarefas a serem executadas. Sensores, como
câmeras ligadas a um sistema de
visão computacional, detectam diferenças entre a posição
real do manipulador e a
posição desejada. Estas diferenças são então enviadas para
os controladores, para que
estes corrijam a trajetória pré-programada. Os comandos de
movimento do manipulador
são programados off-line por um sistema de CAD, sem a
necessidade de ativar o robô,
permitindo maior velocidade em sua validação e na
resolução de problemas.
Apresentam-se neste trabalho metodologias e técnicas para
o posicionamento do
manipulador utilizando-se, para tanto, câmeras em sua
extremidade. Uma vez
posicionado o manipulador em relação ao espaço de
coordenadas do mundo, é possível
deslocá-lo com segurança e precisão em sua área de
trabalho, o que é imprescindível
para automatização de tarefas complexas. O trabalho está
concentrado nas aplicações de
técnicas de visão computacional à calibração de
manipuladores. Como estudo de caso
utiliza-se uma situação real, de um manipulador submarino
de seis graus de liberdade,
para intervenções submarinas em plataformas de petróleo.
Abordam-se a calibração de
câmeras, reconhecimento de padrões, correlação de padrões
em imagens distintas,
estereoscopia, cinemática direta e inversa de
manipuladores e a união de todas estas
técnicas para o posicionamento do manipulador em sua área
de trabalho. / [en] Many of today´s industrial robots are still programmed to
follow trajectories. The
robot is guided by a human operator to the desired fixed
application locations. These
motions are recorded and are later edited, within the
robotic language residing in the
robot controller, and played back, for the robot to be
able to repetitively perform its
task. This methodology is enough to move objects between
fixed locations. As the robot
is trained to move within fixed positions, all manipulator
parts, as well as all the objects
which will be manipulated need to be in well defined
positions, otherwise another
program is needed. Another methodology would be
teleoperation, where the robotic
system`s movements are executed in manual mode, having the
operator working in a
master-slave architecture, controlling direct and
continuously the positions of the robot.
For these tasks it is needed only for the system to have
enough repeatability, once any
absolute positioning errors can be visually compensated by
the human operator. On the
other side, in certain robotic applications, both
programming techniques are either not
practical or inefficient. The first, where the human
operator teaches the trajectories to
the robot, is not possible when there is high variance in
the environment where the task
is being performed. The second method, the teleoperation,
has low absolute accuracy,
due the deficiencies of human perception. This project
follows modern tendencies of
automation, which give increasing emphasis on robots
guided by sensors and off-line
programming, partially or completely automating many of
the tasks to be executed.
Sensors such as cameras eloed to a system of computational
vision detect differences
between the actual and desired position of the
manipulator. This information is sent to
controllers to correct the pre-programated trajectory. The
manipulator movement
commands are programmed off-line by a CAD system, without
need even to turn on the
robot, allowing for greatest speed on its validation, as
well as problem solving. This
work presents methodologies and techniques which allow the
precise positioning of the
manipulator using cameras in its end-effector. Once it is
positioned in relation with the
world frame, it is possible to move the manipulator with
safety and precision its work
area, as is needed for automation of complex tasks. This
work is focused on
computational vision techniques applied for manipulator
calibration. It is based on a real
case of a subsea manipulator of six degrees of freedom,
used for underwater
interventions in oil exploring platforms. The subjects
treated in this work include
camera calibration, pattern recognition, position
tracking, stereopsis, direct and inverse
manipulator kinematics and the union of all techniques for
manipulator positioning in
the work area.
|
Page generated in 0.0456 seconds