• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 7
  • Tagged with
  • 38
  • 38
  • 38
  • 38
  • 38
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[en] TOWARDS DIRECT SPATIAL MANIPULATION OF VIRTUAL 3D OBJECTS USING VISUAL TRACKING AND GESTURE RECOGNITION OF UNMARKED HANDS / [pt] RUMO À MANIPULAÇÃO DIRETA ESPACIAL DE OBJETOS VIRTUAIS 3D USANDO RASTREAMENTO BASEADO EM VISÃO E NO RECONHECIMENTO DE GESTOS DE MÃOS SEM MARCADORES

SINISA KOLARIC 03 November 2008 (has links)
[pt] A necessidade de executar manipulações espaciais (como seleção, deslocamento, rotação, e escalamento) de objetos virtuais 3D é comum a muitos tipos de aplicações do software, inclusive aplicações de computer-aided design (CAD), computer-aided modeling (CAM) e aplicações de visualização científica e de engenharia. Neste trabalho é apresentado um protótipo de aplicação para manipulação de objetos virtuais 3D utilizando movimentos livres de mãos e sem o uso de marcadores, podendo-se fazer gestos com uma ou duas mãos. O usuário move as mãos no volume de trabalho situado imediatamente acima da mesa, e o sistema integra ambas as mãos (seus centróides) no ambiente virtual que corresponde a este volume de trabalho. As mãos são detectadas e seus gestos reconhecidos usando o método de detecção de Viola-Jones. Tal reconhecimento de gestos é assim usado para ligar e desligar modalidades da manipulação. O rastreamento 3D de até duas mãos é então obtido por uma combinação de rastreamento 2D chamado flocks- of-KLT-features e reconstrução 3D baseada em triangulação estéreo. / [en] The need to perform spatial manipulations (like selection, translation, rotation, and scaling) of virtual 3D objects is common to many types of software applications, including computer-aided design (CAD), computer-aided modeling (CAM) and scientific and engineering visualization applications. In this work, a prototype application for manipulation of 3D virtual objects using free-hand 3D movements of bare (that is, unmarked, uninstrumented) hands, as well as using one-handed and two-handed manipulation gestures, is demonstrated. The user moves his hands in the work volume situated immediately above the desktop, and the system effectively integrates both hands (their centroids) into the virtual environment corresponding to this work volume. The hands are being detected and their posture recognized using the Viola-Jones detection method, and the hand posture recognition thus obtained is then used for switching between manipulation modes. Full 3D tracking of up to two hands is obtained by a combination of 2D flocksof-KLT-features tracking and 3D reconstruction based on stereo riangulation.
12

[en] IMPLEMENTATION OF AN OPTICAL TRACKING DEVICE WITH 6 DEGREES OF FREEDOM FOR INTERACTING WITH VIRTUAL REALITY APPLICATIONS / [pt] IMPLEMENTAÇÃO DE UM DISPOSITIVO DE RASTREAMENTO ÓPTICO COM 6 GRAUS DE LIBERDADE PARA INTERAÇÃO COM APLICAÇÕES DE REALIDADE VIRTUAL

MANUEL EDUARDO LOAIZA FERNANDEZ 28 June 2005 (has links)
[pt] Os sistemas de rastreamento são uma das tecnologias cruciais para os sistemas de realidade virtual. Eles permitem detectar continuamente a posição e orientação de marcadores ou objetos específicos que o usuário utiliza para interagir com o sistema. Uma das tecnologias mais utilizadas para implementar este tipo de sistema é o rastreamento óptico, a qual permite ao usuário ter maior liberdade em seus movimentos porque não precisa de cabos ou elementos mecânicos que possam restringir ou atrapalhar a sensação de imersão que se tenta criar na interação com ambientes de realidade virtual. Este trabalho apresenta a construção e implementação de um dispositivo de entrada, baseado em rastreamento óptico, que é utilizado para interação com aplicações de realidade virtual do tipo semi-imersivas em um ambiente desktop comum. O dispositivo tem a capacidade de recuperar seis graus de liberdade dos movimentos feitos por um conjunto de marcadores que são controlados pela mão do usuário. A partir da recuperação dos seis graus de liberdade, o dispositivo é complementado com a capacidade de emissão de eventos que permitem a interação do usuário com a aplicação. No final apresenta-se uma aplicação que demonstra a adaptação dos eventos gerados e o desempenho do dispositivo implementado. / [en] Tracking systems are a fundamental technology in virtual reality systems. They provide a continuous detection of the position and orientation of markers or specific objects that the user employs to interact with the system. One of the technologies most commonly used to implement these types of systems is the optical tracking, which allows the users to have more freedom in their movements because it does not need cables or mechanical elements that can restrict or hinder the immersion sensation that is tried to create in the interaction with virtual reality environments. This work presents the construction and implementation of an input device that is based on optical tracking that is used for interaction with semiimmersive virtual reality applications on ordinary desktop environments. This device has the capability to get the six degrees of freedom of the movements made by a set of markers that are controlled by the user hand. Based on the six degrees of freedom recovered, the device is complemented with the ability to emit events that allow the interaction of the user with the application. Finally, an application is presented for demonstrating the use of the generated events and the performance of our device.
13

[en] PEOPLE COUNTING SYSTEM / [pt] SISTEMA DE CONTAGEM DE PESSOAS

PRISCILA MARQUES DIAS 11 October 2005 (has links)
[pt] Atualmente, a preocupação com segurança vem crescendo dia após dia. Vários trabalhos abordando o desenvolvimento de sistemas de supervisão já foram realizados. Esta dissertação propõe um método automático capaz de determinar o número de pessoas em uma área monitorada por uma câmera de vídeo, assim como detectar mudanças na imagem potencialmente causadas por atitudes ilícitas. Uma aplicação típica seria a segurança de galpões durante a noite, em finais de semana ou em qualquer momento onde o acesso de pessoas é permitido, mas o movimento de cargas não. Mais precisamente, a intenção é detectar se uma pessoa que está passando pelo ambiente carrega consigo um objeto pertencente ao local ou deixa um objeto no local, quando apenas o movimento de pessoas é admitido na área. Além disto, o sistema determina o número de pessoas na cena. O método consiste na aplicação de quatro etapas em seqüências de vídeo: a) separação de fundo / primeiro plano, b) atualização dinâmica da estimativa de fundo, c) localização / contagem de pessoas, e d) detecção de atitudes suspeitas. Os algoritmos de separação de fundo / primeiro plano e de estimativa de fundo toleram variações pequenas de iluminação e efeitos de sombra. Já a contagem / localização de pessoas explora informações de cor e coerência de movimento. Soluções para atender estes aspectos são encontradas na literatura, porém nenhuma delas atende todos eles juntos. O método foi avaliado por experimentos realizados através de um protótipo e apresentou resultados encorajadores. / [en] There is worldwide an increasing concern about security issues. A great deal of efforts have been undertaken in order to provide surveillance systems. This work proposes an automatic method to determine the number of people moving in an area monitored by a video camera, as well as to detect image changes, which are potentially due to illicit attitudes. A typical application is the security of warehouses during the night, on weekends or at any time when people access is allowed but no load movement is admissible. Specifically it focuses on detecting when a person passing by the environment carries any object belonging to the background away or leaves any object in the background, while only people movement is allowed in the area. Besides it estimates the number of people on scene. The method consists of performing four main tasks on video sequences: a) background and foreground separation, b) background estimative dynamic update, c) people location and counting, and d) suspicious attitudes detection. The proposed background and foreground separation and background estimative update algorithms deal with illumination fluctuation and shade effects. People location and counting explores colour information and motion coherence. Solutions meeting these requirements are proposed in the literature, but no one deals with all of them together. The method has been validated by experiments carried out on a prototype and produced encouraging results.
14

[en] USE OF ARTIFICIAL NEURAL NETWORKS IN THE RECOGNITION OF BI-DIMENSION IMAGES / [pt] REDES NEURAIS APLICADAS AO RECONHECIMENTO DE IMAGENS BI-DIMENSIONAIS

GUY PERELMUTER 05 July 2006 (has links)
[pt] Esta dissertação investiga a aplicação de Redes Neurais Artificiais no reconhecimento de imagens bi-dimensionais. O trabalho de tese foi dividido em quatro partes principais: um estudo sobre a importância da Visão Computacional e sobre os benefícios da aplicação das técnicas da Inteligência Computacional na área; um estudo da estrutura dos sistemas de reconhecimento de imagens encontrados na literatura; o desenvolvimento de dois sistemas de reconhecimento de imagens baseados em redes neurais; e o estudo de caso e a análise de desempenho dos sistemas desenvolvidos. A Visão Computacional tem se beneficiado das principais técnicas de Inteligência Computacional (redes neurais, algoritmos genéticos e lógica nebulosa) na implementação de sistemas de reconhecimento de imagens. Neste trabalho estudou-se a aplicação de diversos tipos de redes neurais na classificação de imagens Back-Propagation, Competitivas, RBF e Hierárquicas. Além disso, foi realizado um estudo das áreas de aplicação da Visão Computacional. A estrutura básica utilizada por diversos sistemas de Visão Computacional encontrada na literatura foi analisada. Esta estrutura é tipicamente composta por três módulos principais: um pré-processador, um extrator de características e um classificador. Dois sistemas de reconhecimento de imagens, denominados de XVision e SimpleNet, foram desenvolvidos neste trabalho. O sistema XVision segue a estrutura descrita acima, enquanto que o sistema SimpleNet utiliza a informação da imagem bruta para realizar a classificação. O módulo de pré-processamento do sistema XVision executa uma série de transformações na imagem, extraindo suas características intrínsecas para que seja obtida uma representação da imagem invariante a aspectos como rotação, translação e escalonamento. Este Pré- Processador é baseado em um trabalho previamente realizado no campo de Processamento de Sinais. A etapa de extração de características visa detectar as informações mais relevantes contidas na representação da imagem intrínseca obtida na etapa anterior. Foram investigados extratores baseados em técnicas estatísticas (utilizando o discriminante de Fisher) e em técnicas inteligentes (utilizando algoritmos genéticos). Para o módulo de classificação das imagens foram utilizados diversos tipos de redes neurais artificiais: Back-Propagation, Competitivas, RBFs e Hierárquicas. No sistema SimpleNet, o pré-processamento limita-se à redução das dimensões da imagem a ser classificada. Como os próprios pixels da imagem são utilizados para a classificação, não foi implementado um módulo de extração de características. Na etapa de classificação foram empregadas redes neurais Back- Propagation e Competitivas. O sistema XVision apresentou resultados promissores para dois conjuntos distintos de objetos bi-dimensionais: o primeiro composto por peças mecânicas e o segundo por objetos triviais. As amostras utilizadas nos testes apresentavam características diferentes daquelas com as quais as redes neurais foram treinadas - não apenas com rotações, translações e escalonamentos, mas com diferenças estruturais. O classificador conseguiu taxas de acerto superiores a 83% em ambos os conjuntos de objetos. O sistema SimpleNet também mostrou-se eficiente na diferenciação de imagens semelhantes (cartões telefônicos e radiografias de pulmões), obtendo taxas de acerto superiores a 80%. O desenvolvimento destes sistemas demonstrou a viabilidade da aplicação de redes neurais na classificação de objetos bi- dimensionais. Devido ao grande interesse na utilização de sistemas de Visão em aplicações de tempo real, mediu-se o tempo gasto nos processos de reconhecimento. Desta forma foram detectados os garagalos dos sistemas, facilitando assim sua otimização. / [en] This work investigates the use of Artificial Neural Networks in the recognition of bi-dimensional images. The work was divided in four main parts: a survey on the importance of Computational Vision and on the benefits of the application of intelligent techniques in the fiels; a survey on the structure of image recognition systems found in the literature; the development of two image recognition systems based on neural networks; and an analysis of the performance of the developed systems. Computational Vision has benefited from the main Computational Intelligence techniques (neural networks, genetic algoritms and fuzzy logic) to implement image recognition systems. In this work, the usage of different Kinds of neural networks in image classification was studied: Back-Propagation, Competitive, RBF and Hierarchical. Besiades that, a survey on the fields of application of Computational Vision was made. The basic structure is typically composed of three modules: a pre-processor, a characteristics extractor and a classifier. In this work, two image recognition systems, called Xvision and SimpleNet, were developed. The XVision system follows the structure described above, while the SimpleNet system performs the classification using the information present in the raw picture. The pre-processing module of the Xvision system executes a series of transforms over the image, extracting its essential characteristics so that an invariant representation of the image can be obtained. This pre- processor is based on a previous work in the fiels of Signal Processing. The characteristcs extractor aims to detect the most relevant information present in the image representation obtained after the previous step. Two kinds of extractors were investigated: one based on statistical tecniques (applyng the Fisher`s discriminant) and another based on intelligent techniques (applyng genetic algorithms). The classification module was implementede through several Kinds of neural networks: Back-Propagation, Competitive, RBF and Hierarchical. The pre-processing of the SimpleNet system simply reduces the image`s dimensions. Since the image`s pixels are used for the classification process, no characteristics extractor module was implemented. In the classification module, Back-Propagation and Competitive neural networks were employed. The Xvision system yielded promising results for two sets of objects: the first one composed of mechanical parts and the second one composed of trivial objects. The samples used during the tests presented different characteristics from those samples used during the training process - not only rotated, translated and scaled, but also with structural differences. The classifier obtained a hit ratio above 83% with both sets. The SimpleNet system also showed a good performance in the differentiation of similar objects (telephone cards and X-rays of lungs), achieving hit ratios of more than 80%. The development of both systems demonstrated the viability of the use of neural networks in the classification of bi- dimensional objects. Due to the interest of applying Vision systems in real-time, the time spent in the recognition process was measured. This allowed the detection of the systems` bottlenecks, making their optimization easier.
15

[pt] DETECÇÃO DE PADRÕES EM IMAGENS BIDIMENSIONAIS: ESTUDO DE CASOS / [en] PATTERN DETECTION IN BIDIMENSIONAL IMAGENS: CASES STUDY

GUILHERME LUCIO ABELHA MOTA 10 November 2005 (has links)
[pt] A presente dissertação estudo dois problemas de detecção de padrões em imagens com fundo complexo, casos onde os algoritmos de segmentação convencionais não podem proporcionar bons resultados: a localização de Unidades Estruturais (UE`s) em imagens obtidas por Microscópio Eletrônico de Transmissão em Alta Resolução, e a detecção de faces frontais na posição vertical em imagens. Apesar de serem abordados problemas diferentes, as metodologias empregadas na solução de ambos os problemas possuem semelhanças. Uma operação de vizinhança é aplicada a imagem de entrada em busca de padrões de interesse. Sendo cada região extraída desta imagem submetida a um operador matemático composto por etapas de pré-processamento, redução de dimensionalidade e classificação. Na detecção de UE`s foram empregados três métodos distintos de redução de dimensionalidade - Análise de Componentes Principais (PCA), PCA do conjunto de treinamento equilibrado (PCAEq), e um método inédito, eixos que maximizam a distância ao centróide de uma classe (MAXDIST) - e dois modelos de classificador - classificador baseado na distância euclideana (EUC) e rede neural back-propagation (RN). A combinação PCAEq/RN forneceu taxa de detecção de 88% para 25 componentes. Já a combinação MAXDIST/EUC com apenas uma atributo forneceu 82% de detecção com menos falsas detecções. Na detecção de faces foi empregada uma nova abordagem, que utiliza uma rede neural back-propagation como classificador. Aplica-se a sua entrada recebe a representação no subespaço das faces e o erro de reconstrução. Em comparação com os resultados de referência da literatura na área, o método proposto atingiu taxas de detecção similares. / [en] This dissertation studies two pattern detection problems in images with complex background, in which standard segmentation techniques do not provide good results: the detection of structural units (SU`s) in images obtained through High resolution transmission Electron Microscopy and the detection of frontal human faces in images. The methods employed in the solution of both problems have many similarities - a neighborhood operator, basically composed of pre-processing, dimensionality reduction and classification steps, scans the input image searching for the patterns of interest. For SU detection three dimensionality reduction methods - Principal Component Analysis (PCA), PCA of the balanced training set (PACEq), and a new method, axis that maximize the distance to a given class centroid (MAXDIST) -, and two classifiers - Euclidean Distance (EUC) and back-propagation neural network (RN). The MAXDIST/EUC combination, with just one component, provided a detection rate of 82% with less false detections. For face detection a new approach was employed, using a back-propagation neural network as classifier. It takes as input a representation in the so-called face space and the reconstruction error (DFFS). In comparison with benchmark results from the literature, the proposed method reached similar detection rates.
16

[en] VISION BASED IN-SITU CALIBRATION OF ROBOTS WITH APPLICATION IN SUBSEA INTERVENTIONS / [pt] CALIBRAGEM VISUAL IN SITU DE MANIPULADORES ROBÓTICOS COM APLICAÇÃO EM INTERVENÇÕES SUBMARINAS

TROND MARTIN AUGUSTSON 08 May 2008 (has links)
[pt] A maioria dos robôs industriais da atualidade são programados para seguir uma trajetória pré-definida. Isto é suficiente quando o robô está trabalhando em um ambiente imutável onde todos os objetos estão em uma posição conhecida em relação à base do manipulador. No entanto, se a posição da base do robô é alterada, todas as trajetórias precisam ser reprogramadas para que ele seja capaz de cumprir suas tarefas. Outra opção é a teleoperação, onde um operador humano conduz todos os movimento durante a operação em uma arquitetura mestre-escravo. Uma vez que qualquer erro de posicionamento pode ser visualmente compensado pelo operador humano, essa configuração não requer que o robô possua alta precisão absoluta. No entanto, a desvantagem deste enfoque é a baixa velocidade e precisão se comparado com um sistema totalmente automatizado. O manipulador considerado nesta dissertação está fixo em um ROV (Remote Operating Vehicle) e é trazido até seu ambiente de trabalho por um teleoperador. A cada vez que a base do manipulador é reposicionada, este precisa estimar sua posição e orientação relativa ao ambiente de trabalho. O ROV opera em grandes profundidades, e há poucos sensores que podem operar nestas condições adversas. Isto incentiva o uso de visão computacional para estimar a posição relativa do manipulador. A diferença entre a posição real e a desejada é estimada através do uso de câmeras submarinas. A informação é enviada aos controladores para corrigir as trajetórias préprogramadas. Os comandos de movimento do manipulador podem então ser programados off-line por um sistema de CAD, sem a necessidade de ligar o robô, permitindo rapidez na validação das trajetórias. Esse trabalho inclui a calibragem tanto da câmera quanto da estrutura do manipulador. As melhores precisões absolutas obtidas por essas metodologias são combinadas para obter calibração in-situ da base do manipulador. / [en] The majority of today`s industrial robots are programmed to follow a predefined trajectory. This is sufficient when the robot is working in a fixed environment where all objects of interest are situated in a predetermined position relative to the robot base. However, if the robot`s position is altered all the trajectories have to be reprogrammed for the robot to be able to perform its tasks. Another option is teleoperation, where a human operator conducts all the movements during the operation in master-slave architecture. Since any positioning errors can be visually compensated by the human operator, this configuration does not demand that the robot has a high absolute accuracy. However, the drawback is the low speed and low accuracy of the human operator scheme. The manipulator considered in this thesis is attached to a ROV (Remote Operating Vehicle) and is brought to its working environment by the ROV operator. Every time the robot is repositioned, it needs to estimate its position and orientation relative to the work environment. The ROV operates at great depths and there are few sensors which can operate at extreme depths. This is the incentive for the use of computer vision to estimate the relative position of the manipulator. Through cameras the differences between the actual and desired position of the manipulators is estimated. This information is sent to controllers to correct the pre-programmed trajectories. The manipulator movement commands are programmed off-line by a CAD system, without need even to turn on the robot, allowing for greatest speed on its validation, as well as problem solving. This work includes camera calibration and calibration of the structure of the manipulator. The increased accuracies achieved by these steps are merged to achieve in-situ calibration of the manipulator base.
17

[en] SCENE RECONSTRUCTION USING SHAPE FROM TEXTURE / [pt] RECONSTRUÇÃO DO ESPAÇO TRIDIMENSIONAL A PARTIR DA DEFORMAÇÃO DE TEXTURA DE IMAGENS

DIOGO MENEZES DUARTE 11 September 2006 (has links)
[pt] O presente trabalho apresenta um estudo sobre técnicas de construção de um modelo tridimensional de objetos a partir unicamente da informação de textura. Estas técnicas são baseadas na medida da deformação da textura ao longo de uma superfície, obtendo assim a orientação do vetor normal à superfície em cada ponto. De posse da orientação é possível construir um modelo tridimensional do objeto. São avaliados três métodos. O primeiro emprega Filtros de Gabor e momentos de segunda ordem como medida de textura e os outros dois estimam a transformação afim entre recortes de igual tamanho na imagem. A estimativa da transformação afim tem ênfase especial neste trabalho por ser um passo fundamental no algoritmo que mede a deformação da textura. Os métodos foram validados em diferentes etapas, de forma a avaliar: estimativa da transformação afim; decomposição em ângulos; e reconstrução do modelo 3D a partir do mapa de orientação, também conhecido como mapa de agulhas. A avaliação experimental foi realizada com imagens sintéticas e fotos de objetos reais. Os resultados mostram a aplicabilidade, dificuldades e restrições dos métodos analisados. / [en] The current work presents a study about methods for 3D object shape reconstruction based on their texture information. These methods, called Shape from Texture, measure texture deformation along object surface, obtaining the orientation in each point of the image. Having the orientation in each point (a needle map) it is possible to construct the object 3D model. Three methods are studied in this dissertation. One of these methods uses Gabor Filters and second order moments, and other two that estimate the affine transform between images patches. The affine estimation problem gets emphasis in the present work since it is an essential step in most Shape from Texture algorithms. The methods were tested in separate steps: evaluate the affine transform estimation; the decomposition of the affine matrix in slant and tilt angles; and the 3D model reconstruction using the needle map. Both synthetic and real images were used on the experiments. The results clearly show the applicability, difficulties and restrictions of the investigated methods.
18

[en] A METHOD FOR REAL-TIME OBJECT DETECTION IN HD VIDEOS / [pt] UM MÉTODO PARA DETECÇÃO EM TEMPO REAL DE OBJETOS EM VÍDEOS DE ALTA DEFINIÇÃO

GUSTAVO COSTA GOMES MOREIRA 29 April 2015 (has links)
[pt] A detecção e o subsequente rastreamento de objetos em sequencias de vídeo é um desafio no que tange o processamento de vídeos em tempo real. Nesta tese propomos um método de detecção em tempo real adequado para o processamento de vídeos de alta definição. Neste método utilizamos um procedimento de segmentação de quadros usando as imagens integrais de frente, o que permite o rápido descarte de várias partes da imagem a cada quadro, desta maneira atingindo uma alta taxa de quadros processados por segundo. Estendemos ainda o algoritmo proposto para que seja possível detectar múltiplos objetos em paralelo. Além disto, através da utilização de uma GPU e técnicas que podem ter seu desempenho aumentado por meio de paralelismo, como o operador prefix sum, conseguimos atingir um desempenho ainda melhor do algoritmo, tanto para a detecção do objeto, como na etapa de treinamento de novas classes de objetos. / [en] The detection and subsequent tracking of objects in video sequences is a challenge in terms of video processing in real time. In this thesis we propose an detection method suitable for processing high-definition video in real-time. In this method we use a segmentation procedure through integral image of the foreground, which allows a very quick disposal of various parts of the image in each frame, thus achieving a high rate of processed frames per second. Further we extend the proposed method to be able to detect multiple objects in parallel. Furthermore, by using a GPU and techniques that can have its performance enhanced through parallelism, as the operator prefix sum, we can achieve an even better performance of the algorithm, both for the detection of the object, as in the training stage of new classes of objects.
19

[en] AN EXPERIMENT ON CONCEPTUAL DESIGN OF PERVASIVE MOBILE GAMES USING QUALITY REQUIREMENTS / [pt] UM EXPERIMENTO NO DESIGN CONCEITUAL DE JOGOS PERVASIVOS MÓVEIS USANDO REQUISITOS DE QUALIDADE

FELIPE BALDINO MOREIRA 28 January 2016 (has links)
[pt] Jogos pervasivos móveis são um tipo novo de jogo que mistura aparelhos móveis (como telefones celulares), mundos virtuais e atividades que acontecem no mundo real. Nessa àrea recente, a literatura sobre projeto conceitual e requisitos de qualidade sobre pervasividade são escassas. A pervasividade é a qualidade (difícil de ser definida objetivamente) que difere os jogos pervasivos móveis dos jogos digitais tradicionais. Neste trabalho, nós discutimos o desenvolvimento de um jogo pervasivo móvel usando requisitos de qualidade relacionados à pervasividade. Nós consideramos esses requisitos durante todo o processo de desenvolvimento (i.e., as etapas de projeto, produção e pós-produção), focando na análise, implementação e gameplay. Nós esperamos que os nossos resultados possam ajudar a melhorar guias de desenvolvimento relacionadas a jogos pervasivos móveis. / [en] Pervasive games is an emerging game genre that mixes up mobile devices (such as smartphones), virtual worlds, and gameplay based on the real world, creating a mixed-reality game. This recent area lacks literature about conceptual design and quality requirements related to pervasiveness – the ultimate and elusive quality that differentiate pervasive mobile games from traditional digital games. In the present work, we discuss the development of a pervasive mobile game using quality requirements related to pervasiveness. Also, we consider those requirements in the entire game project (e.g., design, production, and post-production stages), focusing on the analysis, implementation, and gameplay. We expect that our results could help in improving the current state of design guidelines to develop pervasive mobile games.
20

[en] POSITIONING AND CALIBRATION OF A UNDERWATER ROBOTIC MANIPULATOR WITH USE OF COMPUTACIONAL VISION / [pt] POSICIONAMENTO E CALIBRAÇÃO DE UM MANIPULADOR ROBÓTICO SUBMARINO COM USO DE VISÃO COMPUTACIONAL

MIGUEL ANGELO GASPAR PINTO 22 November 2006 (has links)
[pt] Muitos dos robôs industriais utilizados atualmente seguem uma programação baseada em rastreamento de trajetórias. O robô é guiado por um operador humano para localizações fixas onde ele atuará. Esses movimentos são, então, gravados na linguagem de programação residente no controlador do robô, de forma que este seja capaz de repetir as tarefas. Este método pode ser suficiente para, por exemplo, movimentar objetos entre locais fixos. Como o robô está treinado para se movimentar em posições fixas, todas as partes do manipulador, bem como todos os objetos que serão manipulados devem estar em posições bem definidas, ou uma nova programação deverá ser feita. Outra metodologia é a de teleoperação, na qual a movimentação de sistemas robóticos é executada em modo manual, no qual o operador trabalha em uma arquitetura mestre-escravo controlando direta e continuamente as posições do manipulador. Para essas tarefas é necessário apenas que o sistema possua um alto grau de repetibilidade, uma vez que quaisquer erros absolutos de posicionamento são visualmente compensados pelo operador humano. Porém em certas aplicações robóticas essas técnicas de programação de manipuladores são impraticáveis ou insatisfatórias. A primeira vem a ser impraticável no caso de alta variabilidade do ambiente onde a tarefa está sendo feita. O segundo método atribui ao robô uma precisão absoluta baixa, devido a própria deficiência da percepção humana. Este trabalho segue pelas tendências modernas de automação, as quais vêm colocando uma crescente ênfase em robôs guiados por sensores e programação off-line, automatizando total ou parcialmente muitas das tarefas a serem executadas. Sensores, como câmeras ligadas a um sistema de visão computacional, detectam diferenças entre a posição real do manipulador e a posição desejada. Estas diferenças são então enviadas para os controladores, para que estes corrijam a trajetória pré-programada. Os comandos de movimento do manipulador são programados off-line por um sistema de CAD, sem a necessidade de ativar o robô, permitindo maior velocidade em sua validação e na resolução de problemas. Apresentam-se neste trabalho metodologias e técnicas para o posicionamento do manipulador utilizando-se, para tanto, câmeras em sua extremidade. Uma vez posicionado o manipulador em relação ao espaço de coordenadas do mundo, é possível deslocá-lo com segurança e precisão em sua área de trabalho, o que é imprescindível para automatização de tarefas complexas. O trabalho está concentrado nas aplicações de técnicas de visão computacional à calibração de manipuladores. Como estudo de caso utiliza-se uma situação real, de um manipulador submarino de seis graus de liberdade, para intervenções submarinas em plataformas de petróleo. Abordam-se a calibração de câmeras, reconhecimento de padrões, correlação de padrões em imagens distintas, estereoscopia, cinemática direta e inversa de manipuladores e a união de todas estas técnicas para o posicionamento do manipulador em sua área de trabalho. / [en] Many of today´s industrial robots are still programmed to follow trajectories. The robot is guided by a human operator to the desired fixed application locations. These motions are recorded and are later edited, within the robotic language residing in the robot controller, and played back, for the robot to be able to repetitively perform its task. This methodology is enough to move objects between fixed locations. As the robot is trained to move within fixed positions, all manipulator parts, as well as all the objects which will be manipulated need to be in well defined positions, otherwise another program is needed. Another methodology would be teleoperation, where the robotic system`s movements are executed in manual mode, having the operator working in a master-slave architecture, controlling direct and continuously the positions of the robot. For these tasks it is needed only for the system to have enough repeatability, once any absolute positioning errors can be visually compensated by the human operator. On the other side, in certain robotic applications, both programming techniques are either not practical or inefficient. The first, where the human operator teaches the trajectories to the robot, is not possible when there is high variance in the environment where the task is being performed. The second method, the teleoperation, has low absolute accuracy, due the deficiencies of human perception. This project follows modern tendencies of automation, which give increasing emphasis on robots guided by sensors and off-line programming, partially or completely automating many of the tasks to be executed. Sensors such as cameras eloed to a system of computational vision detect differences between the actual and desired position of the manipulator. This information is sent to controllers to correct the pre-programated trajectory. The manipulator movement commands are programmed off-line by a CAD system, without need even to turn on the robot, allowing for greatest speed on its validation, as well as problem solving. This work presents methodologies and techniques which allow the precise positioning of the manipulator using cameras in its end-effector. Once it is positioned in relation with the world frame, it is possible to move the manipulator with safety and precision its work area, as is needed for automation of complex tasks. This work is focused on computational vision techniques applied for manipulator calibration. It is based on a real case of a subsea manipulator of six degrees of freedom, used for underwater interventions in oil exploring platforms. The subjects treated in this work include camera calibration, pattern recognition, position tracking, stereopsis, direct and inverse manipulator kinematics and the union of all techniques for manipulator positioning in the work area.

Page generated in 0.0456 seconds