31 |
[en] POSITIONING AND CALIBRATION OF A UNDERWATER ROBOTIC MANIPULATOR WITH USE OF COMPUTACIONAL VISION / [pt] POSICIONAMENTO E CALIBRAÇÃO DE UM MANIPULADOR ROBÓTICO SUBMARINO COM USO DE VISÃO COMPUTACIONALMIGUEL ANGELO GASPAR PINTO 22 November 2006 (has links)
[pt] Muitos dos robôs industriais utilizados atualmente seguem
uma programação
baseada em rastreamento de trajetórias. O robô é guiado
por um operador humano para
localizações fixas onde ele atuará. Esses movimentos são,
então, gravados na linguagem
de programação residente no controlador do robô, de forma
que este seja capaz de
repetir as tarefas. Este método pode ser suficiente para,
por exemplo, movimentar
objetos entre locais fixos. Como o robô está treinado para
se movimentar em posições
fixas, todas as partes do manipulador, bem como todos os
objetos que serão
manipulados devem estar em posições bem definidas, ou uma
nova programação deverá
ser feita. Outra metodologia é a de teleoperação, na qual
a movimentação de sistemas
robóticos é executada em modo manual, no qual o operador
trabalha em uma arquitetura
mestre-escravo controlando direta e continuamente as
posições do manipulador. Para
essas tarefas é necessário apenas que o sistema possua um
alto grau de repetibilidade,
uma vez que quaisquer erros absolutos de posicionamento
são visualmente
compensados pelo operador humano. Porém em certas
aplicações robóticas essas
técnicas de programação de manipuladores são impraticáveis
ou insatisfatórias. A
primeira vem a ser impraticável no caso de alta
variabilidade do ambiente onde a tarefa
está sendo feita. O segundo método atribui ao robô uma
precisão absoluta baixa, devido
a própria deficiência da percepção humana. Este trabalho
segue pelas tendências
modernas de automação, as quais vêm colocando uma
crescente ênfase em robôs
guiados por sensores e programação off-line, automatizando
total ou parcialmente
muitas das tarefas a serem executadas. Sensores, como
câmeras ligadas a um sistema de
visão computacional, detectam diferenças entre a posição
real do manipulador e a
posição desejada. Estas diferenças são então enviadas para
os controladores, para que
estes corrijam a trajetória pré-programada. Os comandos de
movimento do manipulador
são programados off-line por um sistema de CAD, sem a
necessidade de ativar o robô,
permitindo maior velocidade em sua validação e na
resolução de problemas.
Apresentam-se neste trabalho metodologias e técnicas para
o posicionamento do
manipulador utilizando-se, para tanto, câmeras em sua
extremidade. Uma vez
posicionado o manipulador em relação ao espaço de
coordenadas do mundo, é possível
deslocá-lo com segurança e precisão em sua área de
trabalho, o que é imprescindível
para automatização de tarefas complexas. O trabalho está
concentrado nas aplicações de
técnicas de visão computacional à calibração de
manipuladores. Como estudo de caso
utiliza-se uma situação real, de um manipulador submarino
de seis graus de liberdade,
para intervenções submarinas em plataformas de petróleo.
Abordam-se a calibração de
câmeras, reconhecimento de padrões, correlação de padrões
em imagens distintas,
estereoscopia, cinemática direta e inversa de
manipuladores e a união de todas estas
técnicas para o posicionamento do manipulador em sua área
de trabalho. / [en] Many of today´s industrial robots are still programmed to
follow trajectories. The
robot is guided by a human operator to the desired fixed
application locations. These
motions are recorded and are later edited, within the
robotic language residing in the
robot controller, and played back, for the robot to be
able to repetitively perform its
task. This methodology is enough to move objects between
fixed locations. As the robot
is trained to move within fixed positions, all manipulator
parts, as well as all the objects
which will be manipulated need to be in well defined
positions, otherwise another
program is needed. Another methodology would be
teleoperation, where the robotic
system`s movements are executed in manual mode, having the
operator working in a
master-slave architecture, controlling direct and
continuously the positions of the robot.
For these tasks it is needed only for the system to have
enough repeatability, once any
absolute positioning errors can be visually compensated by
the human operator. On the
other side, in certain robotic applications, both
programming techniques are either not
practical or inefficient. The first, where the human
operator teaches the trajectories to
the robot, is not possible when there is high variance in
the environment where the task
is being performed. The second method, the teleoperation,
has low absolute accuracy,
due the deficiencies of human perception. This project
follows modern tendencies of
automation, which give increasing emphasis on robots
guided by sensors and off-line
programming, partially or completely automating many of
the tasks to be executed.
Sensors such as cameras eloed to a system of computational
vision detect differences
between the actual and desired position of the
manipulator. This information is sent to
controllers to correct the pre-programated trajectory. The
manipulator movement
commands are programmed off-line by a CAD system, without
need even to turn on the
robot, allowing for greatest speed on its validation, as
well as problem solving. This
work presents methodologies and techniques which allow the
precise positioning of the
manipulator using cameras in its end-effector. Once it is
positioned in relation with the
world frame, it is possible to move the manipulator with
safety and precision its work
area, as is needed for automation of complex tasks. This
work is focused on
computational vision techniques applied for manipulator
calibration. It is based on a real
case of a subsea manipulator of six degrees of freedom,
used for underwater
interventions in oil exploring platforms. The subjects
treated in this work include
camera calibration, pattern recognition, position
tracking, stereopsis, direct and inverse
manipulator kinematics and the union of all techniques for
manipulator positioning in
the work area.
|
32 |
[en] SCENE TRACKING WITH AUTOMATIC CAMERA CALIBRATION / [pt] ACOMPANHAMENTO DE CENAS COM CALIBRAÇÃO AUTOMÁTICA DE CÂMERASFLAVIO SZENBERG 01 June 2005 (has links)
[pt] É cada vez mais comum, na transmissão de eventos esportivos
pelas emissoras de
televisão, a inserção, em tempo real, de elementos
sintéticos na imagem, como anúncios,
marcações no campo, etc. Geralmente, essa inserção é feita
através do emprego de câmeras
especiais, previamente calibradas e dotadas de dispositivos
que registram seu movimento e a
mudança de seus parâmetros. De posse destas informações, é
simples inserir novos elementos
na cena com a projeção apropriada.
Nesta tese, é apresentado um algoritmo para recuperar, em
tempo real e sem utilizar
qualquer informação adicional, a posição e os parâmetros da
câmera em uma seqüência de
imagens contendo a visualização de modelos conhecidos. Para
tal, é explorada a existência,
nessas imagens, de segmentos de retas que compõem a
visualização do modelo cujas posições
são conhecidas no mundo tridimensional. Quando se trata de
uma partida de futebol, por
exemplo, o modelo em questão é composto pelo conjunto das
linhas do campo, segundo as
regras que definem sua geometria e dimensões.
Inicialmente, são desenvolvidos métodos para a extração de
segmentos de retas longos
da primeira imagem. Em seguida é localizada uma imagem do
modelo no conjunto desses
segmentos com base em uma árvore de interpretação. De posse
desse reconhecimento, é feito
um reajuste nos segmentos que compõem a visualização do
modelo, sendo obtidos pontos de
interesse que são repassados a um procedimento capaz de
encontrar a câmera responsável pela
visualização do modelo. Para a segunda imagem da seqüência
em diante, apenas uma parte
do algoritmo é utilizada, levando em consideração a
coerência entre quadros, a fim de
aumentar o desempenho e tornar possível o processamento em
tempo real.
Entre diversas aplicações que podem ser empregadas para
comprovar o desempenho e
a validade do algoritmo proposto, está uma que captura
imagens através de uma câmera para
demonstrar o funcionamento do algoritmo on line. A
utilização de captura de imagens
permite testar o algoritmo em inúmeros casos, incluindo
modelos e ambientes diferentes. / [en] In the television casting of sports events, it has become
very common to insert
synthetic elements to the images in real time, such as
adds, marks on the field, etc. Usually,
this insertion is made using special cameras, previously
calibrated and provided with features
that record their movements and parameter changes. With
such information, inserting new
objects to the scene with the adequate projection is a
simple task.
In the present work, we will introduce an algorithm to
retrieve, in real time and using
no additional information, the position and parameters of
the camera in a sequence of images
containing the visualization of previously-known models.
For such, the method explores the
existence in these images of straight-line segments that
compose the visualization of the
model whose positions are known in the three-dimensional
world. In the case of a soccer
match, for example, the respective model is composed by
the set of field lines determined by
the rules that define their geometry and dimensions.
Firstly, methods are developed to extract long straight-
line segments from the first
image. Then an image of the model is located in the set
formed by such segments based on an
interpretation tree. With such information, the segments
that compose the visualization of the
model are readjusted, resulting in the obtainment of
interest points which are then passed to a
proceeding able to locate the camera responsible for the
model`s visualization. For the second
image on, only a part of the algorithm is used, taking
into account the coherence between the
frames, with the purpose of improving performance to allow
real-time processing.
Among several applications that can be employed to
evaluate the performance and
quality of the proposed method, there is one that captures
images with a camera to show the
on-line functioning of the algorithm. By using image
capture, we can test the algorithm in a
great variety of instances, including different models and
environments.
|
33 |
[en] COLLECTIVE BEHAVIOR ON MULTI-AGENT ROBOTIC SYSTEMS USING VIRTUAL SENSORS / [pt] COMPORTAMENTO COLETIVO EM SISTEMAS ROBÓTICOS MULTI-AGENTES USANDO SENSORES VIRTUAIS08 November 2021 (has links)
[pt] Robótica coletiva de enxame é uma abordagem para o controle de sistemas robóticos multi-agentes baseada em insetos sociais e outros sistemas naturais que apresentam características de auto-organização e emergência, com aplicações disruptivas em robótica e inúmeras possibilidades de expansão em outras áreas. Porém, sendo um campo relativamente novo existem poucas plataformas experimentais para seu estudo, e as existentes são, em sua maioria, especialmente desenvolvidas para tarefas e algoritmos específicos. Uma plataforma de estudos genérica para o estudo de sistemas robóticos coletivos é, por si só, uma tarefa tecnológica não trivial além de ser um recurso valioso para um centro de pesquisas interessado em realizar experimentos no assunto. Neste trabalho dois importantes algoritmos de controle colaborativo multi-robôs foram estudados: busca do melhor caminho e transporte coletivo. Uma análise completa dos mecanismos biológicos, dos modelos lógicos e do desenvolvimento dos algoritmos é apresentada. Para realizar os experimentos uma plataforma genérica foi desenvolvida baseada nos robôs móveis “iRobot Create”. Sensores virtuais são implementados em através de um sistema de visão computacional combinado com um simulador em tempo real. O sistema de sensores virtuais permite a incorporação de sensores ideais no sistema experimental, incluindo modelos mais complexos de sensores reais, incluindo a possibilidade da adição de ruído simulador nas leituras. Esta abordagem permite também a utilização de sensores para detecção de objetos virtuais, criados pelo simulador, como paredes virtuais e feromônios virtuais. Cada robô possui um sistema eletrônico embarcado especialmente desenvolvido baseado em micro controlador ARM. A eletrônica adicionada é responsável por receber as leituras dos sensores virtuais através de um link de radio em um protocolo customizado e calcular, localmente, o comportamento do robô. Os algoritmos são implementados na linguagem de alto nível Lua. Mesmo com as leituras dos sensores virtuais sendo transmitidas de um sistema centralizado é importante ressaltar que todo o algoritmo de inteligência é executado localmente por cada agente. As versões modificadas e adaptadas dos algoritmos estudados na plataforma com sensores virtuais foram analisadas, juntamente com suas limitações, e se mostraram compatíveis com os resultados esperados e acessíveis na literatura que utiliza sistemas experimentais mais específicos e mais dispendiosos. Portanto a plataforma desenvolvida se mostra capaz como ferramenta para experimentos em controle de sistemas robóticos multi-agentes com baixo custo de implementação, além da inclusão, através do mecanismo de sensores virtuais, de sensores ainda em desenvolvimento ou comercialmente indisponíveis. / [en] Swarm robotics is an approach to multi-robot control based on social insects and other natural systems, which shows self-organization and emergent characteristics, with disruptive applications on robotics and possibilities in a variety of areas. But, being a relatively new field of research, there are few experimental platforms to its study, and most of them are crafted for very specific tasks and algorithms. A general study platform of swarm robotics, by itself, is a non-trivial technological deed and also a very valuable asset to a research center willing to run experiments on the topic. In this work, two important algorithms in multi-robot collaborative control strategies are studied: path finding and collective transport. A complete analysis of the biological mechanisms, models and computer abstractions that resulted in the development of those algorithms is shown. To perform the multi-robot experiments, several “iRobot Create” mobile robots are employed. Virtual sensors and virtual walls are implemented in real time in the experimental system through cameras and especially developed computer vision software. Virtual sensors allow the incorporation of ideal sensors in the experimental system, including complete models of real sensors, with the possibility of adding virtual noise to the measurements. This approach also allows the use of sensors to detect virtually created objects, such as virtual walls or virtual pheromones. Each physical robot has a customized embedded system, based on the ARM microprocessor, which receives the virtual sensors readings through a radio link in an also customized protocol. The behavior of each autonomous agent is locally calculated using the high-level programming language Lua. Even though the virtual sensor readings are transmitted from an external centralized computer system, all behaviors are locally and independently calculated by each agent. The adaptations of the studied algorithms to the platform with virtual sensors are analyzed, along with its limitations. It is shown that the experimental results using virtual sensors are coherent with results from the literature using very specialized and expensive robot/sensor setups. Therefore, the developed platform is able to experimentally study new control strategies and swarm algorithms with a low setup cost, including the possibility of virtually incorporating sensors that are still under development or not yet commercially available.
|
34 |
[pt] CALIBRAÇÃO DE CÂMERA USANDO PROJEÇÃO FRONTAL-PARALELA E COLINEARIDADE DOS PONTOS DE CONTROLE / [en] CAMERA CALIBRATION USING FRONTO PARALLEL PROJECTION AND COLLINEARITY OF CONTROL POINTSSASHA NICOLAS DA ROCHA PINHEIRO 17 November 2016 (has links)
[pt] Imprescindível para quaisquer aplicações de visão computacional ou
realidade aumentada, a calibração de câmera é o processo no qual se obtém
os parâmetros intrínsecos e extrínsecos da câmera, tais como distância
focal, ponto principal e valores que mensuram a distorção ótica da lente.
Atualmente o método mais utilizado para calibrar uma câmera envolve
o uso de imagens de um padrão planar em diferentes perspectivas, a
partir das quais se extrai pontos de controle para montar um sistema de
equações lineares cuja solução representa os parâmetros da câmera, que
são otimizados com base no erro de reprojeção 2D. Neste trabalho, foi
escolhido o padrão de calibração aneliforme por oferecer maior precisão na
detecção dos pontos de controle. Ao aplicarmos técnicas como transformação
frontal-paralela, refinamento iterativo dos pontos de controle e segmentação
adaptativa de elipses, nossa abordagem apresentou melhoria no resultado
do processo de calibração. Além disso, propomos estender o modelo de
otimização ao redefinir a função objetivo, considerando não somente o erro
de reprojeção 2D, mas também o erro de colinearidade 2D. / [en] Crucial for any computer vision or augmented reality application, the
camera calibration is the process in which one gets the intrinsics and the
extrinsics parameters of a camera, such as focal length, principal point
and distortions values. Nowadays, the most used method to deploy the
calibration comprises the use of images of a planar pattern in different
perspectives, in order to extract control points to set up a system of linear
equations whose solution represents the camera parameters, followed by
an optimization based on the 2D reprojection error. In this work, the
ring calibration pattern was chosen because it offers higher accuracy on
the detection of control points. Upon application of techniques such as
fronto-parallel transformation, iterative refinement of the control points and
adaptative segmentation of ellipses, our approach has reached improvements
in the result of the calibration process. Furthermore, we proposed extend
the optimization model by modifying the objective function, regarding not
only the 2D reprojection error but also the 2D collinearity error.
|
35 |
[en] AUTOMATIC SEGMENTATION OF BREAKOUTS IN IMAGE LOGS WITH DEEP LEARNING / [pt] SEGMENTAÇÃO AUTOMÁTICA DE BREAKOUTS EM PERFIS DE IMAGEM COM APRENDIZADO PROFUNDOGABRIELLE BRANDEMBURG DOS ANJOS 02 May 2023 (has links)
[pt] Breakouts são zonas colapsadas nas paredes de poços causadas por falhas
de compressão. A identificação desses artefatos é fundamental para estimar
a estabilidade das perfurações e para obter a orientação e magnitude da
tensão horizontal máxima presente na formação rochosa. Tradicionalmente,
os intérpretes caracterizam os breakouts manualmente em perfis de imagem, o
que pode ser considerado uma tarefa muito demorada e trabalhosa por conta
do tamanho massivo dos dados. Outros aspectos que dificultam a interpretação
estão associados à complexidade das estruturas e a presença de diversos
artefatos ruidosos nos dados de perfil. Sendo assim, métodos tradicionais de
processamento de imagem tornam-se ineficientes para solucionar essa tarefa de
detecção. Nos últimos anos, soluções baseadas em aprendizado profundo tem se
tornado cada vez mais promissoras para problemas de visão computacional, tais
como, detecção e segmentação de objetos em imagens. O presente trabalho tem
como objetivo a classificação pixel a pixel das regiões de breakouts em dados de
perfil de imagem. Para isso foi empregado a rede neural convolucional DC-UNet
de forma supervisionada. Essa arquitetura é uma variação do modelo clássico
U-Net, a qual é uma rede consagrada na segmentação de dados médicos. A
metodologia proposta atingiu uma média de 72.3por cento de F1-Score e, em alguns
casos, os resultados qualitativos mostraram-se melhores que a interpretação
de referência. Após avaliação dos resultados junto a especialistas da área,
o método pode ser considerado promissor na caracterização e segmentação
automática de estruturas em perfis de imagem de poços. / [en] Breakouts are collapsed zones on wellbore walls caused by compressive
failure. Their identification is fundamental for estimating the borehole s stability and obtaining the direction and magnitude of the maximum horizontal
stress in the rock formation. Traditionally, professional interpreters identify
and characterize breakouts manually in image logs, which can be considered a
very laborious and time-consuming task due to the massive size of the wellbore
data. Other aspects that make the interpretation difficult are the complexity
of the structures of interest and several noisy artifacts in the image log data.
Therefore, more than traditional image processing methods are required to
solve this detection task. In recent years, solutions based on deep learning
have become increasingly promising for computer vision problems, such as
object detection and image segmentation. This work explores using a convolutional neural network to create a pixel-by-pixel classification of the breakout
regions in the image log data. The architecture model used in this work for the
supervised training was the DC-UNet. This architecture is a variation of the
classical U-Net, an acknowledged network for medical image segmentation. The
proposed method reached an average F-Score of 72.3 percent and qualitative results
with some prediction cases even better than ground truth. After evaluating the
results, the work can be considered promising for automatically characterizing
and segmenting borehole structures in well image logs.
|
36 |
[en] A STUDY OF THE USE OF OBJECT SEGMENTATION FOR THE APPLICATION OF VIDEO INPAINTING TECHNIQUES / [pt] UM ESTUDO DE USO DE SEGMENTAÇÃO DE OBJETOS PARA A APLICAÇÃO DE TÉCNICAS DE VIDEO INPAINTINGSUSANA DE SOUZA BOUCHARDET 23 August 2021 (has links)
[pt] Nos últimos anos tem ocorrido um notável desenvolvimento de técnicas
de Image Inpainting, entretanto transpor esse conhecimento para aplicações
em vídeo tem se mostrado um desafio. Além dos desafios inerentes a tarefa
de Video Inpainting (VI), utilizar essa técnica requer um trabalho prévio de
anotação da área que será reconstruída. Se a aplicação do método for para
remover um objeto ao longo de um vídeo, então a anotação prévia deve ser
uma máscara da área deste objeto frame a frame. A tarefa de propagar a
anotação de um objeto ao longo de um vídeo é conhecida como Video Object
Segmentation (VOS) e já existem técnicas bem desenvolvidas para solucionar
este problemas. Assim, a proposta desse trabalho é aplicar técnicas de VOS
para gerar insumo para um algoritmo de VI. Neste trabalho iremos analisar o
impacto de utilizar anotações preditas no resultado final de um modelo de VI. / [en] In recent years there has been a remarkable development of Image
Inpainting techniques, but using this knowledge in video application is still
a challenge. Besides the inherent challenges of the Video Inpainting (VI) task, applying this technique requires a previous job of labeling the area that should be reconstructed. If this method is used to remove an object from the video, then the annotation should be a mask of this object s area frame by frame. The task of propagating an object mask in a video is known as Video Object
Segmentation (VOS) and there are already well developed techniques to solve
this kind of task. Therefore, this work aims to apply VOS techniques to create
the inputs for an VI algorithm. In this work we shall analyse the impact in the
result of a VI algorithm when we use a predicted annotation as the input.
|
37 |
[en] A ROBUST REAL-TIME COMPONENT FOR PERSONAL PROTECTIVE EQUIPMENT DETECTION IN AN INDUSTRIAL SETTING / [pt] UM COMPONENTE ROBUSTO EM TEMPO REAL PARA DETECÇÃO DE EQUIPAMENTOS DE PROTEÇÃO INDIVIDUAL EM UM AMBIENTE INDUSTRIALPEDRO HENRIQUE LOPES TORRES 19 July 2021 (has links)
[pt] Em grandes indústrias, como construção, metalúrgica e petróleo,
trabalhadores são continuamente expostos a vários tipos de perigos em
seus locais de trabalho. Segundo a Organização Internacional do Trabalho
(OIT), anualmente ocorrem cerca de 340 milhões de acidentes de trabalho.
Equipamentos de Proteção Individual (EPI) são utilizados para garantir
a proteção essencial da saúde e segurança dos trabalhadores. Com isto,
há um grande esforço para garantir que esses tipos de equipamentos sejam
usados de maneira adequada em ambientes de trabalho. Em tais ambientes, é
comum ter câmeras de circuito fechado de televisão (CFTV) para monitorar
os trabalhadores, pois essas podem ser usadas para verificar o uso adequado
de EPIs. Alguns trabalhos presentes na literatura abordam o problema de
verificação automática de EPIs usando imagens de CFTV como entrada;
no entanto, muitos destes trabalhos não conseguem lidar com a detecção
de uso seguro de múltiplos equipamentos e outros até mesmo pulam a fase
de verificação, fazendo apenas a detecção. Neste trabalho, propomos um
novo componente de análise de segurança cognitiva para um sistema de
monitoramento. Este componente atua para detectar o uso adequado de
EPIs em tempo real, usando fluxo de dados de câmeras de CFTV comuns.
Construímos este componente do sistema com base nas melhores técnicas
de Aprendizado Profundo voltadas para a tarefa de detecção de objetos. A
metodologia proposta é robusta com resultados consistentes e promissores
em termos da métrica Mean Average Precision (mAP) e pode atuar em
tempo real. / [en] In large industries, such as construction, metallurgy, and oil, workers
are continually exposed to various hazards in their workplace. Accordingly
to the International Labor Organization (ILO), there are 340 million occupational
accidents annually. Personal Protective Equipment (PPE) is used
to ensure the essential protection of workers health and safety. There is a
great effort to ensure that these types of equipment are used properly. In
such an environment, it is common to have closed-circuit television (CCTV)
cameras to monitor workers, as those can be used to verify the PPE s proper
usage. Some works address this problem using CCTV images; however, they
frequently can not deal with multiples safe equipment usage detection and
others even skip the verification phase, making only the detection. In this
paper, we propose a novel cognitive safety analysis component for a monitoring
system. This component acts to detect the proper usage of PPE s in
real-time using data stream from regular CCTV cameras. We built the system
component based on the top of state-of-art deep learning techniques for
object detection. The methodology is robust with consistent and promising
results for Mean Average Precision (mAP) and can act in real-time.
|
38 |
[pt] IDENTIFICAÇÃO NÃO LINEAR DE UM ATUADOR ROBÓTICO COM JUNTA FLEXÍVEL USANDO DADOS PROPRIOCEPTIVOS E DE VÍDEO / [en] NONLINEAR IDENTIFICATION OF A FLEXIBLE JOINT ROBOTIC ACTUATOR USING PROPRIOCEPTIVE AND VIDEO DATAANTONIO WEILLER CORREA DO LAGO 21 November 2024 (has links)
[pt] No contexto de robos colaborativos, há um crescente interesse em Atuadores Elásticos em Série impulsionado pela necessidade de garantir segurança
e funcionalidade. No entanto, as não linearidades inerentes a esses atuadores,
como atrito, folga nas engrenagens e ruído, aumentam significativamente o desafio de controlar e modelar tais dispositivos. Além disso, um elemento elástico
adiciona uma nova não linearidade. Visando essas características, este trabalho
propõe um extenso trabalho de identificação do sistema para obter um modelo para um atuador elástico em série baseado em elastômero de baixo custo
e original. As metodologias propostas investigam diferentes características do
sistema. A primeira se concentra em modelar as não linearidades da junta elástica por meio de um modelo híbrido. A segunda contribuição visa examinar a
precisão de redes neurais informadas por física para identificação de caixa cinza
de parâmetros de atrito. Por último, é proposto uma metodologia para obter
os estados da montagem usando vídeo. A partir dessas estimativas, é proposta
uma identificação de caixa cinza usando vídeo. Todos os três estudos utilizam
os dados da montagem do atuador. As duas primeiras contribuições obtiveram
resultados importantes indicando a eficiência das metodologias propostas. A
terceira contribuição mostrou o potencial da nova abordagem de identificação
baseada em vídeo. / [en] In the context of human interactive robotics, there is a growing interest in
Series Elastic Actuators (SEA), driven by the critical need to ensure safety and
functionality. Moreover, a precise model is required to obtain optimal control.
However, the inherent nonlinearities of those actuators, such as friction, gear
backlash, and noise, greatly increase the challenge of controlling and modeling
such devices. Furthermore, a compliant element adds a new nonlinearity,
making the modeling task more challenging. Aiming to tackle these issues, this
work proposes extensive system identification to obtain mathematical models
characterizing the dynamics of an original low-cost elastomer-based SEA. The
proposed methodologies investigate different characteristics of the system. The
first focuses on modeling the elastic joint s nonlinearities through a hybrid
model. The second contribution aims to examine the accuracy of physics-informed neural networks for gray-box identification of friction parameters.
Lastly, a framework to obtain the states of the assembly using video is
proposed. From these estimations, a gray-box identification using video is
proposed. All three studies use the data from the actuator assembly. The first
two contributions obtained important results indicating the efficiency of the
proposed methodologies. The third contribution showed the potential of the
novel video-based identification approach.
|
39 |
[en] REAL TIME EMOTION RECOGNITION BASED ON IMAGES USING ASM AND SVM / [pt] RECONHECIMENTO DE EMOÇÕES ATRAVÉS DE IMAGENS EM TEMPO REAL COM O USO DE ASM E SVMGUILHERME CARVALHO CUNHA 09 July 2014 (has links)
[pt] As expressões faciais transmitem muita informação sobre um indivíduo, tornando a capacidade de interpretá-las uma tarefa muito importante, com aplicações em diversas áreas, tais como Interação Homem Máquina, Jogos Digitais, storytelling interativo e TV/Cinema digital. Esta dissertação discute o processo de reconhecimento de emoções em tempo real usando ASM (Active Shape Model) e SVM (Support Vector Machine) e apresenta uma comparação entre duas formas comumente utilizadas na etapa de extração de atributos: faces neutra e média. Como não existe tal comparação na literatura, os resultados apresentados são valiosos para o desenvolvimento de aplicações envolvendo expressões de emoção em tempo real. O presente trabalho considera seis tipos de emoções: felicidade, tristeza, raiva, medo, surpresa e desgosto. / [en] The facial expressions provide a high amount of information about a person, making the ability to interpret them a high valued task that can be used in several fields of Informatics such as Human Machine Interface, Digital Games, interactive storytelling and digital TV/Cinema. This dissertation discusses the process of recognizing emotions in real time using ASM (Active Shape Model) and SVM (Support Vector Machine) and
presents a comparison between two commonly used ways when extracting the attributes: neutral face and average. As such comparison can not be found in the literature, the results presented are valuable to the development of applications that deal with emotion expression in real time. The current study considers six types of emotions: happiness, sadness, anger, fear, surprise and disgust.
|
40 |
[en] CONSIDERATIONS ABOUT OUTSOURCING IN LOGISTICS AND A METHODOLOGY TO CLASSIFY PARTY LOGISTICS / [pt] CONSIDERAÇÕES SOBRE A TERCEIRIZAÇÃO DA LOGÍSTICA E UMA METODOLOGIA DE CLASSIFICAÇÃO PARA OS PARTY LOGISTICSRAFAEL BRASIL FERRO COSTA 04 June 2007 (has links)
[pt] Dada a importância dos provedores de serviços logísticos e
da existência
de uma carência na definição clara das fronteiras entre os
diversos tipos de Party
Logistics - PLs (1PL, 2 PL, 3PL, 4PL e 5PL), a presente
dissertação apresenta
uma proposta de metodologia para classificá-los baseada em
um estudo
exploratório fundamentado em uma análise da literatura
acadêmica. A
metodologia tem por base os conceitos de complexidade
logística, tipos de
contratos, responsáveis pela execução do serviço,
características do investimento,
formas de governança, tipos de relacionamentos,
capabilidades, vantagem
competitiva e agregação de valor à cadeia. A teoria do
custo de transação e a visão
baseada em recursos, auxiliam na elaboração da
metodologia. As características
são associadas aos PLs com o intuito de defini-los e de
indicar uma fronteira clara
entre cada um deles. / [en] Given the importance of logistic service providers and the
existence of a
lack in the definition frontiers among the different Party
Logistics - PLs (1PL,
2PL, 3PL, 4PL and 5PL), the present dissertation presents
a methodology
proposal to classify these Party Logistics based on an
exploratory study supported
by an analysis in the academic literature. The methodology
uses the following
concepts: logistic complexity, contract types, investment
characteristics,
governance forms, relationships types, responsible for the
service execution,
capabilities, competitive advantage, and value
aggregation. The transaction cost
theory and the resource-based view help in the elaboration
of the methodology.
The characteristics are associated to the PLs towards
defining them and indicating
a clear frontier among each of them.
|
Page generated in 0.0325 seconds