• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 262
  • 17
  • 4
  • 1
  • Tagged with
  • 285
  • 285
  • 229
  • 212
  • 67
  • 63
  • 61
  • 47
  • 47
  • 41
  • 39
  • 35
  • 35
  • 34
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Desenvolvimento de um sistema de aquisição de informações volumétricas usando métodos de triangulação a laser e campo de visão variável.

França, João Guilherme Darezzo Martins de 31 August 2004 (has links)
Made available in DSpace on 2016-06-02T19:05:16Z (GMT). No. of bitstreams: 1 DissJGDMF.pdf: 5555828 bytes, checksum: edc9d67a964fb160866aeceda53b71cb (MD5) Previous issue date: 2004-08-31 / The most efficient 3D acquisition systems use the principle of laser triangulation or the principle of time of flight TOF. In the systems based on triangulation, the range and the depth variation are very limited, but it has a great precision. On the other hand the opposite occurs to the TOF systems where it has a low precision, and a great range and depth variation. This work describes a project of a 3D acquisition system, with greater precision and range than traditional laser triangulation 3D scanners, and it s as versatile as TOF systems. An initial prototype of this system had been implemented. / Os sistemas de aquisição 3D mais eficientes utilizam o princípio da triangulação laser ou o princípio do tempo de vôo (TOF - time of flight). Nos sistemas baseados em triangulação, o alcance e a variação de profundidade são muito limitados, mas possuem grande precisão. Por outro lado, o oposto ocorre nos sistemas TOF, onde a precisão é baixa, e a variação de profundidade e o alcance são altos. Esse trabalho descreve o projeto de um sistema de aquisição 3D, com precisão e alcance superiores aos sistemas 3D tradicionais, baseados em triangulação laser e versatilidade similar aos sistemas TOF. Um protótipo simplificado desse sistema foi implementado.
82

Sumarização Automática de Cenas Forenses

Borges, Erick Vagner Cabral de Lima 26 February 2015 (has links)
Submitted by Clebson Anjos (clebson.leandro54@gmail.com) on 2016-02-15T18:11:38Z No. of bitstreams: 1 arquivototal.pdf: 2556099 bytes, checksum: 0e449542d04801fd627fb09b7061bdcc (MD5) / Made available in DSpace on 2016-02-15T18:11:38Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2556099 bytes, checksum: 0e449542d04801fd627fb09b7061bdcc (MD5) Previous issue date: 2015-02-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The growing presence of video recording devices in several areas are providing an increase in use these images mainly to investigative purposes. This makes the use of methods and tools that perform the analysis and the automatic monitoring of environments are increasingly needed to provide technical support and knowledge to investigators, enabling obtain efficient and effective results. This work describe the development of computational vision methods that aim extract some features of scenes. At the end of this extraction, a summarization tool of forensic scenes through the developed methods is proposed. The methods proposed aim to detect and analyze motion in scenes, detect faces classifying them through the gender recognition, recognize people through facial recognition, perform the tracking of human faces and pattern recognition of predominant color in the clothing of individuals. At the end of this work, developed methods presented results comparable to the ones found in the literature and may contribute to the fast extraction of information needed for human analysis, to assist in the interpretation and argumentation of cases and documenting the results. / A presença crescente de dispositivos de gravação de vídeo nas mais diversas áreas vêm proporcionando um aumento no uso destas imagens principalmente para fins investigativos. Isto faz com que a utilização de métodos e ferramentas que realizem a análise e o monitoramento automático de ambientes seja cada vez mais necessária para dar suporte técnico e de conhecimento aos investigadores, possibilitando que os resultados alcançados sejam os mais eficientes e eficazes possíveis. Este trabalho descreve o desenvolvimento de métodos de visão computacional que têm como objetivo extrair aspectos relevantes de cenas – imagens individuais, ou quadros ou sequências de quadros de vídeo - e utilizar a informação obtida com o propósito de sumarização. Os métodos propostos visam a detectar e analisar movimentação, detectar faces classificando-as por gênero, efetuar reconhecimento de faces, realizar o rastreamento de faces humanas e reconhecer a cor predominante no vestuário de indivíduos. O sistema desenvolvido efetua a extração de informações relevantes, o que auxilia na redução do tempo necessário à inspeção por seres humanos, na interpretação e argumentação de casos e na documentação dos casos. Ao fim do trabalho, os métodos desenvolvidos apresentaram resultados compatíveis com os da literatura.
83

Localização e mapeamento simultâneos (SLAM) visual usando sensor RGB-D para ambientes internos e representação de características / Simultaneous location and mapping (SLAM) visual using RGB-D sensor for indoor environments and characteristics representation

Guapacha, Jovanny Bedoya [UNESP] 04 September 2017 (has links)
Submitted by JOVANNY BEDOYA GUAPACHA null (jovan@utp.edu.co) on 2017-11-02T14:40:57Z No. of bitstreams: 1 TESE _JBG_verf__02_11_2017_repositorio.pdf: 4463035 bytes, checksum: a4e99464884d8580fc971b9f062337d4 (MD5) / Approved for entry into archive by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-11-13T16:46:44Z (GMT) No. of bitstreams: 1 guapacha_jb_dr_ilha.pdf: 4463035 bytes, checksum: a4e99464884d8580fc971b9f062337d4 (MD5) / Made available in DSpace on 2017-11-13T16:46:44Z (GMT). No. of bitstreams: 1 guapacha_jb_dr_ilha.pdf: 4463035 bytes, checksum: a4e99464884d8580fc971b9f062337d4 (MD5) Previous issue date: 2017-09-04 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A criação de robôs que podem operar autonomamente em ambientes controlados e não controlados tem sido, um dos principais objetivos da robótica móvel. Para que um robô possa navegar em um ambiente interno desconhecido, ele deve se localizar e ao mesmo tempo construir um mapa do ambiente que o rodeia, a este problema dá-se o nome de Localização e Mapeamento Simultâneos- SLAM. Tem-se como proposta neste trabalho para solucionar o problema do SLAM, o uso de um sensor RGB-D, com 6 graus de liberdade para perceber o ambiente, o qual é embarcado em um robô. O problema do SLAM pode ser solucionado estimando a pose - posição e orientação, e a trajetória do sensor no ambiente, de forma precisa, justificando a construção de um mapa em três dimensões (3D). Esta estimação envolve a captura consecutiva de frames do ambiente fornecidos pelo sensor RGB-D, onde são determinados os pontos mais acentuados das imagens através do uso de características visuais dadas pelo algoritmo ORB. Em seguida, a comparação entre frames consecutivos e o cálculo das transformações geométricas são realizadas, mediante o algoritmo de eliminação de correspondências atípicas, bPROSAC. Por fim, uma correção de inconsistências é efetuada para a reconstrução do mapa 3D e a estimação mais precisa da trajetória do robô, utilizando técnicas de otimização não lineares. Experimentos são realizados para mostrar a construção do mapa e o desempenho da proposta. / The robots creation that can operate autonomously in controlled and uncontrolled environments has been, one of the main objectives of mobile robotics. In order for a robot to navigate in an unknown internal environment, it must locate yourself and at the same time construct a map of the surrounding environment this problem is called Simultaneous Location and Mapping - SLAM. The purpose of this work for solution to SLAM’s problem is to use an RGB-D sensor with 6 degrees of freedom to perceive the environment, which is embedded onto a robot.The SLAM's problem can be solved by estimating the position and orientation, and the path of the sensor/robot in the environment, in precise form, justifying the construction of a 3D map. This estimation involves the consecutive capture of the environment's frames provided by the RGB-D sensor, where the pronounced points of the images are determined through the use of visual characteristics given by the ORB algorithm. Then, the comparison between consecutive frames and the calculation of the geometric transformations are performed using the algorithm of elimination of atypical correspondences, bPROSAC. Finally, a correction of inconsistencies is made for the reconstruction of the 3D map and the more accurate estimation of the robot trajectory, using non-linear optimization techniques. Experiments are carried out to show the construction of the map and the performance of the proposal.
84

Metodologia de inspeção visual utilizando limiar(\"Threshold\") entrópico com aplicações na classificação de placas de madeira / Methodology for visual inspection using entropic threshold with aplications in wooden board classification

Evandro Luis Linhari Rodrigues 11 May 1998 (has links)
O objetivo deste trabalho é o desenvolvimento de um método dedicado de classificação para placas de madeira utilizadas na fabricação de lápis, utilizando procedimentos de visão computacional. O processo aqui proposto, foi idealizado buscando uma metodologia que pudesse ser realizada com baixa complexidade computacional, ou seja, os cálculos dos algoritmos utilizando apenas operações simples - do tipo soma, subtração, multiplicação e divisão - em imagens em níveis de cinza. A intenção em utilizar apenas as operações básicas citadas, tem o objetivo de tornar o método implementável em arquiteturas com tecnologia VLSI, notadamente em Arquiteturas Sistólicas. O trabalho descreve o ciclo de produção do lápis localizando a etapa onde é proposta a metodologia de classificação das placas de madeira. Nesta etapa, há uma seqüência de procedimentos, descritos ao longo do trabalho, que compreendem a aquisição da imagem das placas, a extração de características das imagens, o processamento dessas características e por fim os algoritmos de classificação. Na etapa de extração de características, buscou-se com a aplicação de um método de Limiar automático que utiliza a entropia de Shannon, extrair informações suficientes para classificar adequadamente as placas de madeiras em diferentes classes, fornecendo dessa forma, um sistema ágil, repetitivo e de baixo custo para aproveitamento da madeira em diferentes produtos finais. / The objective of this work was to develop a dedicated computer vision method for the classification of wooden plates used in pencil manufacturing. The process here proposed was idealized looking for a low computational complexity methodology that could be accomplished in VLSI, as for instance using Systolic Computer Architectures made of logic arrays. The pencil cycle of production is described, locating the stage where the proposed classification methodology should be used. There is a sequence of procedures, along the work, that describe the acquisition, extraction of the characteristics and the processing of the images, and finally the classification algorithms. For the extraction of characteristics of the images, it was used an automatic method for the threshold determination, based on Shannon\'s entropy. The information supplied by the threshold determination method allows classifying the plates in different classes. The analysis of the results showed that the method performs well is repetitive and efficient on the classification and its use can be extended to classifying other final products.
85

Desenvolvimento de ferramenta computacional para obtenção automática de deslocamento e anotação de outros parâmetros em testes comportamentais do tipo campo aberto / Development of software to automatically obtain displacement and annotation of other parameters in open field behavioral tests

Isabela Maria de Oliveira 10 August 2018 (has links)
Testes comportamentais do tipo Campo Aberto figuram dentre os mais básicos e consolidados para estudos de comportamento animal, sendo, portanto, amplamente utilizados em pesquisas de Neurociência e Farmacologia. Através dele se pode avaliar os efeitos da imposição de diferentes condições no comportamento de animais, bem como comparar ou caracterizar perfis típicos de comportamento entre linhagens de uma mesma espécie. Consistindo de soltar animal em uma caixa e observar, dentre outros parâmetros, seu deslocamento e preferência em permanecer nas áreas próximas às paredes ou nas centrais, a extração desses dados pela forma tradicional acabar por ser limitante à obtenção plena de resultados. Isso posto, este trabalho visa oferecer aos pesquisadores um meio para obter os dados de maneira automatizada, sem o desgaste de ficar assistindo o vídeo do teste para anotar o deslocamento. Escrita em Python, utilizando técnicas consolidadas de Visão Computacional e operações de compreensão acessível, esta ferramenta além de ser Open Source pode ser ajustada à extração de outros parâmetros e à aplicação em outras modalidades do teste, além de oferecer a medida do deslocamento de forma mais precisa. / Open Field Test is a basic and consolidated test used in Animal Behavior studies, especially Neuroscience and Pharmacology. Through it, its possible to evaluate the effects in behavior of imposing different conditions, as well to compare or characterize typical behavior profiles between lineages of the same species. Consisting of releasing an animal in a box and observing, among other parameters, its displacement and preference in remaining in the areas near the walls or in the central ones, the extraction of these data in the traditional way ends up being limiting to obtaining full results. That said, this essay aims to offer researchers a way to get the data in an automated way, without need watching the video of the test to note the displacement. Written in Python, using consolidated techniques of Computational Vision and operations of accessible comprehension, this tool besides being Open Source can be adjusted to the extraction of other parameters and application in other modalities of the test, besides offer a more accurate measure of displacement.
86

Abordagem estocástica com fusão sensorial para mapeamento geográfico utilizando VANTs. / Stochastic sensor fusion approach for geographic mapping using UAVs.

Roberto Ferraz de Campos Filho 03 September 2012 (has links)
Mapas fotogramétricos são de extrema importância para monitorar grandes áreas periodicamente. Alguns exemplos são: monitoramento de florestas, plantas invasivas, crescimento urbano, etc. Estes mapas são comumente construídos utilizando imagens de satélites ou aviões. Para se obter um mapa com proporções reais, uma operação de distorção destas imagens é realizada utilizando informações fornecidas por Pontos de Controle em Solo e triangulando features naturais das imagens ou utilizando um outro mapa conhecido a priori. A utilização de VANTs (Veículos Aéreos Não Tripulados) mostra-se uma solução mais segura quando comparada a um avião devido a não existência de tripulação. É uma solução mais flexível quando comparada a satélites, pois um VANT pode voar algumas horas ou mesmo minutos após um vôo anterior, enquanto um satélite estará disponível novamente após alguns dias na mesma área. Algumas partes do mapa podem não ser visíveis devido a nuvens e o VANT pode sobrevoar a área novamente para recuperar estas partes (sobrevoaria abaixo das nuvens caso necessário). Um método de fusão sensorial estocástico é proposto e combina técnicas de Visão Computacional, sensores inerciais e GPS a fim de estimar um mapa esparso tridimensional e a posição do VANT simultaneamente utilizando a técnica conhecida como SLAM (Simultaneous Localization and Mapping). O mapa completo é gerado projetando as imagens no mapa esparso. A principal vantagem deste método é que o mapa é construído sem conhecimento a priori do terreno. As principais contribuições deste trabalho são: a integração de técnicas de SLAM na área de Aerofotogrametria e o desenvolvimento de um método que realiza o mapeamento 3D sem o uso de conhecimento a priori do terreno. / Photogrammetric maps are of extreme importance in order to monitor large areas periodically. Some examples are: monitoring of forests, invasive plants, urban growth, etc. These maps are commonly built using images from satellites or planes. In order to obtain a map with real proportions, an operation of distortion of these images is realized using information provided by Ground Control Points and triangulating natural features in the scene or using another a priori known map. The utilization of an Unmanned Aerial Vehicle (UAV) provides a safer solution when compared to a plane mainly due to the non existence of a crew. It is also a more flexible solution when compared to satellites because an UAV can fly again some hours or even minutes after a previous flight, while a satellite will be available in some days for the same area. Some parts of the map might not be visible because of clouds and the UAV needs to fly again to recover these parts (flying below the clouds if necessary). A stochastic sensor fusion method is proposed that combines computational vision techniques, inertial sensors and GPS in order to estimate both the three dimensional sparse map and the UAV position using the technique known as SLAM (Simultaneous Localization and Mapping). The complete map is generated projecting the images into the sparse map. The main advantage of this method is that the map is constructed without the use of a priori knowledge of the terrain. The main contributions of this work are: the integration of SLAM techniques into the Aerophotogrammetry field and the development of a method that can realize a 3D mapping without the use of a priori knowledge of the terrain.
87

Estimação de posição e quantificação de erro utilizando geometria epipolar entre imagens. / Position estimation and error quantification using epipolar geometry between images.

Adriana Karlstroem 23 May 2007 (has links)
A estimação de posição é o resultado direto da reconstrução de cenas, um dos ramos da visão computacional. É também uma informação importante para o controle de sistemas mecatrônicos, e em especial para os sistemas robóticos autônomos. Como uma aplicação de engenharia, o desempenho de tal sistema deve ser avaliado em termos de eficiência e eficácia, medidas traduzidas respectivamente pelo custo de processamento e pela quantificação do erro. A geometria epipolar é um campo da visão computacional que fornece formalismo matemático e técnicas de reconstrução de cenas a partir de uma par de imagens, através de pontos correspondentes entre elas. Através deste formalismo é possível determinar a incerteza dos métodos de estimação de posição, que são relativamente simples e podem atingir boa precisão. Dentre os sistemas robóticos autônomos destacam-se os ROVs - do inglês \"Remotely Operated Vehicles\" - ou veículos operados remotamente, muito utilizados em tarefas submarinas, e cuja necessidade crescente de autonomia motiva o desenvolvimento de um sensor de visão com características de baixo consumo de energia, flexibilidade e inteligência. Este sensor pode consistir de uma câmera CCD e algoritmos de reconstrução de cena baseados em geometria epipolar entre imagens. Este estudo visa fornecer um comparativo de resultados práticos da estimação de posição através da geometria epipolar entre imagens, como parte da implementação de um sensor de visão para robôs autônomos. Os conceitos teóricos abordados são: geometria projetiva, modelo de câmera, geometria epipolar, matriz fundamental, reconstrução projetiva, re-construção métrica, algoritmos de determinação da matriz fundamental, algoritmos de reconstrução métrica, incerteza da matriz fundamental e complexidade computacional. Os resultados práticos baseiam-se em simulações através de imagens geradas por computador e em montagens experimentais feitas em laboratório que simulam situações práticas. O processo de estimação de posição foi realizado através da implementação em MATLAB® 6.5 dos algoritmos apresentados na parte teórica, e os resultados comparados e analisados quanto ao erro e complexidade de execução. Dentre as principais conclusões é apresentado a melhor escolha para a implementação de sensor de visão de propósito geral - o Algoritmo de 8 Pontos Correspondentes Normalizado. São apresentadas também as condições de utilização de cada método e os cuidados necessários na interpretação dos resultados. / Position estimation is the direct result of scene reconstruction, one of computer vision\'s fields. It is also an important information for the control of mechanical systems - specially the autonomous robotic systems. As an engineering application, those systems\' performance must be evaluated in terms of efficiency and effectiveness, measured by processing costs and error quantification. The epipolar geometry is a field of computer vision that supply mathematical formalism and scene reconstruction techniques that are based on the correspondences between two images. Through this formalism it is possible to stipulate the uncertainty of the position estimation methods that are relatively simple and can give good accuracy. Among the autonomous robotic systems, the ROVs - Remotely Operated Vehicles - are of special interest, mostly employed in submarine activities, and whose crescent autonomy demand motivates the development of a vision sensor of low power consumption, flexibility and intelligence. This sensor may be constructed with a CCD camera and the scene reconstruction algorithms based on epipolar geometry. This work aims to build a comparison of practical results of position estimation through epipolar geometry, as part of a vision sensor implementation for autonomous robots. The theory presented in this work comprises of: projective geometry, camera model, epipolar geometry, fundamental matrix, projective reconstruction, metric reconstruction, fundamental matrix algorithms, metric reconstruction algorithms, fundamental matrix uncertainty, and computational complexity. The practical results are based on computer generated simulations and experimental assemblies that emulate practical issues. The position estimation was carried out by MATLAB® 6.5 implementations of the algorithms analyzed in the theoretical part, and the results are compared and analyzed in respect of the error and the execution complexity. The main conclusions are that the best algorithm choice for the implementation of a general purpose vision sensor is the Normalized 8 Point Algorithm, and the usage conditions of each method, besides the special considerations that must be observed at the interpretation of the results.
88

Localização e mapeamento simultâneos com auxílio visual omnidirecional. / Simultaneous localization and mapping with omnidirectional vision.

Vitor Campanholo Guizilini 12 August 2008 (has links)
O problema da localização e mapeamento simultâneos, conhecido como problema do SLAM, é um dos maiores desafios que a robótica móvel autônoma enfrenta atualmente. Esse problema surge devido à dificuldade que um robô apresenta ao navegar por um ambiente desconhecido, construindo um mapa das regiões por onde já passou ao mesmo tempo em que se localiza dentro dele. O acúmulo de erros gerados pela imprecisão dos sensores utilizados para estimar os estados de localização e mapeamento impede que sejam obtidos resultados confiáveis após períodos de navegação suficientemente longos. Algoritmos de SLAM procuram eliminar esses erros resolvendo ambos os problemas simultaneamente, utilizando as informações de uma etapa para aumentar a precisão dos resultados alcançados na outra e viceversa. Uma das maneiras de se alcançar isso se baseia no estabelecimento de marcos no ambiente que o robô pode utilizar como pontos de referência para se localizar conforme navega. Esse trabalho apresenta uma solução para o problema do SLAM que faz uso de um sensor de visão omnidirecional para estabelecer esses marcos. O uso de sistemas de visão permite a extração de marcos naturais ao ambiente que podem ser correspondidos de maneira robusta sob diferentes pontos de vista. A visão omnidirecional amplia o campo de visão do robô e com isso aumenta a quantidade de marcos observados a cada instante. Ao ser detectado o marco é adicionado ao mapa que robô possui do ambiente e, ao ser reconhecido, o robô pode utilizar essa informação para refinar suas estimativas de localização e mapeamento, eliminando os erros acumulados e conseguindo mantê-las precisas mesmo após longos períodos de navegação. Essa solução foi testada em situações reais de navegação, e os resultados mostram uma melhora significativa nos resultados alcançados em relação àqueles obtidos com a utilização direta das informações coletadas. / The problem of simultaneous localization and mapping, known as the problem of SLAM, is one of the greatest obstacles that the field of autonomous robotics faces nowadays. This problem is related to a robots ability to navigate through an unknown environment, constructing a map of the regions it has already visited at the same time as localizing itself on this map. The imprecision inherent to the sensors used to collect information generates errors that accumulate over time, not allowing for a precise estimation of localization and mapping when used directly. SLAM algorithms try to eliminate these errors by taking advantage of their mutual dependence and solving both problems simultaneously, using the results of one step to refine the estimatives of the other. One possible way to achieve this is the establishment of landmarks in the environment that the robot can use as points of reference to localize itself while it navigates. This work presents a solution to the problem of SLAM using an omnidirectional vision system to detect these landmarks. The choice of visual sensors allows for the extraction of natural landmarks and robust matching under different points of view, as the robot moves through the environment. The omnidirectional vision amplifies the field of vision of the robot, increasing the number of landmarks observed at each instant. The detected landmarks are added to the map, and when they are later recognized they generate information that the robot can use to refine its estimatives of localization and mapping, eliminating accumulated errors and keeping them precise even after long periods of navigation. This solution has been tested in real navigational situations and the results show a substantial improvement in the results compared to those obtained through the direct use of the information collected.
89

Leitura automática de dispositivos mostradores analógicos de instrumentos de medição utilizando visão computacional. / Automatic reading of measurement devices analogical displays using computer vision.

Rynaldo Zanotele Hemerly de Almeida 22 May 2006 (has links)
Propõe-se um sistema de visão computacional para leitura automática de dispositivos mostradores analógicos de instrumentos de medição que não possuem interface de comunicação digital. Esse sistema pode ser aplicado na automação de processos de calibração desses instrumentos ou em outros ensaios em que sejam feitas leituras repetitivas por um operador humano. Espera-se reduzir o tempo de leitura e os custos envolvidos nos processos e alcançar exatidão e incerteza ao menos equivalentes aos da leitura humana. A abordagem proposta se baseia na comparação da inclinação do ponteiro com as inclinações das marcas de escala do dispositivo mostrador. Em uma primeira etapa realiza-se o reconhecimento das marcas de escala e a correspondência de cada marca a um valor de leitura a partir de três imagens capturadas e algumas informações consideradas conhecidas como o número de escalas, o número de marcas principais por escala e os valores associados a essas marcas principais. Em seguida parte-se para uma segunda etapa em que para cada nova imagem capturada é obtido um valor de leitura por meio da interpolação entre valores de inclinações calculados e os valores de leitura associados às marcas de escala. Uma análise de incerteza de leitura mostra que para os instrumentos estudados e equipamentos empregados (câmera e lentes) a leitura automática é compatível com a leitura humana e que a incerteza poderia ser eventualmente melhorada. Foram realizados diversos testes de leitura automática. Os resultados obtidos confirmaram as expectativas de incertezas e a ocorrência de erros mais significativos foi da ordem de apenas um por cento o que revela a robustez do método para utilização real. / A computer vision system for automatic reading of measurement devices analogical displays which do not have a digital communication interface is proposed. This system could be applied for the automation of these devices calibration processes or in other assays in which repetitive readings are done by man. It is expected a reduction in time spent and costs involved and an achievement of accuracy and uncertainty at least equivalent to those attained in human readings. The approach is based on the comparison between the pointer slope and the display device scale marks slope. In a first step the scale marks are identified and a reading value is attributed to each mark from three captured images and some assumed known data as the number of scales, the number of the main marks per scale and the corresponding values associated with these main marks. Then, in a second step, an reading value is attained to each new captured image through the interpolation between the calculated slopes figures and the associated marks reading values. An reading uncertainty analysis shows that considering the studied instruments and the employed devices (camera and lens) the automatic reading is consistent with the human reading and the uncertainty could be eventually improved. Several automatic reading tests were carried out. The results confirmed the expectations of uncertainties and the meaningful error rate was about only one per cent revealing the methods robustness to real application.
90

Estudo de parâmetros para caracterização de fraturas ósseas experimentais utilizando visão computacional / Study of parameters for the characterization of experimental bone fractures by computational vision

Ricardo Soares Rubin 18 June 2004 (has links)
O objetivo deste trabalho é a investigação da evolução da regeneração óssea de osteotomias em tíbias de carneiro utilizando processamento de imagens. Para isso, foram utilizadas radiografias digitalizadas de 15 animais divididos em 3 grupos, animais sacrificados com 30, 45 e 60 dias. O processo de regeneração da fratura foi feito com o auxílio de fixador flexível, pois este apresenta, tipicamente, uma consolidação indireta com formação de calo ósseo. A avaliação clínica baseia-se na dimensão e na densidade mineral do calo, obtidas por diferentes métodos. Neste trabalho são apresentadas a evolução do tamanho do calo ósseo em relação à largura média do osso na região da fratura e a avaliação de 14 parâmetros de textura, sendo 5 parâmetros de primeira ordem (MEAN, STDEV, KURT, SKEW e ENER) e 9 características de Haralick (ASM, CONT, CORR, IDM, ENT, VAR, DIAGM, SHADE e PROM). O acompanhamento do crescimento do calo seguiu o comportamento descrito na literatura. Os parâmetros de textura cuja performance foi insatisfatória são 6, a saber, ENER, ASM, CONT, IDM, ENT e DIAGM. Outros 6 possuem comportamento distintos. O parâmetro CORR mostra-se útil para separar imagens com definição de imagens ruidosas. Os parâmetros SHADE e PROM demarcam regiões de contorno. Os parâmetros STDEV, KURT e SKEW têm uma similaridade ao longo do tempo e separam a osteotomia da medular nas imagens iniciais. Os valores dos parâmetros MEAN e VAR refletem a calcificação do tecido na região do calo e conseqüentemente, a rigidez do mesmo durante o processo de regeneração. Estes dois parâmetros discretizam a regeneração ao longo do tempo. Os parâmetros de textura podem ser usados como classificadores da regeneração óssea de forma não-invasiva em um sistema automático de classificação. / The present dissertation investigates the evolution characteristics of bone regeneration in goat\'s tibia osteotomies by image processing. Digitized radio-graphs of 13 animals were used. They were divided into three groups sacrificed at 30, 45 and 60 days respectively. The fracture healing was performed with the aid of flexible fixation, which often develops indirect regeneration with bone callus. The clinical evaluation is based on the dimensional and mineral density of bone callus measured by one of the existent methods. The evolution of the bone callus relative to the bone thickness and 14 texture parameters evaluated at the fractured site are presented here. Nine of the parameters are characteristics of Haralick (ASM, CONT, CORR, IDM, ENT, VAR, DIAGM, SHADE and PROM) and the others are first order parameters (MEAN, STDEV, KURT, SKEW and ENER). The bone callus behaves as described in literature. Six texture parameters, ENER, ASM, CONT, IDM, ENT and DIAGM had no relation with regeneration. The CORR parameter experesses the quality of the image. SHADE and PROM parameters mark the ontour of the images. SKEW, KURT and STDEV have a similar behavior once they separete osteotomy from medular in the initial images. The VAR and MEAN parameters show a commom variation among images along the time. This pattern represents the evolution of regeneration and distinguishes bone concentration at osteomotmy site and therefore its rigidity. Texture parameters are capable ofcharacterizing bone regeneration in a noninvasive way for an automatic classification system.

Page generated in 0.101 seconds