• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 1
  • Tagged with
  • 19
  • 19
  • 19
  • 16
  • 15
  • 15
  • 9
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Classificação de sinais de eletroencefalograma usando máquinas de vetores suporte

Chagas, Sandro Luiz das 27 August 2009 (has links)
Made available in DSpace on 2016-03-15T19:38:14Z (GMT). No. of bitstreams: 1 Sandro Luiz das Chagas.pdf: 1694587 bytes, checksum: d10c7a5a95b65289731cab95f9b3478a (MD5) Previous issue date: 2009-08-27 / Electroencephalogram (EEG) is a clinical method widely used to study brain function and neurological disorders. The EEG is a temporal data series which records the electrical activity of the brain. The EEG monitoring systems create a huge amount of data; with this fact a visual analysis of the EEG is not feasible. Because of this, there is a strong demand for computational methods able to analyze automatically the EEG records and extract useful information to support the diagnostics. Herewith, it is necessary to design a tool to extract the relevant features within the EEG record and to classify the EEG based on these features. Calculation of statistics over wavelet coefficients are being used successfully to extract features from many kinds of temporal data series, including EEG signals. Support Vector Machines (SVM) are machine learning techniques with high generalization ability, and they have been successfully used in classification problems by several researches. This dissertation makes an analysis of the influence of feature vectors based on wavelet coefficients in the classification of EEG signal using different implementations of SVMs. / O eletroencefalograma (EEG) é um exame médico largamente utilizado no estudo da função cerebral e de distúrbios neurológicos. O EEG é uma série temporal que contém os registros de atividade elétrica do cérebro. Um grande volume de dados é gerado pelos sistemas de monitoração de EEG, o que faz com que a análise visual completa destes dados se torne inviável na prática. Com isso, surge uma grande demanda por métodos computacionais capazes de extrair, de forma automática, informação útil para a realização de diagnósticos. Para atender essa demanda, é necessária uma forma de extrair de um sinal de EEG as características relevantes para um diagnóstico e também uma forma de classificar o EEG em função destas características. O cálculo de estatísticas sobre coeficientes wavelet vem sendo empregado com sucesso na extração de características de diversos tipos de séries temporais, inclusive EEG. As máquinas de vetores de suporte (SVM do inglês Support Vector Machines) constituem uma técnica de aprendizado de máquina que possui alta capacidade de generalização e têm sido empregadas com sucesso em problemas de classificação por diversos pesquisadores. Nessa dissertação é feita uma análise do impacto da utilização de vetores de características baseados em coeficientes wavelet na classificação de EEG utilizando diferentes implementações de SVM.
12

IMPLEMENTAÇÃO DE UM SISTEMA DE TELEDIAGNÓSTICO PARA CLASSIFICAÇÃO DE MASSAS EM IMAGENS MAMOGRÁFICAS USANDO ANÁLISE DE COMPONENTES INDEPENDENTES / IMPLEMENTATION OF A SYSTEM OF TELEDIAGNOSIS FOR CLASSIFICATION OF MASSES IN MAMMOGRAPHIC IMAGES USING INDEPENDENT COMPONENT ANALYSIS

Silva, Luis Claudio de Oliveira 24 July 2012 (has links)
Made available in DSpace on 2016-08-17T14:53:22Z (GMT). No. of bitstreams: 1 dissertacao Luis Claudio.pdf: 2055680 bytes, checksum: 4e51c93fd4aa6edfad51ab54ad4044f6 (MD5) Previous issue date: 2012-07-24 / This thesis proposes the modeling and implementation of a telediagnostic system for analysis and detection of lesions in mammographic images based on independent component analysis and support vector machine. The system analyzes images from digital mammography sent over the Internet and provides a diagnostic, indicating the presence of suspicious regions, which can be confirmed by a specialist in mammographic images. Besides presenting the methodology for the development of the proposed system, a prototype was developed for testing and to measure its efficiency. The database used for training and testing of the algorithms is the mini-MIAS, and was employed independent component analysis to extract the filters used in segmenting the regions of interest, as well support vector machine to classify regions of interest in normal or suspicious. From tests with the database used, we obtained an average accuracy of 87.8% for images containing lesions. / Este trabalho propõe a modelagem e implementação de um sistema de telediagnóstico para análise e detecção automática de lesões em imagens mamográficas, baseado em análise de componentes independentes e máquina de vetor de suporte. O sistema analisa imagens de mamografia digital enviadas pela Internet e fornece um diagnóstico da imagem, indicando a presença de regiões suspeitas, que podem ser confirmadas por um especialista em imagens mamográficas. Além de apresentar a metodologia para o desenvolvimento do sistema proposto, foi desenvolvido um protótipo para a realização de testes objetivando medir sua eficiência. A base de dados usada para treinamento e teste dos algoritmos foi a mini-MIAS, e foi empregada análise de componentes independentes para extrair os filtros usados na segmentação das regiões de interesse, bem como máquina de vetor de suporte para classificar as regiões de interesse em normais ou suspeitas. A partir de testes realizados com a base de dados utilizada, obteve-se média de acerto de 87,8% para imagens que contém lesões.
13

Modelos de aprendizado supervisionado usando métodos kernel, conjuntos fuzzy e medidas de probabilidade / Supervised machine learning models using kernel methods, probability measures and fuzzy sets

Guevara Díaz, Jorge Luis 04 May 2015 (has links)
Esta tese propõe uma metodologia baseada em métodos de kernel, teoria fuzzy e probabilidade para tratar conjuntos de dados cujas observações são conjuntos de pontos. As medidas de probabilidade e os conjuntos fuzzy são usados para modelar essas observações. Posteriormente, graças a kernels definidos sobre medidas de probabilidade, ou em conjuntos fuzzy, é feito o mapeamento implícito dessas medidas de probabilidade, ou desses conjuntos fuzzy, para espaços de Hilbert com kernel reproduzível, onde a análise pode ser feita com algum método kernel. Usando essa metodologia, é possível fazer frente a uma ampla gamma de problemas de aprendizado para esses conjuntos de dados. Em particular, a tese apresenta o projeto de modelos de descrição de dados para observações modeladas com medidas de probabilidade. Isso é conseguido graças ao mergulho das medidas de probabilidade nos espaços de Hilbert, e a construção de esferas envolventes mínimas nesses espaços de Hilbert. A tese apresenta como esses modelos podem ser usados como classificadores de uma classe, aplicados na tarefa de detecção de anomalias grupais. No caso que as observações sejam modeladas por conjuntos fuzzy, a tese propõe mapear esses conjuntos fuzzy para os espaços de Hilbert com kernel reproduzível. Isso pode ser feito graças à projeção de novos kernels definidos sobre conjuntos fuzzy. A tese apresenta como esses novos kernels podem ser usados em diversos problemas como classificação, regressão e na definição de distâncias entre conjuntos fuzzy. Em particular, a tese apresenta a aplicação desses kernels em problemas de classificação supervisionada em dados intervalares e teste kernel de duas amostras para dados contendo atributos imprecisos. / This thesis proposes a methodology based on kernel methods, probability measures and fuzzy sets, to analyze datasets whose individual observations are itself sets of points, instead of individual points. Fuzzy sets and probability measures are used to model observations; and kernel methods to analyze the data. Fuzzy sets are used when the observation contain imprecise, vague or linguistic values. Whereas probability measures are used when the observation is given as a set of multidimensional points in a $D$-dimensional Euclidean space. Using this methodology, it is possible to address a wide range of machine learning problems for such datasets. Particularly, this work presents data description models when observations are modeled by probability measures. Those description models are applied to the group anomaly detection task. This work also proposes a new class of kernels, \\emph{the kernels on fuzzy sets}, that are reproducing kernels able to map fuzzy sets to a geometric feature spaces. Those kernels are similarity measures between fuzzy sets. We give from basic definitions to applications of those kernels in machine learning problems as supervised classification and a kernel two-sample test. Potential applications of those kernels include machine learning and patter recognition tasks over fuzzy data; and computational tasks requiring a similarity measure estimation between fuzzy sets.
14

Detecção de potenciais evocados P300 para ativação de uma interface cérebro-máquina. / Brain-computer interface based on P300 event-related potential detection.

Antônio Carlos Bastos de Godói 20 July 2010 (has links)
Interfaces cérebro-computador ou Interfaces cérebro-máquina (BCIs/BMIs do inglês Brain-computer interface/Brain-machine interface) são dispositivos que permitem ao usuário interagir com o ambiente ao seu redor sem que seja necessário ativar seus músculos esqueléticos. Estes dispositivos são de extrema valia para indivíduos portadores de deficiências motoras. Esta dissertação ambiciona revisar a literatura acerca de BMIs e expor diferentes técnicas de pré-processamento, extração de características e classificação de sinais neurofisiológicos. Em particular, uma maior ênfase será dada à Máquina de vetor de suporte (SVM do inglês Support-Vector machine), método de classificação baseado no princípio da minimização do risco estrutural. Será apresentado um estudo de caso, que ilustra o funcionamento de uma BMI, a qual permite ao usuário escolher um dentre seis objetos mostrados em uma tela de computador. Esta capacidade da BMI é conseqüência da implementação, através da SVM de um sistema capaz de detectar o potencial evocado P300 nos sinais de eletroencefalograma (EEG). A simulação será realizada em Matlab usando, como sinais de entrada, amostras de EEG de quatro indivíduos saudáveis e quatro deficientes. A análise estatística mostrou que o bom desempenho obtido pela BMI (80,73% de acerto em média) foi promovido pela aplicação da média coerente aos sinais, o que melhorou a relação sinal-ruído do EEG. / Brain-computer interfaces (BCIs) or Brain-machine interfaces (BMIs) technology provide users with the ability to communicate and control their environment without employing normal output pathway of peripheral nerves and muscles. This technology can be especially valuable for highly paralyzed patients. This thesis reviews BMI research, techniques for preprocessing, feature extracting and classifying neurophysiological signals. In particular, emphasis will be given to Support-Vector Machine (SVM), a classification technique, which is based on structural risk minimization. Additionally, a case study will illustrate the working principles of a BMI which analyzes electroencephalographic signals in the time domain as means to decide which one of the six images shown on a computer screen the user chose. The images were selected according to a scenario where users can control six electrical appliances via a BMI system. This was done by exploiting the Support-Vector Machine ability to recognize a specific EEG pattern (the so-called P300). The study was conducted offline within the Matlab environment and used EEG datasets recorded from four disabled and four able-bodied subjects. A statistical survey of the results has shown that the good performance attained (80,73%) was due to signal averaging method, which enhanced EEG signal-to-noise ratio.
15

Detecção de potenciais evocados P300 para ativação de uma interface cérebro-máquina. / Brain-computer interface based on P300 event-related potential detection.

Godói, Antônio Carlos Bastos de 20 July 2010 (has links)
Interfaces cérebro-computador ou Interfaces cérebro-máquina (BCIs/BMIs do inglês Brain-computer interface/Brain-machine interface) são dispositivos que permitem ao usuário interagir com o ambiente ao seu redor sem que seja necessário ativar seus músculos esqueléticos. Estes dispositivos são de extrema valia para indivíduos portadores de deficiências motoras. Esta dissertação ambiciona revisar a literatura acerca de BMIs e expor diferentes técnicas de pré-processamento, extração de características e classificação de sinais neurofisiológicos. Em particular, uma maior ênfase será dada à Máquina de vetor de suporte (SVM do inglês Support-Vector machine), método de classificação baseado no princípio da minimização do risco estrutural. Será apresentado um estudo de caso, que ilustra o funcionamento de uma BMI, a qual permite ao usuário escolher um dentre seis objetos mostrados em uma tela de computador. Esta capacidade da BMI é conseqüência da implementação, através da SVM de um sistema capaz de detectar o potencial evocado P300 nos sinais de eletroencefalograma (EEG). A simulação será realizada em Matlab usando, como sinais de entrada, amostras de EEG de quatro indivíduos saudáveis e quatro deficientes. A análise estatística mostrou que o bom desempenho obtido pela BMI (80,73% de acerto em média) foi promovido pela aplicação da média coerente aos sinais, o que melhorou a relação sinal-ruído do EEG. / Brain-computer interfaces (BCIs) or Brain-machine interfaces (BMIs) technology provide users with the ability to communicate and control their environment without employing normal output pathway of peripheral nerves and muscles. This technology can be especially valuable for highly paralyzed patients. This thesis reviews BMI research, techniques for preprocessing, feature extracting and classifying neurophysiological signals. In particular, emphasis will be given to Support-Vector Machine (SVM), a classification technique, which is based on structural risk minimization. Additionally, a case study will illustrate the working principles of a BMI which analyzes electroencephalographic signals in the time domain as means to decide which one of the six images shown on a computer screen the user chose. The images were selected according to a scenario where users can control six electrical appliances via a BMI system. This was done by exploiting the Support-Vector Machine ability to recognize a specific EEG pattern (the so-called P300). The study was conducted offline within the Matlab environment and used EEG datasets recorded from four disabled and four able-bodied subjects. A statistical survey of the results has shown that the good performance attained (80,73%) was due to signal averaging method, which enhanced EEG signal-to-noise ratio.
16

Reconhecimento de produtos por imagem utilizando palavras visuais e redes neurais convolucionais / Image recognition of products using bag of visual words and convolutional neural networks

Juraszek, Guilherme Defreitas 15 December 2014 (has links)
Made available in DSpace on 2016-12-12T20:22:53Z (GMT). No. of bitstreams: 1 Guilherme Defreitas Juraszek.pdf: 7449714 bytes, checksum: 9caf50824709b584d611d1086803286b (MD5) Previous issue date: 2014-12-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The popularization of electronic devices like cameras and smartphones resulted in an increasing volume of images and videos available on the internet. This scenario allowed researchers to explore new search and retrieval techniques to use, not only the wide available text, but also extract information directly from images and videos. In this work three image recognition techniques have been compared, the Bag of Features or Bag of Visual Words (BOVW) using artificial descriptors, Convolutional Neural Networks (CNN) and CNN as a natural descriptor where the descriptors are obtained from a large pre-trained CNN in a different dataset. The techniques are applied in the image recognition problem using image analysis. Those techniques can be applied in products search applications using smartphones, smart glasses, products recognition in videos and others. The BOVW technique is demonstrated using the artificial descriptors SIFT, SURF and MSER, with dense and interest points based extraction. The algorithms KMeans and unsupervised Optimum-Path Forest (OPF-U) are used for clustering and supervised Optimum-Path Forest (OPF-S) and Support Vector Machines (SVM) are used for classification. The second technique uses a convolutional neural network (CNN) with three convolutional layers. The third technique uses the Overfeat, a large pre-trained CNN in the ImageNet dataset, for extraction of a characteristic vector of the new image dataset. This characteristic vector act as a natural descriptor and is then classified using OPF-S and SVM. The accuracy, total time of processing, time for clustering (KMeans and OPF-U), time for classification (OPF-S and SVM) are evaluated in the Caltech 101 dataset and in a dataset created by the author with images of products (Recog- Prod). It is evaluated how image size, category size and overall parameters affect the accuracy of the studied techniques. The results showed that the CNN (Overfeat), pre-trained in a different large dataset, used for extraction of the natural descriptor of the new dataset and trained with SVM achieved the best accuracy with 0.855 in the Caltech 101 dataset and 0.905 in the authors dataset. The CNN created and trained entirely by the author showed the second best result with the accuracy of 0.710, using the RGB color space in the authors dataset and 0.540 using the YUV color space in the Caltech 101 dataset. Both CNN, using RGB and YUV, showed similar accuracies but the CNN using YUV images took significant less time to be trained. The BOVW technique resulted in a accuracy lower than the preview techniques in both tested datasets. In the experiments using the author s dataset with different category sizes (5, 10, 15, 36) the CNN as a natural descriptor resulted in the best accuracy among the other tested techniques. The CNN as a natural descriptor is also the most robust, since as the number of the categories is increased, and resulted in a lower accuracy decay among the others. In the experiments with a dataset with 5 categories the CNN as natural descriptor was able to recognize all the images correctly. / A popularização de equipamentos como câmeras e celulares equipados com câmeras resultou em um grande volume de informações no formato de imagens e vídeos disponibilizadas na internet. O crescimento no volume de informação digital disponível nestes formatos demanda a criação de novas soluções de buscas baseadas não apenas em texto, mas capazes de extraírem informações relevantes diretamente desses formatos de mídia. Neste trabalho são comparadas as técnicas de reconhecimento utilizando palavras visuais por meio de descritores artificiais Bag of Visual Words ou Bag of Features (BOVW), reconhecimento utilizando redes neurais convolucionais (CNN) e reconhecimento usando descritores naturais obtidos através de uma rede neural convolucional previamente treinada em uma base distinta. As técnicas são aplicadas no problema de reconhecimento de produtos a partir da análise de imagens. Tais técnicas podem ser aplicadas em uma ampla gama de sistemas como reconhecimento de produtos utilizando dispositivos móveis, obtenção de informações de produtos visualizados utilizando um óculos de realidade aumentada, reconhecimento de produtos em vídeos, entre outros. A técnica BOVW é demonstrada com base nos descritores artificiais SIFT, SURF e MSER com extração de características densa e por meio de pontos de interesse. São estudados os algoritmos KMeans e Floresta de Caminhos Ótimos não Supervisionada (OPFU) na etapa de agrupamento e Máquinas de Vetor de Suporte (SVM) e Floresta de Caminhos Ótimos Supervisionada (OPF-S) na etapa de classificação. A segunda técnica utiliza uma rede neural convolucional (CNN) de três camadas. Na terceira técnica é utilizada uma CNN, previamente treinada na base de imagens ImageNet, de cinco camadas convolucionais. A CNN previamente treinada é utilizada para a extração de um vetor de características do novo conjunto de imagens a ser analisado. Este vetor atua como um descritor natural e é classificado utilizando SVM e OPF-S. São avaliadas a acurácia, tempo de processamento total, tempo de processamento para agrupamento (KMeans e OPF-U), tempo de processamento para classificação das técnicas nas bases de imagens Caltech 101 e em uma base de imagens de produtos criada pelo autor (RecogProd). São avaliados ainda como o tamanho da imagens, quantidade de categorias e escolha dos parâmetros influenciam na acurácia do resultado. Os resultados mostram que a utilização de uma CNN (Overfeat), previamente treinada em uma grande base de imagens, como um descritor natural para extração de um vetor de características e treinamento de um classificador SVM, apresentou a melhor acurácia com 0,855 na base Caltech101 e 0,905 na base criada, RecogProd, em uma escala de 0 a 1. A CNN criada e treinada pelo autor apresentou o segundo melhor resultado com 0,710 utilizando o espaço de cores RGB na RecogProd e 0,540 utilizando o espaço de cores YUV na base Caltech101. A CNN treinada com imagens utilizando os espaço de cores RGB e YUV apresentaram acurácias muito próximas em ambas as bases de treinamento porém, o treinamento utilizando YUV foi muito mais rápido. A técnica BOVW apresentou uma acurácia inferior à CNN como descritor natural e a CNN em ambas as bases testadas. Nos experimentos, com diversos tamanhos de categorias (5, 10, 15 e 36) da RecogProd, a CNN como descritor natural apresentou novamente a melhor acurácia. Os resultados mostram ainda que, conforme o número de categorias é aumentado, a CNN como descritor natural apresentou uma queda menor na acurácia em relação às demais técnicas avaliadas. Foi observado ainda que em uma base com 5 categorias a CNN como descritor natural alcançou a acurácia de 1,0, sendo capaz de classificar todos os exemplos corretamente.
17

Monitoramento do estado de sonolência de motoristas de automóveis através de análise de imagens de olhos / State of the Monitoring the of drowsiness of drivers of cars through analysis of eyes' image

Silva, Leonardo Dorneles Figueiredo 28 February 2012 (has links)
Made available in DSpace on 2016-08-17T14:53:19Z (GMT). No. of bitstreams: 1 dissertacao Leonardo Dorneles.pdf: 5262998 bytes, checksum: ddf1c0050c4fd4f028d30417f5fb59f8 (MD5) Previous issue date: 2012-02-28 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / The tiredness and fatigue contribute to the involvement of drivers in a large number of accidents. This number could be reduced if it was possible to detect the moment of inattention and warn the driver of their condition. A methodology that is able to detect this automatically should be able to process the information of the current status of the driver and provide an advise in real time according to their behavior. However it must not affect the driver in its natural way to drive. In this work was developed a methodology that uses image processing techniques, computer vision, machine learning and physical characteristics to detect the eye region and analysis of their behavior with the objective of verifying the level of inattention of drivers of cars. / O cansaço e a fadiga contribuem para que o condutor de veículos automotores se envolvam em um grande número de acidentes. Esse número poderia ser reduzido caso fosse possível detectar o momento de desatenção e alertar o motorista. Uma metodologia que seja capaz de fazer essa detecção de forma automática deve ser capaz de processar as informações da situação atual do usuário e fornecer a resposta em tempo real de acordo com o seu comportamento e também não atrapalhe o condutor na sua forma natural de dirigir. Neste trabalho foi desenvolvido uma metodologia que utiliza técnicas de processamento de imagens, visão computacional, aprendizado de máquina e características físicas para a detecção da região dos olhos e a análise de seu comportamento com o objetivo de verificar o nível de desatenção de motoristas de automotores.
18

Modelos de aprendizado supervisionado usando métodos kernel, conjuntos fuzzy e medidas de probabilidade / Supervised machine learning models using kernel methods, probability measures and fuzzy sets

Jorge Luis Guevara Díaz 04 May 2015 (has links)
Esta tese propõe uma metodologia baseada em métodos de kernel, teoria fuzzy e probabilidade para tratar conjuntos de dados cujas observações são conjuntos de pontos. As medidas de probabilidade e os conjuntos fuzzy são usados para modelar essas observações. Posteriormente, graças a kernels definidos sobre medidas de probabilidade, ou em conjuntos fuzzy, é feito o mapeamento implícito dessas medidas de probabilidade, ou desses conjuntos fuzzy, para espaços de Hilbert com kernel reproduzível, onde a análise pode ser feita com algum método kernel. Usando essa metodologia, é possível fazer frente a uma ampla gamma de problemas de aprendizado para esses conjuntos de dados. Em particular, a tese apresenta o projeto de modelos de descrição de dados para observações modeladas com medidas de probabilidade. Isso é conseguido graças ao mergulho das medidas de probabilidade nos espaços de Hilbert, e a construção de esferas envolventes mínimas nesses espaços de Hilbert. A tese apresenta como esses modelos podem ser usados como classificadores de uma classe, aplicados na tarefa de detecção de anomalias grupais. No caso que as observações sejam modeladas por conjuntos fuzzy, a tese propõe mapear esses conjuntos fuzzy para os espaços de Hilbert com kernel reproduzível. Isso pode ser feito graças à projeção de novos kernels definidos sobre conjuntos fuzzy. A tese apresenta como esses novos kernels podem ser usados em diversos problemas como classificação, regressão e na definição de distâncias entre conjuntos fuzzy. Em particular, a tese apresenta a aplicação desses kernels em problemas de classificação supervisionada em dados intervalares e teste kernel de duas amostras para dados contendo atributos imprecisos. / This thesis proposes a methodology based on kernel methods, probability measures and fuzzy sets, to analyze datasets whose individual observations are itself sets of points, instead of individual points. Fuzzy sets and probability measures are used to model observations; and kernel methods to analyze the data. Fuzzy sets are used when the observation contain imprecise, vague or linguistic values. Whereas probability measures are used when the observation is given as a set of multidimensional points in a $D$-dimensional Euclidean space. Using this methodology, it is possible to address a wide range of machine learning problems for such datasets. Particularly, this work presents data description models when observations are modeled by probability measures. Those description models are applied to the group anomaly detection task. This work also proposes a new class of kernels, \\emph{the kernels on fuzzy sets}, that are reproducing kernels able to map fuzzy sets to a geometric feature spaces. Those kernels are similarity measures between fuzzy sets. We give from basic definitions to applications of those kernels in machine learning problems as supervised classification and a kernel two-sample test. Potential applications of those kernels include machine learning and patter recognition tasks over fuzzy data; and computational tasks requiring a similarity measure estimation between fuzzy sets.
19

Sistema de visão computacional para detecção do uso de telefones celulares ao dirigir / A computer vision system tor detecting use of mobile phones while driving

Berri, Rafael Alceste 21 February 2014 (has links)
Made available in DSpace on 2016-12-12T20:22:52Z (GMT). No. of bitstreams: 1 RAFAEL ALCESTE BERRI.pdf: 28428368 bytes, checksum: 667b9facc9809bfd5e0847e15279b0e6 (MD5) Previous issue date: 2014-02-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this work, three proposals of systems have been developed using a frontal camera to monitor the driver and enabling to identificate if a cell phone is being used while driving the vehicle. It is estimated that 80% of crashes and 65% of near collisions involved drivers who were inattentive in traffic for three seconds before the event. Five videos in real environment were generated to test the systems. The pattern recognition system (RP) uses adaptive skin segmentation, feature extraction, and machine learning to detect cell phone usage on each frame. The cell phone detection happens when, in periods of 3 seconds, 60% (threshold) of frames or more are identified as a cell phone use, individually. The average accuracy on videos achieved was 87.25% with Multilayer Perceptron (MLP), Gaussian activation function, and two neurons of the intermediate layer. The movement detection system (DM) uses optical flow, filtering the most relevant movements of the scene, and three successive frames for detecting the movements to take the phone to the ear and take it off. The DM proposal was not demonstrated as being an effective solution for detecting cell phone use, reaching an accuracy of 52.86%. The third solution is a hybrid system. It uses the RP system for classification and the DM for choosing the RP parameters. The parameters chosen for RP are the threshold and the classification system. The definition of these two parameters occurs at the end of each period, based on movement detected by the DM. Experimentally it was established that, when the movement induces to use cell phone, it is proper to use the threshold of 60%, and the classifier as MLP/Gaussian with seven neurons of the intermediate layer; otherwise, it is used threshold 85%, and MLP/Gaussian with two neurons of the intermediate layer for classification. The hybrid solution is the most robust system with average accuracy of 91.68% in real environment. / Neste trabalho, são desenvolvidas três propostas de sistemas que permitem identificar o uso de celular, durante o ato de dirigir um veículo, utilizando imagens capturadas de uma câmera posicionada em frente ao motorista. Estima-se que 80% das colisões e 65% das quase colisões envolveram motoristas que não estavam prestando a devida atenção ao trânsito por três segundos antes do evento. Cinco vídeos em ambiente real foram gerados com o intuito de testar os sistemas. A proposta de reconhecimento de padrões (RP) emprega segmentação de pele adaptativa, extração de características e aprendizado de máquina (classificador) na detecção do celular em cada quadro processado. A detecção do uso do celular ocorre quando, em períodos de 3 segundos, ao menos em 60% dos quadros (corte) são identificados com celular. A acurácia média nos vídeos alcançou 87, 25% ao utilizar Perceptron Multi-camadas (MLP) com função de ativação gaussiana e dois neurônios na camada intermediária como classificador. A proposta de detecção de movimento (DM) utiliza o fluxo ótico, filtragem dos movimentos mais relevantes da cena e três quadros consecutivos para detectar os momentos de levar o celular ao ouvido e o retirá-lo. A aplicação do DM, como solução para detectar o uso do celular, não se demostrou eficaz atingindo uma acurácia de 52, 86%. A terceira proposta, uma solução híbrida, utiliza o sistema RP como classificador e o de DM como seu parametrizador. Os parâmetros escolhidos para o sistema de RP são o corte e o sistema classificador. A definição desses dois parâmetros ocorre ao final de cada período, baseada na movimentação detectada pela DM. Com experimentações definiu-se que, caso a movimentação induza ao uso do celular, é adequado o uso do corte de 60% e o classificador MLP/Gaussiana com sete neurônios na camada intermediária, caso contrário, utiliza-se o corte de 85% e classificador MLP/Gaussiana com dois neurônios na mesma camada. A versão híbrida é a solução desenvolvida mais robusta, atingindo a melhor acurácia média de 91, 68% em ambiente real.

Page generated in 0.4292 seconds