471 |
Sistema de rastreamento da mão humana utilizando visão artificial para aplicações embarcadas / Human hand tracking system using computer vision for embedded applicationsFreitas, Rodrigo Fernandes 02 February 2011 (has links)
FREITAS. R. F. Sistema de rastreamento da mão humana utilizando visão artificial para aplicações embarcadas. 2011. 74 f. Dissertação (Mestrado em Engenharia de Teleinformática) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2011. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2015-02-27T16:21:03Z
No. of bitstreams: 1
2011_dis_rffreitas.pdf: 7269894 bytes, checksum: 0764bf8f053c464c2c5a1eece289ae7c (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2015-03-05T17:51:18Z (GMT) No. of bitstreams: 1
2011_dis_rffreitas.pdf: 7269894 bytes, checksum: 0764bf8f053c464c2c5a1eece289ae7c (MD5) / Made available in DSpace on 2015-03-05T17:51:18Z (GMT). No. of bitstreams: 1
2011_dis_rffreitas.pdf: 7269894 bytes, checksum: 0764bf8f053c464c2c5a1eece289ae7c (MD5)
Previous issue date: 2011-02-02 / In recent years pro cessing capacity of mobile devices have greatly increased,
allowing them to pro cess applications, such as games, previously only p ossible
on platforms with greater computing p ower. However, the user interface has
not accompanied this evolution of computing p ower, still b eing held using
non-ergonomic keyb oards. This dissertation prop oses a interaction system for
mobile devices based on Computer Vision. This system tracks the user's hand
and recognizes six p ossible gestures: p ointing, emph zo om in, emph zo om
out, clo ckwise rotation, counterclo ckwise rotation and drag. Initially this system
captures images of the user's hand, applies pre-pro cessing lters on the images
and segments the region of the skin by thresholding. Then, the contour of the
hand is extracted and represented in a vector by a chain co de algorithm. The
ngertips are lo cated from the b oundary and represented and, by a set of rules,
the gesture made by the user is recognized. The system prop osed is simulated
using the
Simulink
platform and implemented in C ANSI language. In addition,
this system is compared with three other systems describ ed in literature based on
four evaluation criteria: computacional cost, rotation invariance for the gesture of
p ointing, robustness to regions at the background of image with skin-like color and
robustness to o cclusion with regions with skin-like color. The results indicate that
this system meets the requirements of evaluation criteria, which makes p ossible its
use in mobile devices / Nos últimos anos a capacidade de processamento dos dispositivos portáteis têm aumentado muito, permitindo-lhes processar aplicações, tais como jogos, antes somente possíveis em plataformas de maior poder computacional. Porém, a interface com o usuário não tem acompanhado essa evolução do poder computacional, sendo realizada ainda por meio de teclados não ergonômicos. Esta dissertação propõe um sistema de interação para dispositivos portáteis baseado em Visão Computacional. Este sistema rastreia a mão do usuário e reconhece seis possíveis gestos: apontamento, zoom in, zoom out, rotação horária, rotação anti-horária e arrastar. Inicialmente o sistema captura imagens da mão do usuário, aplica filtros de pré-processamento sobre estas e segmenta a região da pele através de limiarização. Feito isto, o contorno da mão é extraído e representado em um vetor pelo algoritmo do código em cadeia. As pontas dos dedos são localizadas a partir do contorno representado e, através de um conjunto de regras, o gesto realizado pelo usuário é reconhecido. O sistema proposto é simulado utilizando a plataforma Simulink e implementado em linguagem C ANSI. Além disto, este sistema é comparado com três outros sistemas descritos na literatura com base em quatro critérios de avaliação: custo computacional, invariância à rotação para o gesto de apontamento, robustez à presença de regiões no fundo da imagem com cor próxima à da pele e robustez à oclusão com regiões de cor próxima à da pele. Os resultados indicam que este sistema atende os requisitos dos critérios de avaliação, portanto, sendo possível sua utilização em dispositivos portáteis.
|
472 |
SFPT neural: nova técnica de segmentação de fissuras pulmonares baseada em texturas em imagens de tomografia computadorizadas do tórax / SPFT neural: novel segmentation technique of pulmonary fissures based on textures in computerized tomography images of the chestCavalcanti Neto, Edson 19 December 2014 (has links)
CAVALCANTI NETO, E. SFPT neural: nova técnica de segmentação de fissuras pulmonares baseada em texturas em imagens de tomografia computadorizadas do tórax. 2014. 74 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2015-07-17T17:35:19Z
No. of bitstreams: 1
2014_dis_ecavalcantineto.pdf: 7721842 bytes, checksum: 9874d5d6d4f7a84b9f01ba0bec5c7724 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2015-07-22T16:47:02Z (GMT) No. of bitstreams: 1
2014_dis_ecavalcantineto.pdf: 7721842 bytes, checksum: 9874d5d6d4f7a84b9f01ba0bec5c7724 (MD5) / Made available in DSpace on 2015-07-22T16:47:02Z (GMT). No. of bitstreams: 1
2014_dis_ecavalcantineto.pdf: 7721842 bytes, checksum: 9874d5d6d4f7a84b9f01ba0bec5c7724 (MD5)
Previous issue date: 2014-12-19 / Among all cancers, lung cancer (LC) is one of the most common tumors, an increase of 2% per year on its worldwide incidence. In Brazil, for the year of 2014, 27,330 new cases of LC are estimated, these being 16,400 in men and 10,930 in women. In this context, it is of fundamental importance for public health the identication on early stages of lung diseases. The diagnosis assistance shows to be important both from a clinical standpoint as in research. Among the factors contributing to this scene, one important is the increasing accuracy of diagnosis of a medical expert as you increase the number of information about the patient's condition. Thus, certain disorders might be detected early, including saving lives in some cases. The initial treatment for this disease consists of lobectomy. In this context, it is customary to perform the segmentation of lung lobes in CT images to extract data and assist in planning for lobectomy. The segmentation of the lobes from CT images is usually obtained by detection of pulmonary fissures. Thus, in order to obtain a more effective segmentation of pulmonary fissures, and perform a completely independent process from the other structures present in the CT scan, the present work has the objective to perform the fissure segmentation using LBP texture measures and Neural Networks (NN). To implement the algorithm we used one MLP with 60 inputs, 120 hidden neurons and 2 output neurons. The input parameters for the network was the LBP histogram of the voxel being analyzed. For network training, it was necessary to create a system to label the features as fissures and non-fissures manually, where the user selects the fissure pixels class. To perform the validation of the algorithm was necessary to create a "gold standard"in which it was extracted a total of 100 images from 5 exams from the dataset LOLA11, where these images were the fissures were highlighted by two experts. From the gold standard, the proposed algorithm was processed and the results were obtained. For all tested images, the classifier obtained a better performance when the size of 15x15 pixels of the window was used to generate the histogram of the LBP. To get to this definition were tested sizes of 11x11, 15x15, 17x17 and 21x21 and the results were based on metrics comaprados ACC (%), TPR (%), SPC (%) distance mean and standard deviation of the distance. The first approach to analyze the results is through the voxels defined as fissure at the end of the proposed methodology. For the proposed methodology, using automatic detection and MLP LBP before thinning, the rates were obtained ACC= 96.7 %, TPR = 69.6 % and SPC = 96.8 % and ACC = 99 2 % TPR = 3 % and SPC = 99.81 % for the proposed method with the thinning in the end, considering the incidence of false positives and false negatives. Another approach used in the literature for evaluating methods of fissure segmentation is based on the average distance between the fissure delineated by the expert and the resulting fissure through the algorithm. Thus, the algorithm proposed in this paper was compared with the algorithm Lassen et al. (2013) by the average distance between the manual segmented and the automatically segmented fissure. The proposed algorithm with the thinning in the end achieved a shorter distance average value and a lower standard deviation compared with the method of (LASSEN et al., 2013). Finally, the results obtained for automatic segmentation of lung fissures are presented. The low incidence of false negative detections detection results, together with the significant reduction in false positive detections result in a high rate of settlement. We conclude that the segmentation technique for lung fissures is a useful target for pulmonary fissures on CT images and has potential to integrate systems that help medical diagnosis / Entre todos os tipos de câncer, o de pulmão (CP) é um dos mais comuns de todos os tumores malignos, apresentando aumento de 2% por ano na sua incidência mundial. No Brasil, para o ano de 2014 são estimados 27.330 casos novos de CP, sendo destes 16.400, em homens e 10.930 em mulheres. Neste contexto, é de fundamental importância para saúde pública realizar e determinar diagnósticos precoces e mais precisos para detectar os estágios reais das doenças pulmonares. O auxílio ao diagnóstico mostra-se importante tanto do ponto de vista clínico quanto em pesquisa. Dentre os fatores que contribuem para isto, pode-se citar o aumento da precisão do diagnóstico do médico especialista à medida que aumenta o número de informações sobre o estado do paciente. Deste modo, certas doenças podem ser detectadas precocemente, aumentando as chances de cura. O tratamento inicial para esta doença consiste na lobectomia. Nesse contexto, costuma-se realizar a segmentação dos lobos pulmonares em imagens de Tomografia Computadorizada para extrair dados e auxiliar no planejamento da lobectomia. A segmentação dos lobos a partir de imagens de TC é geralmente obtida através da detecção das fissuras pulmonares. Nesse sentido, com o intuito de obter uma segmentação da fissura pulmonar mais eficaz e realizar um processo totalmente independente das demais estruturas presentes no exame de TC, o presente trabalho possui o objetivo de realizar a segmentação das fissuras utilizando medidas de textura LBP e Redes Neurais Artificiais (RNA). Para a implementação do algoritmo foi utilizado uma MLP (Multilayer Perceptron) com 60 entradas, 120 neurônios na camada oculta e 2 neurônios de saída. Os parâmetros de entrada para a rede foi o histograma LBP do voxel a ser analisado. Para o treinamento da rede foi necessário criar um sistema para identificação das classes fissuras e não-fissuras de forma manual, onde o usuário seleciona os pixels da classe fissura e da não-fissura. Para realizar as validações do algoritmo foi criado um padrão-ouro que foi extraído um total de 100 imagens de 5 exames do banco de dados LOLA11. Nessas imagens, as fissuras foram destacadas por 2 especialistas. A partir do padrão-ouro, o as imagens foram processadas pelo algoritmo e assim os resultados obtidos. Para o conjunto de imagens testadas, o classificador obteve um melhor desempenho quando o tamanho, 15x15 pixels, da janela utilizada para gerar o histograma do LBP. Para chegar até essa definição foram testados os tamanhos 11x11, 15x15, 17x17 e 21x21 e os resultados foram comparados utilizando as métricas de Especificidade Es(\%), Coeficiente de Similaridade CS(%), Sensibilidade S(\%), distância média e desvio padrão da distância. A primeira abordagem de análise dos resultados é através dos voxels}definidos como fissura no final da metodologia proposta. Para a metodologia proposta, detecção automática utilizando LBP ( extit{Local Binary Pattern}) e MLP, as taxas obtidas foram CS = 96,7%, S = 69,6% e Es = 96,8% para o método proposto antes do afinamento e CS = 99,2%, S = 3% e Es = 99,81% para o método proposto com o afinamento no fim, considerando a incidência de falsos positivos e falsos negativos. Outra abordagem utilizada na literatura para avaliação de métodos de segmentação de fissuras é baseado na distância média entre a fissura delineada pelo especialista e a fissura resultante do algoritmo proposto. Desta forma, o algoritmo proposto neste trabalho foi comparado com o algoritmo de Lassen(2013) através da abordagem da distância média entre a fissura segmentada manual e a fissura segmentada de forma automática. O algoritmo proposto com afinamento no final obteve uma menor distância no valor de e um menor desvio padrão comparado com o método de Lassen(2013). Por fim, são apresentados os resultados da segmentação automática das fissuras pulmonares. A baixa incidência de detecções falso negativas, juntamente com a redução significativa de detecções falso positivas, resultam em taxa de acerto elevada. Conclui-se que a técnica de segmentação de fissuras pulmonares é um algoritmo útil para segmentar fissuras pulmonares em imagens de TC, e com o potencial de integrar sistemas que auxiliem o diagnóstico médico
|
473 |
Explorando o uso do computador na formação de professores de ciências e matemática à luz da aprendizagem significativa e colaborativa / Exploring the use of computers in teacher of mathematics and science in the light of the significant and collaborative learningMachado, Adriano Silveira January 2012 (has links)
MACHADO, Adriano Silveira.Explorando o uso do computador na formação de professores de ciências e matemática à luz da aprendizagem significativa e colaborativa. 2012. 194 f. Dissertação (Mestrado Profissional em Ensino de Ciências e Matemática) – Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2012. / Submitted by Rocilda Sales (rocilda@ufc.br) on 2012-08-20T13:25:16Z
No. of bitstreams: 1
2012_dis_asmachado.pdf: 2249697 bytes, checksum: af98e730deabe4d3811f45646c03a114 (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2012-08-20T13:27:01Z (GMT) No. of bitstreams: 1
2012_dis_asmachado.pdf: 2249697 bytes, checksum: af98e730deabe4d3811f45646c03a114 (MD5) / Made available in DSpace on 2012-08-20T13:27:01Z (GMT). No. of bitstreams: 1
2012_dis_asmachado.pdf: 2249697 bytes, checksum: af98e730deabe4d3811f45646c03a114 (MD5)
Previous issue date: 2012 / The computer and information technologies and communication in the twenty-first century have represented a benchmark, the current knowledge society in which data and information accessed via the Web, can potentially generate new scientific knowledge. Need is then articulate the pedagogical TDIC to the classroom by integrating them into the curriculum, aiming at (re) vision about doing science (in) school. Taking as significant theoretical learning and collaborative learning seeking to broaden the learning strategies, was made use of the constructivist theory of Valens, in order to reflect on the apprehension of knowledge with the use of the computer as a tool for facilitating learning. Thus began this research entailing the (re) building collaborative scientific and mathematical education in basic education based on collaboration and employment of TDIC to develop this thesis. The field of analysis of the research was the discipline of Mathematics and Science Teaching, offered in 2010 for students of the Professional Masters in Teaching Science and Mathematics. The methodological approach employed in the research was qualitative textual analysis. This analysis consisted of the investigation data that prioritizes assessment of written reports, seeks to elaborate new meanings and understandings about the broader problems analyzed. The textual analysis was based on qualitative (three) distinct aspects: the process of unitarization or disassembly of the texts studied, the process of categorization or establishment of relations between the identified information and communication. Support tools were employed to pesquisação twenty-nine forums and tool profile within the AVA TELEDUC trying to understand the interplay between-transcribed reports produced in forums, to verify the underlying aspects related to the construction of knowledge and learning telecolaborativa. The opinions, reinterpretation and experimental reports whose contents were assimilated constituted a corpus analysis to verify the learning process and the relationships involved in the process of cooperation between teachers, while the circumstances that promote conceptual and attitudinal changes in teachers Pupils in the process of strictu sensu education. / O computador e as novas tecnologias de informação e comunicação, no século XXI têm representado um marco referencial na atual sociedade do conhecimento em que dados e informações, acessados via Web, potencialmente podem gerar novos saberes científicos. Necessita-se então articular pedagogicamente as TDIC à sala de aula integrando-as ao currículo, objetivando uma (re)visão sobre o fazer ciências da(na) escola. Tomando como aporte teórico a aprendizagem significativa e aprendizagem colaborativa procurando ampliar as estratégias de aprendizagem, fez-se uso da teoria construcionista de Valente, no intuito de refletir sobre a apreensão dos saberes com o emprego do computador enquanto ferramenta de facilitação da aprendizagem. Desta forma iniciou-se esta investigação ensejando a (re)construção colaborativa da educação científico-matemática na educação básica tendo como base a colaboração e o emprego das TDIC para se conceber esta dissertação. O campo de análise da pesquisa foi a disciplina de Ensino de Ciências e Matemática, ofertada no ano de 2010 para os alunos do Mestrado Profissional em Ensino de Ciências e Matemática. A abordagem metodológica empregada na pesquisa foi analise textual qualitativa. Esta análise consistiu na investigação de dados que prioriza a apreciação de relatos escritos, procura elaborar novos sentidos e entendimentos mais amplos sobre os problemas analisados. A analise textual qualitativa baseou-se (três) aspectos distintos: o processo de unitarização ou desmontagem dos textos estudados, o processo de categorização ou estabelecimento de relações entre as informações identificadas e a comunicação. As ferramentas de apoio empregadas para a pesquisa-ação foram vinte e nove fóruns e a ferramenta perfil dentro do AVA TELEDUC procurando compreender imbricações entre os relatos-textualizados produzidos em fóruns, a fim de verificar os aspectos subjacentes relacionados à construção de saberes e a aprendizagem colaborativa. As opiniões, ressignificações e relatos experimentais cujos conteúdos foram assimilados constituíram-se em um corpus de análise a fim de verificar o processo de aprendizagem e as relações envolvidas no processo de cooperação entre professores, enquanto circunstâncias promotoras de mudanças conceituais e atitudinais nos professores-alunos em processo de formação strictu sensu.
|
474 |
Uso de técnicas de sensoriamento remoto e SIG para mapeamento dos aluviões em zonas semi-áridas através de métodos de classificação automática / Use of remote sensing and gis for aluvium mapping in semi-arid regions through automatic classicationOliveira, Francisco de Assis Jorge de 28 July 2006 (has links)
OLIVEIRA, F. A. J. Uso de técnicas de sensoriamento remoto e SIG para mapeamento dos aluviões em zonas semi-áridas através de métodos de classificação automática. 2006. 139 f. Dissertação (Mestrado em Engenharia Civil: Recursos Hídricos) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2006. / Submitted by João silva (jpauloqxb@gmail.com) on 2016-05-05T17:40:59Z
No. of bitstreams: 1
2006_dis_fajoliveira.pdf: 9720105 bytes, checksum: 195a06645b9ec4d414a7a7e44a48bf20 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2016-05-17T16:31:48Z (GMT) No. of bitstreams: 1
2006_dis_fajoliveira.pdf: 9720105 bytes, checksum: 195a06645b9ec4d414a7a7e44a48bf20 (MD5) / Made available in DSpace on 2016-05-17T16:31:48Z (GMT). No. of bitstreams: 1
2006_dis_fajoliveira.pdf: 9720105 bytes, checksum: 195a06645b9ec4d414a7a7e44a48bf20 (MD5)
Previous issue date: 2006-07-28 / Remote sensing has being widely applied in various fields of knowledge in order to produce high quality results with lower costs, computationally and financially speaking. The main goal of this research is the use remote sensing techniques combined with field surveys for the semi-automatic identification of alluvium bodies. The proposed methodology was based on adaptations of current available methodologies employed on other imagery products. This methodology is very promising since allows the interpretations of large areas with precision and very fast. The images were classified with their values in Digital Number (DN) based in samples collected from these images. In other stage of classification, the images were submitted to a pre-processing in order to correct possible errors or interferences that usually are present in these images. Among these corrections, the most important is the elimination or reduction of atmospheric interference. For the classification with revised images were used spectral signatures from collected targets in the images and also the spectral signatures from alluvium targets obtained in the field by using a spectroradiometer (equipment that registers the spectral signature the targets in wavelengths between 350 nm and 1050 nm ). These signatures are curves of continuum wavelength between 350 nm and 1050 nm, which corresponds to the spectral answer from a target. These curves can be used in the classification of land use, or in our case, in the alluvium identification. The case of study is the ITAPIUNA SUDENE-MAP and the watershed of Forquilha River located in Quixeramobim. After many classifications, evaluation of the results was carried out in order to determine the best classification for each image and then produce the alluvium map for the area of study. The results were obtained using mathematical models and visual interpretation combined. / À medida que o tempo passa novas técnicas e tecnologias vão surgindo ou estão evoluindo, partindo deste princípio uma nova abordagem no mapeamento de aluviões é apresentada neste trabalho. O uso de técnicas de sensoriamento Remoto está sendo amplamente sendo aplicado em várias áreas do conhecimento, com o objetivo de produzir trabalhos de qualidade e a custos menores, possibilitando assim um ganho maior tanto no tempo empregado para a realização de um trabalho, como também na eficiência e precisão do mesmo. Para o mapeamento de aluviões o uso de técnicas de Sensoriamento Remoto e SIG é muito promissor, pois possibilita de forma rápida e precisa a interpretação de grandes áreas em uma imagem de satélite. Partindo desta premissa aplicamos as técnicas de processamento de imagens com o objetivo de mapear os corpos aluvionares em imagens de satélites. A técnica usada no mapeamento dos aluviões consiste basicamente em aplicar uma classificação automática usando vários métodos de classificação. As imagens foram classificadas com seus valores em DN (Digital Number) com base em amostras coletadas na própria imagem. Em outra etapa da classificação as imagens foram submetidas a processos de pré-processamento, com o objetivo de corrigir alguns defeitos ou interferência que geralmente as imagens de satélite possuem. Entre essas correções, destacamos a eliminação ou a amenização das interferências atmosféricas. Para a classificação com imagens corrigidas foram usadas assinaturas espectrais dos alvos coletadas da própria imagem e assinatura do alvo aluvião registrada em campo com o uso de um espectrorradiômetro (aparelho que registra a assinatura espectral dos alvos no intervalo de comprimento de onda contínuo entre 350 nm e 1050 nm). Essas assinaturas são curvas que refletem a resposta espectral dos alvos e pode ser usadas como parâmetro que possibilita a classificação do uso do solo e neste caso foram usadas para a classificação dos aluviões. As áreas de estudo correspondem a folha de Itapiúna e a área da bacia Hidrográfica do Riacho Forquilha localizada no município de Quixeramobim. Após várias classificações foram avaliadas as mesmas e escolhidas as melhores para cada imagem e gerado os mapas de aluviões. Os resultados foram avaliados através de modelos matemáticos e análise visual possibilitando assim uma boa escolha dos mapas finais.
|
475 |
Processamento de sinais de EEG para classificação de tarefas motoras em sistemas de interface cérebro-máquinaSilva, Cleison Daniel January 2017 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2017. / Made available in DSpace on 2017-10-10T04:14:52Z (GMT). No. of bitstreams: 1
348503.pdf: 2350792 bytes, checksum: 4f841d9961de954ac8230ecb83747166 (MD5)
Previous issue date: 2017 / Nesta tese, é proposta uma nova abordagem para o processamento do sinal de eletroencefalograma (EEG) aplicado à interface cérebro-máquina (ICM) baseado em imagética motora (IM). A nova abordagem consiste em introduzir graus de liberdade aos classificadores baseados em Padrões Espaciais Comuns (CSP - Common Spatial Pattern) mais Análise Discriminante Linear (LDA - Linear Discriminant Analysis) e um classificador baseado na distância de Riemann. Os graus de liberdade correspondem a uma transformação para os sinais que é expressa como uma parametrização das matrizes de covariância. Esses parâmetros são determinados resolvendo um problema de otimização convexa com restrições de Desigualdades Matriciais Lineares (LMI - Linear Matrix Inequalities). Estes problemas são formulados para destacar propriedades que melhoram a discriminação de sinais de diferentes classes. A fim de reduzir a demanda computacional dos problemas de otimização, uma representação compacta dos sinais EEG é usada para expressar a parametrização da matriz de covariância e reduzir a dimensão do problema. O conteúdo espectral dos sinais é explicitamente encontrado nos coeficientes da representação compacta que são obtidos eficientemente projetando os sinais numa base sinusoidal definida em uma faixa de frequências de interesse. Esta propriedade permite emular a estratégia de filtro de passa-faixa a partir dos coeficientes da nova representação com redução no custo computacional. Os resultados, em termos de acurácia de classificação, foram ilustrados através de um conjunto de dados de sinal EEG registrado durante a execução de tarefas cognitivas de imagética motora. Estes conjuntos de dados estão disponíveis online gratuitamente e foram gerados por duas competições internacionais, promovidos para testar e validar algoritmos aplicados a sistemas ICM. Embora os resultados obtidos possam ser melhorados, a introdução e ajuste dos novos graus de liberdade propostos nesta tese provaram ser uma alternativa viável para obter melhores taxas de acurácia na classificação do sinal quando comparados com os métodos convencionais, via Riemann e via CSP -LDA. Outro aspecto interessante é que a representação compacta permite reduzir drasticamente o custo computacional de métodos baseados em CSP e filtros de frequência sub-banda sem comprometer o desempenho da ICM.<br> / Abstract : In this thesis, a new approach is proposed for the electroencephalogram (EEG) signal processing applied to brain-computer interface (BCI) based on motor imagery (IM). The new approach consists of introducing degrees of freedom to the classifiers based on Common Spatial Patterns (CSP) plus Linear Discriminant Analysis (LDA) and a classifier based on Riemann distance. The degrees of freedom correspond to a transformation to the signals which is expressed as a parameterization of the covariance matrices. These parameters are determined by solving a convex optimization problem with Linear Matrix Inequalities (LMI) constraints. These problems are formulated to highlight properties that improve discrimination of signals from different classes. In order to reduce the computational demand of the optimization problems, a compact representation of the EEG signals is used to express the parameterization of the covariance matrix and reduce the dimension of the problem. The spectral content of the signals is explicitly found in the coefficients of the compact representation which are obtained efficiently by projecting the signals on a sinusoidal basis defined in a range of frequencies of interest. This property allows to emulate the pass-band filter strategy from the coefficients of the new representation. The results, in terms of classification accuracy, were illustrated through an EEG signal dataset recorded during the execution of cognitive tasks of motor imagery. These datasets are available online for free and they were generated by two international competitions, promoted to test and validate algorithms applied to BCI systems. Although the results obtained can be improved, the introduction and adjustment of the new degrees of freedom proposed in this thesis have proved to be a viable alternative to obtain better accuracy rates in the signal classification when compared with the conventional methods, via Riemann and via CSP-LDA, specially when the classical methods offer poor results. Another interesting aspect is that the compact representation allows to drastically reduce the a computational cost of methods based on CSP and frequency sub-band filters without compromising BCI performance.
|
476 |
Efeito do recobrimento de soluções de quitosana em alfaces minimamente processadas / Effects of the use chitosan solutions on minimally processed lettuceSegaspini, Moises Jardim January 2014 (has links)
Os produtos minimamente processados constituem um segmento que proporciona uma grande praticidade para o consumidor no consumo de vegetais frescos, uma vez que estes já vêm prontos para o consumo. A alface é uma olerícola muito importante na alimentação humana, sendo a espécie folhosa mais consumida no Brasil por sua importância em uma dieta saudável, todavia é de alta perecibilidade. Quando submetida ao estresse do processamento mínimo, tende a perder qualidade mais rapidamente devido as respostas fisiológicas inerentes ao processo. A busca por alternativas tecnológicas que minimizem este impacto é muito importante para o sucesso de minimamente processados, bem como a manutenção da sanidade e segurança. Biopolímeros à base de quitosana surgem como uma possibilidade de minimizar perdas de qualidade em vegetais frescos, considerando sua capacidade como barreira seletiva para gases, formação de filme comestível, capacidade bacteriostática e bactericida. No presente trabalho foram utilizadas três soluções de quitosana com concentrações de 0,1%, 0,2% ou 0,5% (p/v) e mais um tratamento com solução de 200ppm de cloro com o objetivo de avaliar os efeitos na vida de prateleira de alfaces americana e crespa embaladas com atmosfera modificada e armazenada por nove dias a 3°C. Foram avaliados parâmetros de cor, textura, peso de massa fresca e textura. Nos tratamentos da alface americana cortada observou-se uma perda de qualidade visual devido ao escurecimento das extremidades cortadas. Nos tratamentos aplicados na alface crespa com folha inteira o aspecto visual permaneceu inalterado. As concentrações de 0,2% e 0,5% de quitosana reduziram a perda de massa fresca na comparação com os demais tratamentos, no entanto, a aplicação de quitosana resultou em uma maior redução dos teores de ácidos orgânicos em comparação ao tratamento convencional com cloro indicando menor qualidade e que são necessários estudos continuados para repetibilidade de resultados. / Minimally processed leafy vegetables confer great convenience to consumers in the intake of fresh vegetables as they are already on the point of consumption. Lettuce, amongst all leafy greens is one of the utmost important vegetables in human diet, being one of the most consumed in the world, due to its value for a healthy diet. Even though, lettuces are of quite high perishability. When submitted to minimal processing, the leaves tend to deteriorate more swiftly due to the physiological responses to processing procedures. The search for alternative technologies, which could minimize that effect is very important to the success of that industry and so, is, as well, the need for maintenance of safety of minimally processed vegetables. Biopolymers based on chitosan come up as a possibility to reduce quality losses of fresh vegetables, because of their capability to selectively block gases and deliver the formation of an edible film with bacteriostatic or bactericidal capacity. In the present work, three chitosan concentrations (0.1%, 0.2% or 0.5%) and 200 ppm chlorine solution were evaluated for their effects on crisphead and iceberg lettuce shelf life packed in modified atmosphere and stored for up to nine days at 3°C. Leaf color, tissue firmness, fresh weight losses and visual quality were appraised after five, seven or nine days of cold storage. Processing of lettuce rendered decreases visual quality at cut ends of iceberg lettuce while on crisphead no visual browning was visualized. Chitosan treatments at 0.2% and 0.5% resulted in lower fresh weight losses in comparison to the lower chitosan concentration and the 200 ppm chlorine treatment. Chitosan treatments did affect acidity, which was slightly lower than in the chlorine treatment. Nonetheless, there is a need for further studies to obtain more reliable results for minimally processed lettuce leaves.
|
477 |
Análise de componentes principais integrada a redes neurais artificiais para predição de matéria orgânicaMorais, Jácina Tábita Gurgel 06 1900 (has links)
Submitted by LIVIA FREITAS (livia.freitas@ufba.br) on 2016-01-29T20:19:05Z
No. of bitstreams: 1
Dissertacao Tabita.pdf: 3357943 bytes, checksum: 68725b213c233a37937a1617b70da4b2 (MD5) / Approved for entry into archive by LIVIA FREITAS (livia.freitas@ufba.br) on 2016-03-03T18:30:25Z (GMT) No. of bitstreams: 1
Dissertacao Tabita.pdf: 3357943 bytes, checksum: 68725b213c233a37937a1617b70da4b2 (MD5) / Made available in DSpace on 2016-03-03T18:30:25Z (GMT). No. of bitstreams: 1
Dissertacao Tabita.pdf: 3357943 bytes, checksum: 68725b213c233a37937a1617b70da4b2 (MD5) / Diversas técnicas avançadas vêm sendo adotada em plantas de tratamento de efluentes industriais com o propósito de melhorar o monitoramento e controle operacional da planta a fim de garantir a qualidade do efluente tratado antes de descartá-lo. Dentre estas técnicas, as redes neurais artificiais (RNAs) têm sido utilizadas com sucesso na modelagem destes sistemas. Entretanto, um passo importante e fundamental para um desempenho satisfatório das RNAs é o pré-processamento de dados. Esta tarefa requer uma análise cuidadosa dos dados a fim de obter-se um conjunto de variáveis e dados que melhor represente o sistema. O objetivo desta pesquisa consiste em construir modelos de predição da quantidade de matéria orgânica, medida por DQO, de uma lagoa aerada de
uma empresa de produção de papel e celulose, e comparar o desempenho dos modelos construídos quando utilizada a técnica de análise de componentes principais (PCA) para pré-processamento dos dados. PCA foi utilizada nesta pesquisa para reduzir dimensionalmente o conjunto de dados através da seleção de componentes principais, descarte de variáveis originais e exclusão
de possíveis outliers. Cinco conjuntos de dados foram formados para comparar o desempenho das RNAs com e sem aplicação de PCA, além do uso da DQO como unidade de concentração (mg de DQO.L-1) e como carga orgânica (kg de DQO.dia-1). Esse desempenho foi avaliado pelo erro quadrático médio (EQM), índice de correlação (R²), índice de correlação ajustado (R²ajustado) e a
complexidade da rede (Cn). A verificação da adequação do modelo é feita através da análise residual. A PCA foi capaz de facilitar o processo de aprendizagem da rede neural e reduzir os custos operacionais pelo descarte de variáveis originais. A DQO como carga orgânica também ajudou a melhorar o
desempenho da rede PCA-RNA.
|
478 |
Processamento de dados de GPR utilizando métodos da sísmica de reflexãoPOPINI, Marcus Vinicius Fonseca January 2001 (has links)
Submitted by Teresa Cristina Rosenhayme (teresa.rosenhayme@cprm.gov.br) on 2014-12-02T12:34:28Z
No. of bitstreams: 1
Marcus V.F.Polpini (M).pdf: 17825940 bytes, checksum: fe44ba66efcde0b72f9aadc2e2320ce6 (MD5) / Approved for entry into archive by Roberta Silva (roberta.silva@cprm.gov.br) on 2014-12-03T13:24:34Z (GMT) No. of bitstreams: 1
Marcus V.F.Polpini (M).pdf: 17825940 bytes, checksum: fe44ba66efcde0b72f9aadc2e2320ce6 (MD5) / Approved for entry into archive by Roberta Silva (roberta.silva@cprm.gov.br) on 2014-12-03T13:25:02Z (GMT) No. of bitstreams: 1
Marcus V.F.Polpini (M).pdf: 17825940 bytes, checksum: fe44ba66efcde0b72f9aadc2e2320ce6 (MD5) / Made available in DSpace on 2014-12-03T13:55:14Z (GMT). No. of bitstreams: 1
Marcus V.F.Polpini (M).pdf: 17825940 bytes, checksum: fe44ba66efcde0b72f9aadc2e2320ce6 (MD5)
Previous issue date: 2001-09
|
479 |
Metodologia Computacional para Identificação de Sintagmas Nominais da Língua PortuguesaMORELLATO, L. V. 08 January 2010 (has links)
Made available in DSpace on 2016-08-29T15:33:12Z (GMT). No. of bitstreams: 1
tese_3340_a13-furia.pdf: 1204054 bytes, checksum: 6bd0535e50d6ecfd469372fbce27e1a1 (MD5)
Previous issue date: 2010-01-08 / Sintagmas são unidades de sentido e com função sintática dentro de uma frase, [Nicola 2008]. De maneira geral, as frases que compõem qualquer enunciado expressam um conteúdo por meio dos elementos e das combinações desses elementos que a língua proporciona. Dessa forma, vão se formando conjuntos e subconjuntos que funcionam como unidades sintáticas dentro da unidade maior que é a frase -- os sintagmas, que podem ser divididos em: sintagmas nominais e verbais. Dentre esses, os nominais representam maior interesse devido ao maior valor semântico contido.
Os sintagmas nominais são utilizados em tarefas de Processamento de Linguagem Natural (PLN), como resolução de correferências (anáforas), construção automática de ontologias, em parses usados em textos médicos para geração de resumos e criação de vocabulário, ou ainda como uma etapa inicial em processos de análise sintática. Em Recuperação de Informação (RI) os sintagmas podem ser aplicados na criação de termos em sistemas de indexação e buscas de documentos, gerando resultados melhores.
Esta dissertação propõe uma metodologia computacional para identificação de sintagmas nominais da língua portuguesa em documentos digitais escritos em linguagem natural. Nesse trabalho, é explicitada a metodologia adotada para identificar e extrair sintagmas nominais por meio do desenvolvimento do SISNOP -- Sistema Identificador de Sintagmas Nominais do Português. O SISNOP é um sistema composto por um conjunto de módulos e programas, capaz de interpretar textos irrestritos disponíveis em linguagem natural, através de análises morfológicas e sintáticas, a fim de recuperar sintagmas nominais. Alem disso, são obtidas informações sintáticas, como gênero, número e grau das palavras contidas nos sintagmas extraídos.
O SISNOP testou, entre outros corpus, o CETENFolha, composto por mais 24 milhões de palavras, e o CETEMPúblico, com aproximadamente 180 milhões de palavras em português europeu, e muito utilizado em trabalhos da área. Foi obtido 98,12% e 94,59% de frases reconhecidas pelo sistema, obtendo mais de 24 milhões de sintagmas identificados. Os módulos do SISNOP: EM Etiquetador Morfológico, ISN Identificador de Sintagmas Nominais e IGNG Identificador de Gênero, Número e Grau, foram testados de maneira individual utilizando um conjunto de dados menor que o anterior, visto que, a análise dos resultados foi feita manualmente. O módulo identificador de sintagmas obteve precisão de 82,45% e abrangência de 69,20%.
|
480 |
UM AMBIENTE PARA CONSTRUÇÃO DE PERFIS A PARTIR DE TEXTOS PESSOAISBALDAN, M. A. 28 August 2012 (has links)
Made available in DSpace on 2016-08-29T15:33:17Z (GMT). No. of bitstreams: 1
tese_5082_.pdf: 2597240 bytes, checksum: 75e12206d55e8da6843bfef827bb4ef2 (MD5)
Previous issue date: 2012-08-28 / O ambiente proposto tem como ponto de partida a modelagem e implementação de uma ferramenta para aquisição de características dos usuários a partir do processamento de suas produções. A abordagem a ser dada é o uso de técnicas de processamento de linguagem natural para identificação progressiva de características pessoais para a composição de perfil. O ambiente constitui-se de um conjunto de regras que são aplicadas sobre o Processamento de Linguagem Natural (PLN) para a construção do perfil. As regras de PLN delimitam o tipo de característica que é de interesse para a composição do perfil assim como a composição de uma base de conhecimento modelada por logica de primeira ordem, criada com o proposito de apoia a identificação de características pessoais que estão implícitas nas produções individuais. Esta base de conhecimento é construída e consultada por um Sistema Multi-agente (SMA). O SMA utiliza esta base para realizar esclarecimento de duvidas, duvidas estas que surgiram durante o processamento das produções individuais que não puderam ser sanadas com o processamento linguístico. O SMA necessita da base para identificar características pessoais implícitas nas produções individuais. O objetivo da ferramenta é identificar características pessoais dos usuários que utilizam o ambiente MOrFEu (MENEZES, 2008), tendo a noção da flexibilidade ao qual o MOrFEu se propõem, permitindo que ele seja utilizado para diversos fiz, tornando necessário a obtenção de características pessoais de forma também flexível. Esta flexibilidade esta restrita as especificações das regras de PLN e lógicas de primeira ordem.
|
Page generated in 0.1055 seconds