• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 332
  • 27
  • 9
  • 2
  • Tagged with
  • 381
  • 381
  • 348
  • 342
  • 69
  • 57
  • 55
  • 53
  • 52
  • 46
  • 46
  • 45
  • 44
  • 42
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Construções de comitês de classificadores multirrótulos no aprendizado semissupervisionado multidescrição

Silva, Wilamis Kleiton Nunes da 18 August 2017 (has links)
Submitted by Lara Oliveira (lara@ufersa.edu.br) on 2017-09-19T21:25:54Z No. of bitstreams: 1 WilamisKNS_DISSERT.pdf: 2959360 bytes, checksum: f4e2b25f85638d49d61b7b5e7415d3fc (MD5) / Approved for entry into archive by Vanessa Christiane (referencia@ufersa.edu.br) on 2017-10-27T13:05:12Z (GMT) No. of bitstreams: 1 WilamisKNS_DISSERT.pdf: 2959360 bytes, checksum: f4e2b25f85638d49d61b7b5e7415d3fc (MD5) / Approved for entry into archive by Vanessa Christiane (referencia@ufersa.edu.br) on 2017-10-27T13:08:52Z (GMT) No. of bitstreams: 1 WilamisKNS_DISSERT.pdf: 2959360 bytes, checksum: f4e2b25f85638d49d61b7b5e7415d3fc (MD5) / Made available in DSpace on 2017-10-27T13:09:10Z (GMT). No. of bitstreams: 1 WilamisKNS_DISSERT.pdf: 2959360 bytes, checksum: f4e2b25f85638d49d61b7b5e7415d3fc (MD5) Previous issue date: 2017-08-18 / Multi-label problems have become increasingly common, for a label can be attributed to more than one instance, being called multi-label classification problems. Among the di_erent multilabel classification methods we can mention: BR (Binary Relevance), LP (Label Powerset) And RAkEL (RAndom k labELsets). Such methods have been recognized as methods for transforming the Problem, since they consist of turning the multi-label problem into several problems of traditional classification (mono label). However, the adoption of Classificatory committees in multi-label classification problems has still been new-found so far, With a great field to be explored for conducting researches as well. This work aims of doing a study on the construction of multilabel classifiers committees Built through the application of multi- description semisupervised learning techniques, in order to verify if application of this type of learning in the construction of committees results in improvements linked to the results. The committees of classifiers used in the experiments were Bagging, Boosting and Stacking as methods of transformation of the problems used were the BR, LP and Rakel methods and for classification multi-label multi-label semi-supervised multi-description was used Co-Training. At the end of the experimental analyzes, it was verified that the use of the semi-supervised approach presented satisfactory results, since the two approaches presented similar results / São cada vez mais comum problemas multirrótulos onde um rótulo pode ser atribuído a mais de uma instância, sendo chamados de problemas de classificação multirrótulo. Dentre os diferentes métodos de classificação multirrótulo, podemos citar os métodos BR (Binary Relevance), LP (Label Powerset) e RAkEL (RAndom k-labELsets). Tais métodos são ditos métodos de transformação do problema, pois consistem em transformar o problema multirrótulo em vários problemas de classificação tradicional (monorrótulo).A adoção de comitês de classificadores em problemas de classificação multirrótulo ainda é algo muito recente, com muito a ser explorado para a realização de pesquisas. O objetivo deste trabalho é realizar um estudo sobre a construção de comitês de classificadores multirrótulos construídos através da aplicação das técnicas de aprendizado semissupervisionado multidescrição, a fim de verificar se aplicação desse tipo de aprendizado na construção de comitês acarreta melhorias nos resultados. Os comitês de classificadores utilizados nos experimentos foram o Bagging, Boosting e Stacking como métodos de transformação do problemas foram utilizados os métodos BR, LP e Rakel e para a classificação multirrótulo semissupervisionada multidescrição foi utilizado o Co-Training. Ao fim das análises experimentais verificou-se que a utilização da abordagem semissupervisionado apresentou resultados satisfatórios, uma vez que as duas abordagens supervisionada e semissupervisionada utilizadas no trabalho apresentaram resultados semelhantes / 2017-09-19
282

Avaliação de mecanismos de suporte à tomada de decisão e sua aplicabilidade no auxílio à priorização de casos em regulações de urgências e emergências / Evaluation of decision support mechanisms and their aplicability to aid prioritization of cases from medical coordination of emergency requests

Juliana Tarossi Pollettini 23 November 2016 (has links)
Introdução: A Regulação Médica, que representa a aplicação de técnicas de logística ao contexto de emergência, é responsável pela disponibilização de recursos apropriados, nas condições apropriadas para pacientes apropriados. Um sistema para Regulação Médica de Urgências e Emergências foi desenvolvido em 2009 e foi implantado na forma de um projeto-piloto. Técnicas nas áreas de processamento de linguagem natural, recuperação de informação e aprendizado de máquina podem ser utilizadas para processar registros clínicos e auxiliar processos de tomada de decisão. Objetivos: No presente trabalho busca-se: (i) comparar diferentes metodologias para representação e extração de informação de documentos em texto livre, tais como solicitações de regulação; (ii) proporcionar suporte à decisão na definição de prioridade de casos, com processamento textual e semântico do resumo clínico dos casos; e (iii) analisar as contribuições dos dados clínicos e prioridade definida durante o processo de regulação para o desfecho do caso. Metodologia: Foram utilizados dados do projeto-piloto, assim como dados relativos ao desfecho do caso de pacientes regulados e admitidos na Unidade de Emergência do HCFMRP-USP. Os dados foram processados com o auxílio de tecnologias de Aprendizado de Máquina, Mineração de Textos e Recuperação de Informação para extrair informações organizadas em atributos a serem utilizados pra permitir suporte à decisão na prioridade do caso. Resultados: Os dados de pedidos de regulação apresentam uma grande quantidade de casos com valores de atributos muito parecidos (algumas vezes idênticos), contudo com classes (prioridades) diferentes, caracterizando uma base de dados com grande quantidade de ruídos, o que dificulta a aplicação de tecnologias como Aprendizado de Máquina. Resultados evidenciam o caráter subjetivo na definição de prioridades, que talvez seja influenciada por outros fatores que não estão presentes no texto do registro clínico do paciente. Resultados de suporte à decisão na definição de prioridade e desfecho do caso indicam que aplicar processamento semântico, mapeando termos para conceitos médicos do UMLS, reduz o problema da dimensionalidade quando comparado a abordagens menos robustas de mineração de textos. A abordagem apoiada por recuperação de informação, permite que sejam classificados apenas pedidos de regulação que sejam mais similares que um limiar (threshold) desejado em relação a algum caso do banco de dados. Desta maneira, esta abordagem pode ser utilizada para reduzir sobrecarga, permitindo que reguladores concentrem sua atenção em casos mais críticos e casos de maior particularidade (não similares a casos históricos). Conclusões: O presente trabalho proporcionou suporte à decisão na priorização de casos em regulações de urgência e emergência, com processamento textual e semântico do resumo clínico dos casos. Definiu-se como proposta para suporte à decisão na priorização de casos um processo composto por três etapas: (i) análise do risco de óbito; (ii) pré-priorização automática de casos de alta similaridade com casos históricos; e (iii) apoio à decisão com base em casos históricos (aprendizagem baseada em exemplos). / Introduction: The Medical Coordination, which is the application of logistics techniques to the emergency context, is responsible for providing appropriate resources, in appropriate conditions to appropriate patients. A system for medical coordination of emergency requests was developed in 2009 and was implemented as a pilot project, although some activities related to medical coordination decision making are extremely subjective. Techniques from the areas of natural language processing, information retrieval and machine learning can be used to process clinical records and assist decision-making processes. Objectives: The present study aims to: (i) compare different methodologies for representation and information extraction from free text documents, such as coordination requests; (ii) provide decision support to prioritization of requests, with textual and semantic processing of clinical summaries of the cases; and (iii) analyze the contributions of clinical data and priority defined during the coordination process to the final case outcome. Methodology: Data from the pilot project, as well as data on the case outcome of coordinated patients admitted to the HCFMRP-USP Emergency Unit we used. Data was processed with the aid of Machine Learning, Information Retrival and Text Mining techniques to extract information organized into attributes to be used to enable decision support on the priority of the case. Results: The coordination requests data contain a large number of cases with very similar attribute values (sometimes identical), but with different classes (priorities), characterizing a database with a large amount of noise, making it hard to apply technologies such as Machine Learning. Results denote the subjective aspect in the definition of priorities, which may be influenced by other factors that are not present in the patient\'s clinical record text. Decision support results in prioritization and case outcome indicate that applying semantic processing, mapping terms to UMLS medical concepts, reduces the dimensionality problem when compared to less robust text mining approaches. The approach supported by information retrieval allows to classify only coordination requests that are more similar than a defined threshold to a historical case. Thus, this approach can be used to reduce overhead, allowing coordinators to focus their attention on the most critical cases and cases of greater particularity (not similar to historical cases). Conclusions: This work provided decision support in prioritizing cases of urgency and emergency coordination requests, with textual and semantic processing of clinical summary cases. It was defined as a proposal for decision support in prioritization of requestes a process consisting of three steps: (i) analysis of the risk of death; (ii) automatic pre-prioritization of cases of high similarity with historical cases; and (iii) decision support based on historical cases (examples-based learning).
283

Utilização do algoritmo de aprendizado de máquinas para monitoramento de falhas em estruturas inteligentes /

Guimarães, Ana Paula Alves January 2016 (has links)
Orientador: Vicente Lopes Junior / Resumo: Structural health monitoring (SHM) is an area that has been extensively studied for allowing the construction of systems that have the ability to identify damages at an early stage, thus being able to avoid serious future losses. Ideally, these systems have the minimum of human interference. Systems that address the concept of learning have the ability to be autonomous. It is believed that by having these properties, the machine learning algorithms are an excellent choice to perform the steps of identifying, locating and assessing damage with ability to obtain highly accurate results with minimum error rates. This work is mainly focused on using support vector machine algorithm for monitoring structural condition and, thus, get better accuracy in identifying the presence or absence of damage, reducing error rates through the approaches of machine learning. It allows an intelligent and efficient monitoring system. LIBSVM library was used for analysing and validation of the proposed approach. Thus, it was feasible to conduct training and classification of data promoting the identification of damages. It was also possible to locate the damages in the structure. The results of identification and location of the damage was quite satisfactory. / Mestre
284

Aprendiz de descritores de mistura gaussiana / Gaussian mixture descriptors learner

Freitas, Breno Lima de 14 December 2017 (has links)
Submitted by Breno Freitas (brenolimadefreitas@gmail.com) on 2018-01-11T05:18:51Z No. of bitstreams: 1 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) / Rejected by Milena Rubi ( ri.bso@ufscar.br), reason: Bom dia Breno! Além da dissertação, você deve submeter também a carta comprovante devidamente preenchida e assinada pelo orientador. O modelo da carta encontra-se na página inicial do site do Repositório Institucional. Att., Milena P. Rubi Bibliotecária CRB8-6635 Biblioteca Campus Sorocaba on 2018-01-11T12:06:11Z (GMT) / Submitted by Breno Freitas (brenolimadefreitas@gmail.com) on 2018-01-11T14:51:00Z No. of bitstreams: 2 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) atestado-deposito-assinado.pdf: 159376 bytes, checksum: 4d20d8676988e631bc8b46f7c2224bcb (MD5) / Approved for entry into archive by Milena Rubi ( ri.bso@ufscar.br) on 2018-01-12T10:35:56Z (GMT) No. of bitstreams: 2 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) atestado-deposito-assinado.pdf: 159376 bytes, checksum: 4d20d8676988e631bc8b46f7c2224bcb (MD5) / Approved for entry into archive by Milena Rubi ( ri.bso@ufscar.br) on 2018-01-12T10:36:13Z (GMT) No. of bitstreams: 2 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) atestado-deposito-assinado.pdf: 159376 bytes, checksum: 4d20d8676988e631bc8b46f7c2224bcb (MD5) / Made available in DSpace on 2018-01-12T10:36:25Z (GMT). No. of bitstreams: 2 tese.pdf: 2292309 bytes, checksum: 6fed87a7d149f4ecf1b124c3dbe48d9e (MD5) atestado-deposito-assinado.pdf: 159376 bytes, checksum: 4d20d8676988e631bc8b46f7c2224bcb (MD5) Previous issue date: 2017-12-14 / Não recebi financiamento / For the last decades, many Machine Learning methods have been proposed aiming categorizing data. Given many tentative models, those methods try to find the one that fits the dataset by building a hypothesis that predicts unseen samples reasonably well. One of the main concerns in that regard is selecting a model that performs well in unseen samples not overfitting on the known data. In this work, we introduce a classification method based on the minimum description length principle, which naturally offers a tradeoff between model complexity and data fit. The proposed method is multiclass, online and is generic in the regard of data representation. The experiments conducted in real datasets with many different characteristics, have shown that the proposed method is statiscally equivalent to the other classical baseline methods in the literature in the offline scenario and it performed better than some when tested in an online scenario. Moreover, the method has proven to be robust to overfitting and data normalization which poses great features a classifier must have in order to deal with large, complex and real-world classification problems. / Ao longo das últimas décadas, diversos métodos de aprendizado de máquina vêm sendo propostos com o intuito de classificar dados. Entre os modelos candidatos, procura-se selecionar um que se ajuste bem aos dados de treinamento, criando uma hipótese que faça boas predições em amostras não analisadas anteriormente. Um dos maiores desafios é selecionar um modelo, cuja hipótese não seja sobre-ajustada aos dados conhecidos, sendo genérica o suficiente para boas predições futuras. Neste trabalho, é apresentado um método de classificação baseado no princípio da descrição mais simples que efetua uma troca benéfica entre a complexidade do modelo e o ajuste aos dados. O método proposto é multiclasse, incremental e pode ser usado em dados com atributos categóricos, numéricos e contínuos. Experimentos conduzidos em bases reais de diversas características mostraram que o método proposto é estatisticamente equivalente à métodos clássicos na literatura para o cenário offline e superior a alguns métodos no cenário de aprendizado incremental. Além disso, o método mostrou-se robusto ao sobre-ajustamento e à normalização dos dados, apresentando características benéficas para um método de classificação que pode ser aplicado nos dias atuais.
285

Aplicando princípios de aprendizado de máquina na construção de um biocurador automático para o Gene Ontology (GO)

Amaral, Laurence Rodrigues do 08 October 2013 (has links)
Made available in DSpace on 2016-06-02T19:03:58Z (GMT). No. of bitstreams: 1 6030.pdf: 2345815 bytes, checksum: 385c6d8c1bda1d4afe540c01668338fa (MD5) Previous issue date: 2013-10-08 / Nowadays, the amount of biological data available by universities, hospitals and research centers has increased exponentially due the use of bioinformatics, with the development of methods and advanced computational tools, and high-throughput techniques. Due to this significant increase in the amount of available data, new strategies for capture, storage and analysis of data are necessary. In this scenario, a new research area is developing, called biocuration. The biocuration is becoming a fundamental part in the biological and biomedical research, and the main function is related with the structuration and organization of the biological information, making it readable and accessible to mens and computers. Seeking to support a fast and reliable understanding of new domains, different initiatives are being proposed, and the Gene Ontology (GO) is one of the main examples. The GO is one the main initiatives in bioinformatics, whose main goal is to standardize the representation of genes and their products, providing interconnections between species and databases. Thus, the main objective of this research is to propose a computational architecture that uses principles of never-ending learning to help biocurators in new GO classifications. Nowadays, this classification task is totally manual. The proposed architecture uses semi-supervised learning combining different classifiers used in the classification of new GO samples. In addition, this research also aims to build high-level knowledge in the form of simple IF-THEN rules and decision trees. The generated knowledge can be used by the GO biocurators in the search for important patterns present in the biological data, revealing concise and relevant information about the application domain. / Nos dias atuais, a quantidade de dados biológicos disponibilizados por universidades, hospitais e centros de pesquisa tem aumentado de forma exponencial, devido ao emprego da bio-informática, através do desenvolvimento de métodos e técnicas computacionais avançados, e de técnicas de high-throughput. Devido a esse significativo aumento na quantidade de dados disponibilizados, gerou-se a necessidade da criação de novas estratégias para captura, armazenamento e principalmente analise desses dados. Devido a esse cenário, um novo campo de trabalho e pesquisa vem surgindo, chamado biocuragem. A biocuragem está se tornando parte fundamental na pesquisa biomédica e biológica, e tem por principal função estruturar e organizar a informação biológica, tornando-a legível e acessível a homens e computadores. Buscando prover um rápido e confiável entendimento de novos domínios, diferentes iniciativas estão sendo propostas, tendo no Gene Ontology (GO) um dos seus principais exemplos. O GO se destaca mundialmente sendo uma das principais iniciativas em bioinformática, cuja principal meta e padronizar a representação dos genes e seus produtos, provendo interconexões entre espécies e bancos de dados. Dessa forma, objetiva-se com essa pesquisa propor uma arquitetura computacional que utiliza princípios de aprendizado de maquina sem-fim para auxiliar biocuradores do GO na tarefa de classificação de novos termos, tarefa essa, totalmente manual. A arquitetura proposta utiliza aprendizado semi-supervisionado combinando diferentes classificadores na rotulação de novas instâncias do GO. Além disso, essa pesquisa também tem por objetivo a construção de conhecimento de alto-nível na forma de simples regras SE-ENTÃO e árvores de decisão. Esse conhecimento gerado pode ser utilizado pelos biocuradores do GO na busca por padrões importantes presentes nos dados biológicos, revelando informações concisas e relevantes sobre o domínio da aplicação.
286

Aprendizado semi-supervisionado e não supervisionado para análise de dados de expressão gênica

Assao, Fabiana Mari 27 May 2008 (has links)
Made available in DSpace on 2016-06-02T19:05:34Z (GMT). No. of bitstreams: 1 2160.pdf: 2987031 bytes, checksum: c428afa9febfedfbb3e778b30d48e9c0 (MD5) Previous issue date: 2008-05-27 / Data clustering has been seen, in the last decades, as an important tool for gene expression data analysis. In recent years, due to the progress in gene annotation research, a growing interest has been noticed for the semi-supervised clustering techniques, which use knowledge previously available about some gene functions to discover functions of other genes by means of clustering. This work investigates non-supervised and semi-supervised clustering algorithms applied to gene expression data. The goal is to perform an inspection on strengths and weaknesses of the use of such clustering methods and, based on these findings, to provide ways of obtaining results significant to biology. Algorithms with different characteristics were implemented and tested, with the objective of verifying evidences of eventual gains with the partial labeling, as compared to the non-supervised techniques. The experiments considered data sets from the gene expression domain as well as more generic domains. The obtained results were evaluated with validation measures usually applied in similar contexts. The analysis developed, though, emphasize the important role of computational techniques in biological data analysis, by accelerating the process of deriving results and conclusions, to better understand gene functions and structures. The results of this stydy justify the large investiment in the research of behavior of semi-supervised techniques in gene expression data, as we shall see. / O agrupamento de dados destacou-se nas últimas décadas como uma importante ferramenta para a análise de dados de expressão gênica. Nos últimos anos, em função do progresso das pesquisas para rotulação de genes, surgiu um interesse pelas técnicas de agrupamento semi-supervisionado, que utilizam o conhecimento prévio disponível sobre a função de alguns genes para descobrir funções de outros genes por meio do agrupamento. Neste trabalho são investigados algoritmos de agrupamento semi-supervisionado e não supervisionados aplicados a dados de expressão gênica. O intuito é realizar uma inspeção das vantagens e desvantagens da utilização destes métodos de agrupamento e, a partir disso, prover subsídios para obtenção de resultados significativos para a área de Biologia. Foram implementados e testados algoritmos de agrupamento com diferentes características, com o objetivo de verificar evidências de eventuais ganhos obtidos com a rotulação parcial dos genes com relação a técnicas não-supervisionadas. Os experimentos realizados consideraram conjuntos de dados do domínio de expressão gênica e de outros domínios mais genéricos. Os resultados obtidos foram avaliados com medidas de validação usualmente aplicadas em contextos semelhantes. Assim, as análises desenvolvidas reforçam o importante papel da computação na análise de dados biológicos, a fim de acelerar o processo de obtenção de resultados e conclusões, na compreensão das estruturas e funções dos genes. Os resultados obtidos neste trabalho justificam o grande investimento na pesquisa do comportamento de técnicas semi-supervisionadas em dados de expressão gênica, como veremos mais adiante.
287

Aprendizado semissupervisionado através de técnicas de acoplamento

Duarte, Maisa Cristina 17 February 2011 (has links)
Made available in DSpace on 2016-06-02T19:05:51Z (GMT). No. of bitstreams: 1 3777.pdf: 3225691 bytes, checksum: 38e3ba8f3c842f4e05d42710339e897a (MD5) Previous issue date: 2011-02-17 / Machine Learning (ML) can be seen as research area within the Artificial Intelligence (AI) that aims to develop computer programs that can evolve with new experiences. The main ML purpose is the search for methods and techniques that enable the computer system improve its performance autonomously using information learned through its use. This feature can be considered the fundamental mechanisms of the processes of automatic learning. The main goal in this research project was to investigate, propose and implement methods and algorithms to allow the construction of a continuous learning system capable of extracting knowledge from the Web in Portuguese, throughout the creation of a knowledge base which can be constantly updated as new knowledge is extracted. / O Aprendizado de Máquina (AM) pode ser visto como uma área de pesquisa dentro da Inteligência Artificial (IA) que busca o desenvolvimento de programas de computador que possam evoluir à medida que vão sendo expostos a novas experiências. O principal objetivo de AM é a busca por métodos e técnicas que permitem a concepção de sistemas computacionais capazes de melhorar seu desempenho, de maneira autônoma, usando informações obtidas ao longo de seu uso; tal característica pode, de certa forma, ser considerada como um dos mecanismos fundamentais que regem os processos de aprendizado automático. O principal objetivo da pesquisa descrita neste documento foi investigar, propor e implementar métodos e algoritmos que permitissem a construção de um sistema computacional de aprendizado contínuo capaz de realizar a extração de conhecimento a partir da Web em português, por meio da criação de uma base de conhecimento atualizada constantemente à medida que novos conhecimentos vão sendo extraídos.
288

Aplicação de máquinas de vetores de suporte na identificação de perfis de alunos de acordo com características da teoria das inteligências múltiplas / Implementation of support vector machines for students’profiles identification according to characteristics of multiple intelligences

Lázaro, Diego Henrique Emygdio [UNESP] 31 May 2016 (has links)
Submitted by DIEGO HENRIQUE EMYGDIO LÁZARO null (diegoemygdio@gmail.com) on 2016-06-27T15:28:11Z No. of bitstreams: 1 Aplicação de Máquinas de Vetores de Suporte na Identificação de Perfis de Alunos de acordo com Características da Teoria das Inteligências Múltiplas.pdf: 2758329 bytes, checksum: 02e2c2154153f7f78fdc32629f761d03 (MD5) / Rejected by Ana Paula Grisoto (grisotoana@reitoria.unesp.br), reason: Solicitamos que realize uma nova submissão seguindo a orientação abaixo: O arquivo submetido não contém o certificado de aprovação. A versão submetida por você é considerada a versão final da dissertação/tese, portanto não poderá ocorrer qualquer alteração em seu conteúdo após a aprovação. Corrija esta informação e realize uma nova submissão contendo o arquivo correto. Agradecemos a compreensão. on 2016-06-27T17:22:37Z (GMT) / Submitted by DIEGO HENRIQUE EMYGDIO LÁZARO null (diegoemygdio@gmail.com) on 2016-06-27T20:26:31Z No. of bitstreams: 1 Aplicação de Máquinas de Vetores de Suporte na Identificação de Perfis de Alunos de acordo com as Características das Inteligências Múltiplas.pdf: 2980004 bytes, checksum: d8b55bde9f111d6df2e3cc9a8db5e8e9 (MD5) / Rejected by Ana Paula Grisoto (grisotoana@reitoria.unesp.br), reason: Solicitamos que realize uma nova submissão seguindo a orientação abaixo: O arquivo submetido está sem a ficha catalográfica. A versão submetida por você é considerada a versão final da dissertação/tese, portanto não poderá ocorrer qualquer alteração em seu conteúdo após a aprovação. Corrija esta informação e realize uma nova submissão contendo o arquivo correto. Agradecemos a compreensão. on 2016-06-28T18:22:33Z (GMT) / Submitted by DIEGO HENRIQUE EMYGDIO LÁZARO null (diegoemygdio@gmail.com) on 2016-06-28T19:33:55Z No. of bitstreams: 1 Aplicação de Máquinas de Vetores de Suporte na Identificação de Perfis de Alunos de acordo com Características da Teoria das Inteligências Múltiplas.pdf: 2736602 bytes, checksum: 51b12df288fa6ceb2ba0e0a908303beb (MD5) / Approved for entry into archive by Ana Paula Grisoto (grisotoana@reitoria.unesp.br) on 2016-06-28T19:59:20Z (GMT) No. of bitstreams: 1 lazaro_dhe_me_sjrp.pdf: 2736602 bytes, checksum: 51b12df288fa6ceb2ba0e0a908303beb (MD5) / Made available in DSpace on 2016-06-28T19:59:20Z (GMT). No. of bitstreams: 1 lazaro_dhe_me_sjrp.pdf: 2736602 bytes, checksum: 51b12df288fa6ceb2ba0e0a908303beb (MD5) Previous issue date: 2016-05-31 / Nesta dissertação foi desenvolvido um mecanismo de classificação capaz de identificar o perfil de um aluno de acordo com características da teoria das inteligências múltiplas, baseado em Support Vector Machines (SVMs, sigla em inglês para Máquinas de Vetores de Suporte), métodos de agrupamento e balanceamento de classes. O objetivo dessa classificação consiste em permitir que os tutores responsáveis por gerar o material para aulas em ferramentas de apoio ao ensino à distância possam utilizar este método de classificação para direcionar o conteúdo ao aluno de forma a explorar sua inteligência múltipla predominante. Para realização dos experimentos, duas SVMs foram criadas, utilizando o método de classificação baseado em k problemas binários, que reduzem o problema de múltiplas classes a um conjunto de problemas binários. Os resultados obtidos durante as fases de treino e teste das SVMs foram apresentados em percentuais por meio de um algoritmo de agrupamento particionado. Esses percentuais ajudam a interpretar a classificação do perfil de acordo com as inteligências predominantes. Além disso, com o uso de métodos de balanceamento de classes, obteve-se melhora no desempenho do classificador, assim, aumentando a eficácia do mecanismo, pois, suas taxas de incorreções foram baixas. / In this work, it was developed a mechanism in order to classify students’ profiles according to the Theory of Multiple Intelligences, based on Support Vector Machines (SVMs), cluster methods and classes balancing. By using these classifications, tutors, who prepare materials for classes in specific tools for distance education purposes, are able to suggest contents for students so that they are able to explore their predominant multiple intelligence. To perform these experiments, SVMs were created by using classification methods based on binary problems that reduce multiple classes problems into a set of binary problems. The results generated during the training and the SVM test stages were presented in percentages by using partitioning clustering algorithm. These percentages are helpful for analysis of profiles classifications according to multiple intelligences. Besides that, by using classes balancing methods, it was possible to obtain improvements on the classifier performance and, consequently, the mechanism efficiency was increased as well, considering the fact that inaccuracy rates were low.
289

SSVEP-EEG signal pattern recognition system for real-time brain-computer interfaces applications / Sistema de reconhecimento de padrões de sinais SSVEP-EEG para aplicações em interfaces cérebro-computador

Giovanini, Renato de Macedo [UNESP] 18 August 2017 (has links)
Submitted by Renato de Macedo Giovanini null (renato81243@aluno.feis.unesp.br) on 2017-09-25T14:52:54Z No. of bitstreams: 1 dissertacao_renato_de_macedo_giovanini_2017_final.pdf: 10453769 bytes, checksum: 7f7e2415a0912fae282affadea2685b8 (MD5) / Approved for entry into archive by Monique Sasaki (sayumi_sasaki@hotmail.com) on 2017-09-27T20:24:55Z (GMT) No. of bitstreams: 1 giovanini_rm_me_ilha.pdf: 10453769 bytes, checksum: 7f7e2415a0912fae282affadea2685b8 (MD5) / Made available in DSpace on 2017-09-27T20:24:55Z (GMT). No. of bitstreams: 1 giovanini_rm_me_ilha.pdf: 10453769 bytes, checksum: 7f7e2415a0912fae282affadea2685b8 (MD5) Previous issue date: 2017-08-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / There are, nowadays, about 110 million people in the world who live with some type of severe motor disability. Specifically in Brazil, about 2.2% of the population are estimated to live with a condition of difficult locomotion. Aiming to help these people, a vast variety of devices, techniques and services are currently being developed. Among those, one of the most complex and challenging techniques is the study and development of Brain-Computer Interfaces (BCIs). BCIs are systems that allow the user to communicate with the external world controlling devices without the use of muscles or peripheral nerves, using only his decoded brain activity. To achieve this, there is a need to develop robust pattern recognition systems, that must be able to detect the user’s intention through electroencephalography (EEG) signals and activate the corresponding output with reliable accuracy and within the shortest possible processing time. In this work, different EEG signal processing techniques were studied, and it is presented the development of a EEG under visual stimulation (Steady-State Visual Evoked Potentials - SSVEP) pattern recognition system. Using only Open Source tools and Python programming language, modules to manage datasets, reduce noise, extract features and perform classification of EEG signals were developed, and a comparative study of different techniques was performed, using filter banks and Discrete Wavelet Transforms (DWT) as feature extraction approaches, and the classifiers K-Nearest Neighbors, Multilayer Perceptron and Random Forests. Using DWT approach with Random Forest and Multilayer Perceptron classifiers, high accuracy rates up to 92 % were achieved in deeper decomposition levels. Then, the small-size microcomputer Raspberry Pi was used to perform time processing evaluation, obtaining short processing times for every classifiers. This work is a preliminary study of BCIs at the Laboratório de Instrumentação e Engenharia Biomédica, and, in the future, the system here presented may be part of a complete SSVEP-BCI system. / Existem, atualmente, cerca de 110 milhões de pessoas no mundo que vivem com algum tipo de deficiência motora severa. Especificamente no Brasil, é estimado que cerca de 2.2% da população conviva com alguma condição que dificulte a locomoção. Com o intuito de auxiliar tais pessoas, uma grande variedade de dispositivos, técnicas e serviços são atualmente desenvolvidos. Dentre elas, uma das técnicas mais complexas e desafiadoras é o estudo e o desenvolvimento de Interfaces Cérebro-Computador (ICMs). As ICMs são sistemas que permitem ao usuário comunicar-se com o mundo externo, controlando dispositivos sem o uso de músculos ou nervos periféricos, utilizando apenas sua atividade cerebral decodificada. Para alcançar isso, existe a necessidade de desenvolvimento de sistemas robustos de reconhecimento de padrões, que devem ser capazes de detectar as intenções do usuáro através dos sinais de eletroencefalografia (EEG) e ativar a saída correspondente com acurácia confiável e o menor tempo de processamento possível. Nesse trabalho foi realizado um estudo de diferentes técnicas de processamento de sinais de EEG, e o desenvolvimento de um sistema de reconhecimento de padrões de sinais de EEG sob estimulação visual (Potenciais Evocados Visuais de Regime Permanente - PEVRP). Utilizando apenas técnicas de código aberto e a linguagem Python de programação, foram desenvolvidos módulos para realizar o gerenciamento de datasets, redução de ruído, extração de características e classificação de sinais de EEG, e um estudo comparativo de diferentes técnicas foi realizado, utilizando-se bancos de filtros e a Transformada Wavelet Discreta (DWT) como abordagens de extração de características, e os classificadores K-Nearest Neighbors, Perceptron Multicamadas e Random Forests. Utilizando-se a DWT juntamente com Random Forests e Perceptron Multicamadas, altas taxas de acurácia de até 92 % foram obtidas nos níveis mais profundos de decomposição. Então, o computador Raspberry Pi, de pequenas dimensões, foi utilizado para realizar a avaliação do tempo de processamento, obtendo um baixo tempo de processamento para todos os classificadores. Este trabalho é um estudo preliminar em ICMs no Laboratório de Instrumentação e Engenharia Biomédica e, no futuro, pode ser parte de um sistema ICM completo.
290

Feridas complexas: classificação de tecidos, segmentação e mensuração com o classificador Optimun-Path Forest / Complex wounds: tissue classification, segmentation and measurement with the Optimum-Path Forest classifier

Pereira, Talita de Azevedo Coelho Furquim 23 February 2018 (has links)
Submitted by Talita De Azevedo Coelho Furquim Pereira (talitapereira@bauru.sp.gov.br) on 2018-04-24T00:47:22Z No. of bitstreams: 1 Dissertação - final repositório.pdf: 1807192 bytes, checksum: 3197e207676b603a47d2146acf83b045 (MD5) / Approved for entry into archive by ROSANGELA APARECIDA LOBO null (rosangelalobo@btu.unesp.br) on 2018-04-26T16:58:24Z (GMT) No. of bitstreams: 1 pereira_tacf_me_bot.pdf: 1807192 bytes, checksum: 3197e207676b603a47d2146acf83b045 (MD5) / Made available in DSpace on 2018-04-26T16:58:24Z (GMT). No. of bitstreams: 1 pereira_tacf_me_bot.pdf: 1807192 bytes, checksum: 3197e207676b603a47d2146acf83b045 (MD5) Previous issue date: 2018-02-23 / Introdução: As feridas complexas apresentam difícil resolução e associam-se a perda cutânea extensa, infecções importantes, comprometimento da viabilidade dos tecidos e/ou associação com doenças sistêmicas que prejudicam os processos normais de cicatrização, cursam com elevada morbimortalidade e têm sido apontadas como grave problema de saúde pública. Na prática clínica, é importante avaliar as feridas e documentar a avaliação. O registro incompleto sobre o paciente e o tratamento em uso é apontado como um desafio no acompanhamento das feridas e também prejudica ações de gestão, pesquisa e educação. A incorporação de fotografias de feridas à pratica profissional, mostra-se como uma estratégia para auxiliar profissionais na observação, evolução e registro claro e preciso. O Optimum-Path Forest (OPF) é um framework para o desenvolvimento de técnicas de reconhecimento de padrões baseado em partições de caminhos ótimos e particularmente eficiente para a classificação de imagens. O classificador OPF gera resultados a partir do cruzamento das classes e características selecionadas. Objetivo: Descrever as etapas do desenvolvimento de um aplicativo para dispositivos móveis capaz de segmentar e classificar tecidos de feridas complexas baseado no Optimum-Path Forest (OPF) supervisionado. Método: Foi aplicada uma nova metodologia inteligente para análise e classificação de imagens de feridas complexas por meio de técnicas de processamento digital de imagens e aprendizado de máquina com o classificador de padrões Optimum-Path Forest (OPF) supervisionado. Criou-se o banco de imagens de 27 feridas complexas, que foram rotuladas por quatro especialistas conforme a classificação dos tecidos em quatro classes: granulação (vermelho), tecido fibrinóide (amarelo), necrose (preto) e hematoma (roxo), gerando 108 imagens rotuladas. Acrescentou-se duas classes: branco (o que está na foto, exceto o leito da ferida) e dúvida (divergência na classificação pelos profissionais). O classificador OPF foi treinado a partir dessas 108 imagens. Aplicou-se o OPF às imagens de feridas e verificou-se a acurácia. Em seguida, iniciou-se a construção do aplicativo. Resultados e Discussão: O presente estudo desenvolveu um esquema de classificação de tecido de feridas assistido por computador para avaliação e gerenciamento de feridas complexas, a partir de fotos de feridas da câmera digital de um smartphone. A aplicação do OPF a feridas complexas trouxe como resultado uma acurácia de 77,52% ± 6,14. Com esta ferramenta, foi desenvolvido como produto desta pesquisa um aplicativo para segmentação, classificação de tecidos e mensuração de feridas complexas. O aplicativo gera um relatório no formato Portable Document Format (PDF) que pode ser enviado por e-mail, impresso ou anexado a prontuário eletrônico compatível. Conclusão: Foi construído um banco com 27 imagens de feridas complexas, que quatro profissionais rotularam para treinamento do classificador OPF, aplicou-se o OPF às imagens de feridas complexas, avaliou-se a acurácia deste processo e desenvolveu-se um aplicativo para dispositivos móveis com as funções de segmentação da ferida, classificação de tecidos e mensuração da ferida. Os resultados mostraram que o valor da acurácia obtido na análise computacional teve valor significativo, equiparando-se a avaliação de especialistas em feridas. Comparando com estudos similares, a análise computacional de feridas mostrou-se com menor variabilidade em relação a avaliação de profissionais, sugerindo que a incorporação desta tecnologia na prática clínica favoreça o cuidado em saúde do paciente com feridas complexas, além de fornecer dados para a gestão, ensino e pesquisa. / Introduction: Complex wounds are difficult to resolve and are associated with extensive cutaneous loss, major infections, compromised tissue viability and / or are related to systemic diseases that impair normal healing processes, have high morbidity and mortality and have been identified as severe public health problem. In clinical practice, it is important to evaluate the wounds and document the evaluation. The incomplete record on the patient and the treatment in use is pointed out as a challenge in the follow up of the wounds and also impairs management, research and education actions. The incorporation of wounds’ photos in the professional practice, stands out as a strategy to assist professionals in the observation, evolution and clear and precise recording. Optimum-Path Forest (OPF) is a framework for the development of pattern recognition techniques based on optimal path partitions and is particularly efficient for image classification. The OPF classifier generates results from the intersection of the selected classes and characteristics. Objective: Describe the steps in developing a mobile application capable of segmenting and sorting complex wound tissue based on the supervised Optimum-Path Forest (OPF). Method: A new intelligent methodology was applied for the analysis and classification of complex wound images using digital image processing and machine learning techniques with the supervised Optimum-Path Forest (OPF) standards classifier. The image bank of 27 complex wounds was created, which were labeled by four specialists according to the classification of the tissues into four classes: granulation (red), fibrinoid (yellow) tissue, necrosis (black) and hematoma (purple), generating 108 images. Two classes were added: white (what is in the photo, except the wound bed) and doubt (divergence in classification by professionals). The OPF classifier was trained from these 108 images. The OPF was applied to the wound images and the accuracy was verified. Then, the application developing process was started. Results and Discussion: The present study developed a computer-aided wound tissue classification scheme for evaluation and management of complex wounds from photos of a smartphone. The OPF application to complex wounds resulted in an accuracy of 77.52 ± 6.14. With this 4 tool, it was developed the product of this research: an application for segmentation, tissue classification and measurement of complex wounds. The application generates a Portable Document Format (PDF) report that can be emailed, printed or attached to a compatible electronic medical record. Conclusion: A bank was made with 27 images of complex wounds, which four professionals labeled for training the OPF classifier, applied the OPF to complex wound images, assessed the accuracy of this process and developed a mobile application with the functions of wound segmentation, tissue classification and wound measurement. The results showed that the value of the accuracy obtained in the computational analysis had a significant value, being equal to the evaluation of specialists in wounds. Comparing to similar studies, the computational analysis of wounds showed less variability than professionals´ evaluation, suggesting that the incorporation of this technology in clinical practice favors the health care of patients with complex wounds, besides providing data for the management, teaching and research.

Page generated in 0.0615 seconds