• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 343
  • 113
  • 42
  • 8
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 511
  • 175
  • 142
  • 67
  • 47
  • 43
  • 38
  • 38
  • 37
  • 36
  • 36
  • 34
  • 34
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Agrupamento baseado em kernel com ponderação automática das variáveis via distâncias adaptativas

FERREIRA, Marcelo Rodrigo Portela 22 July 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T19:12:53Z No. of bitstreams: 2 Tese MarceloFerreira.pdf: 1069107 bytes, checksum: 2595b3cb94f5f37295b6c52cdd1c905f (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T19:12:53Z (GMT). No. of bitstreams: 2 Tese MarceloFerreira.pdf: 1069107 bytes, checksum: 2595b3cb94f5f37295b6c52cdd1c905f (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-07-22 / Nesta tese de doutorado, propomos métodos de agrupamento baseados em funções kernel com ponderação automática das variáveis através de distâncias adaptativas onde medidas de dissimilaridade são obtidas como somas de distâncias Euclidianas entre padrões e protótipos calculadas individualmente para cada variável através de funções kernel. A principal vantagem da abordagem proposta sobre os métodos de agrupamento baseados em kernel convencionais é a possibilidade do uso de distâncias adaptativas, as quais mudam a cada iteração do algoritmo e podem ser a mesma para todos os grupos ou diferentes de um grupo para outro. Este tipo de medida de dissimilaridade é adequado ao aprendizado dos pesos das variáveis dinamicamente durante o processo de agrupamento, levando a uma melhora do desempenho dos algoritmos. Outra vantagem da abordagem proposta é que ela permite a introdução de diversas ferramentas para interpretação de partições e grupos. Experimentos com conjuntos de dados simulados e reais mostram a utilidade dos algoritmos propostos e o mérito das ferramentas de interpretação de partições e grupos.
232

Indexação automática no Brasil no âmbito da Ciência da Informação (1973-2012)

Lapa, Remi Correia 21 March 2014 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-10T17:17:21Z No. of bitstreams: 2 DISSERTAÇÃO Remi Correia Lapa.pdf: 2223402 bytes, checksum: dd88f3139833477d6424239358425d0a (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-10T17:17:21Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Remi Correia Lapa.pdf: 2223402 bytes, checksum: dd88f3139833477d6424239358425d0a (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-03-21 / CAPES / Apresenta um panorama no âmbito da Ciência da Informação no Brasil referente aos estudos sobre a Indexação Automática por meio do mapeamento e análise da produção acadêmica e científica nacional no período de 1973 a 2012. Como objetivos específicos, procura coletar um corpus de análise e caracterizar as pesquisas analisadas quanto aos aspectos metodológicos e de conteúdo; realizar estudos de análise bibliométrica no corpus levantado, observando as publicações por autoria, instituições publicadoras, ano, fonte de publicação e instituições acadêmicas; realizar análise de conteúdo observando as publicações pelas categorias: objetivos e aspectos metodológicos. A metodologia consiste em um estudo bibliográfico aprofundado de caráter qualitativo e quantitativo sobre a produção literária no Brasil a respeito da indexação automática de textos escritos no idioma português. O corpus de análise para a realização das análises bibliométricas e de conteúdo, é composto de documentos na língua portuguesa, tais como: livros, artigos de periódicos científicos, anais publicados em congressos e seminários, e literaturas cinzentas. Os resultados bibliométricos mostram: a autora Fujita como maior produtora no tema; a revista Ciência da Informação como a que mais publicou sobre a indexação automática; a maior parte da produção se concentra no século XXI; o periódico como a fonte de informação mais utilizada pelos autores como meio de divulgação; a Universidade de Brasília como a instituição acadêmica que mais produziu trabalhos. Os resultados mais representativos da análise de conteúdo mostram que: 35% dos trabalhos realizaram revisão bibliográfica, em relação aos sistemas/métodos/fórmulas a maioria dos trabalhos de indexação automática, 23%, realizou aplicação e proposição, a proposição corresponde a 20%, e 21% realizaram aplicação; os sistemas como o objeto de estudo mais avaliado, e a comparação com a indexação manual como o método de avaliação mais usado; o texto completo como a natureza do corpus mais pesquisado; o trabalho científico como a tipologia do corpus mais estudada; a indexação semi-automática como procedimento mais aplicado na validação dos termos, sendo ultrapassada nos estudos dos últimos dez anos pela indexação automática; o processo de atribuição como o meio mais adotado para identificar os termos; o texto não estruturado como a entrada de dados preferida nos sistemas; a linguagem natural como a natureza da linguagem, os termos compostos como a natureza dos termos mais pesquisados; a análise estatística como o método de pesquisa mais utilizado na seleção dos termos. Este estudo propõe ser base de trabalhos futuros na aplicação dos métodos analisados ou na construção de novos métodos de indexação automática.
233

Seleção de casos de teste com restrição de custo de execução utilizando otimização por enxame de partículas

Soares de Souza, Luciano 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:49:31Z (GMT). No. of bitstreams: 2 arquivo1252_1.pdf: 1197397 bytes, checksum: 95159c131dcb5fed48e21ab1ea96a5ef (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Seleção automática de casos de teste (CTs) é uma tarefa importante para melhora da eficiência das atividades de Testes de Software. Essa tarefa pode ser tratada como um problema de otimização, cujo objetivo é encontrar um subconjunto de CTs que maximizem um dado critério de teste. No nosso trabalho, o critério de testes é a cobertura de requisitos funcionais formalmente especificados, e, além dele, o custo (esforço de execução) também é levado em consideração no processo de seleção. Mesmo sendo um aspecto importante, o esforço de execução ainda é negligenciado por outros trabalhos na área de seleção automática de CTs. Nesse trabalho, utilizamos o algoritmo conhecido como como Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO), ainda não investigado na resolução desse tipo de problema, para criação de uma ferramenta de seleção automática de CTs. Nela, o esforço de execução é utilizado como um limiar no processo de seleção, onde, dada uma suíte de testes, busca-se selecionar um subconjunto de casos de testes que não ultrapassem esse limiar e que maximizem a cobertura de requisitos funcionais. Para tanto, o esforço de execução foi considerado uma restrição ao problema de otimização e a cobertura de requisitos como a função de fitness. Nessa ferramenta, sete módulos (que implementavam outras técnicas de busca), foram desenvolvidos e seus desempenhos comparados através de experimentos onde foi possível oberservar o bom desempenho do PSO se comparado às outras técnicas
234

Recuperação de informação em documentos jurídicos com expansão de consulta baseada em tesauro

José Batista Antunes, Eugênio 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:57:48Z (GMT). No. of bitstreams: 2 arquivo3228_1.pdf: 3377110 bytes, checksum: 34d0ca270e038c720faf86d12e82accd (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Ministério Público de Pernambuco / O advento do processo judicial eletrônico vem tomando força e se tornando realidade em diversos tribunais e entidades operadoras do direito no Brasil, notadamente após a sanção da Lei Nº 11.419, que dispõe sobre a informatização do processo judicial, admitindo o uso de meio eletrônico para sua tramitação. Tal fato vem impulsionando diversos tribunais e entidades operadoras do direito nessa direção. Na medida em que criam uma infraestrutura adequada às novas exigências legais, as organizações que operam com direito no Brasil tenderão a aderir amplamente ao processo judicial eletrônico, já sendo este uma realidade em boa parte destas organizações. Neste contexto, surge a necessidade de se prover acesso fácil e rápido a documentos jurídicos, informação e conhecimento útil e relevante em extensos repositórios digitais. Assim sendo, o objetivo mais amplo desta pesquisa foi a construção de um Sistema de Recuperação de Informação que indexa documentos textuais da área jurídica, acrescido de um módulo de reformulação de consulta através da técnica de expansão automática pela utilização de um Tesauro do mesmo domínio da base de documentos textuais. O protótipo foi implementado tendo por base a ferramenta LUCENE (Apache), usando o modelo espaço vetorial. O sistema indexou um corpus de 193 (cento e noventa e três) documentos jurídicos reais. Os experimentos comparativos foram realizados tendo por objetivo medir o desempenho do sistema com consultas contendo apenas os termos originais do usuário versus consultas expandidas via uso de um tesauro jurídico. Foram realizadas 5 (cinco) consultas (originais e expandidas), e foi observado que as consultas expandidas melhoraram o desempenho do sistema em relação às consultas originais
235

Gerando acompanhamento rítmico automático para violão : estudo de caso do Cyber-João

Leal de Melo Daltia, Marcio January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:04Z (GMT). No. of bitstreams: 2 arquivo4827_1.pdf: 1875080 bytes, checksum: 09ee6a6168bda66551c83bd5e401ac9c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Apesar de seu potencial uso em programas de acompanhamento e composição musicais, a geração automática de ritmo não tem sido muito discutida na literatura de computação musical. Essa tarefa é bastante difícil de modelar devido ao pouco conhecimento formal sobre essa dimensão musical: os músicos explicam suas escolhas rítmicas em alto nível, a partir de critérios abstratos como swing, por exemplo, não sendo capazes de fornecer regras objetivas que elucidem suas decisões em granularidade de notas. Além disso, ao contrário de tarefas como a geração de harmonia, que são facilitadas pela disponibilidade de uma extensa bibliografia em teoria musical, pouco existe sobre ritmos como acompanhamento. De fato, a própria literatura disponível deixa a entender que essa dimensão musical é mais associada à subjetividade. Este trabalho apresenta um sistema que gera acompanhamento rítmico para violão automaticamente. Para minimizar os efeitos da dificuldade de formalização do conhecimento, o sistema faz uso de uma abordagem bastante natural em música, o reuso contextualizado de padrões rítmicos encontrados em performances de músicos de renome. Para isso, foram combinadas duas técnicas de inteligência artificial: raciocínio baseado em casos, para a modelagem da memória musical (associação de padrões rítmicos e o contexto onde devem ser usado) e raciocínio dedutivo baseado em regras, para associar intenções abstratas às características contextuais dos padrões. Como estudo de caso, foi desenvolvido o Cyber-João, um programa capaz de gerar acompanhamento rítmico para Bossa Nova encadeando e adaptando padrões rítmicos encontrados em gravações clássicas de João Gilberto. Por fim, o modelo do Cyber-João foi comparado empiricamente com algumas outras abordagens implementadas para a resolução do problema, demonstrando um desempenho bastante satisfatório
236

CinBalada - Um Laboratório Rítmico

SAMPAIO, Pablo Azevedo January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:33Z (GMT). No. of bitstreams: 2 arquivo5181_1.pdf: 1184605 bytes, checksum: 126b987bd1914d10d9015c992ffb8fc9 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A Inteligência Artificial tem um longo histórico de colaboração com as pesquisas em Computação Musical. Dos trabalhos produzidos nessa interseção entre as duas áreas, a maior parte se voltou para o problema da composição automática de elementos musicais. Esses trabalhos historicamente deram preferência para a geração de harmonia e melodia, enquanto a composição de elementos rítmicos percussivos é pouco tratada na literatura. Neste trabalho, apresentamos o sistema de composição rítmica polifônica CInBalada. Este sistema é composto por agentes percussionistas inteligentes tocando em conjunto. O sistema utiliza uma base de padrões rítmicos monofônicos pré-gravados que os agentes, por meio de negociação, buscam combinar para criar performances polifônicas diversas. Para organizar as interações entre os agentes, propusemos aqui o conceito de papel rítmico, que é a função exercida por um instrumento de percussão em uma performance. Um papel rítmico define diversos critérios de seleção dos padrões rítmicos de um instrumento. Os critérios controlam tanto propriedades individuais dos padrões como a adequação destes ao contexto da performance. Para implementar os critérios definidos pelos papéis rítmicos, foram utilizadas diversas medidas de análise e comparação de padrões rítmicos encontradas na literatura, além de outras medidas que propomos aqui. No final deste trabalho, apresentamos os resultados de um experimento onde mostramos que o CInBalada conseguiu atingir os objetivos propostos
237

Uma metodologia de busca por redes neurais artificiais quase-ótimas

ALMEIDA, Leandro Maciel January 2007 (has links)
Made available in DSpace on 2014-06-12T16:00:15Z (GMT). No. of bitstreams: 2 arquivo6168_1.pdf: 990535 bytes, checksum: d789111179e03d1c60d3ba9fb8042bf2 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Este trabalho propõe uma metodologia de busca automática por Redes Neurais Artificiais (RNA) quase-ótimas para problemas de classificação. A metodologia tem o intuito de buscar redes com arquitetura simples, com aprendizagem rápida e com boa capacidade de classificação, ou seja, redes quase-ótimas. A motivação para o desenvolvimento do presente trabalho está centralizada nas dificuldades de encontrar manualmente RNAs quase-ótimas. Essas dificuldades são ocasionadas pelo grande número de parâmetros de RNAs que necessitam de ajustes para que haja uma correlação entre esses parâmetros, a fim de contribuir para que redes estruturalmente simples e com alto desempenho possam ser encontradas. A busca automática por redes quase-ótimas engloba informações como pesos iniciais, camadas escondidas, nodos por camada, tipos de funções de ativação e algoritmos de aprendizagem para redes Multi-Layer Perceptron (MLP), completamente conectadas. O mecanismo de busca é composto por uma combinação de Algoritmos Genéticos (AG) e de RNAs. Nessa combinação, primeiramente é executada uma busca global pelos parâmetros de RNAs, posteriormente executa-se uma busca local com RNAs por meio de seus algoritmos de aprendizagem, para refinar e avaliar a solução encontrada. Essa forma de busca é consagrada e apresentou bons resultados em outros trabalhos encontrados na literatura. O diferencial do método desenvolvido é o foco na simplificação de arquiteturas com um alto desempenho de classificação, exigindo poucas épocas de treinamento. Com o método desenvolvido foram realizados experimentos em cinco domínios de problemas conhecidos, a saber: Câncer, Vidros, Coração, Cavalos e Diabetes. Os resultados apontam uma melhor eficácia do método desenvolvido na busca por redes quase-ótimas perante o método de busca manual e também em relação a outros métodos da literatura. As redes encontradas para cada um dos domínios de problemas apresentam uma baixa complexidade e também um baixo erro de classificação. Esses resultados são extremamente importantes para mostrar a capacidade do método desenvolvido e justificar o esforço investido no desenvolvimento de métodos de busca por RNAs quase-ótimas
238

Diferenciação automática de matrizes Hessianas / Automatic differentiation of hessian matrices

Gower, Robert Mansel 18 August 2018 (has links)
Orientador: Margarida Pinheiro Mello / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-18T06:57:47Z (GMT). No. of bitstreams: 1 Gower_RobertMansel_M.pdf: 908087 bytes, checksum: f8067f63c68dadafecf74e1387966331 (MD5) Previous issue date: 2011 / Resumo: Dentro do contexto de programação não linear, vários algoritmos resumem-se à aplicação do método de Netwon aos sistemas constituídos pelas condições de primeira ordem de Lagrange. Nesta classe de métodos é necessário calcular a matriz hessiana. Nosso foco é o cálculo exato, dentro da precisão da máquina, de matrizes hessianas usando diferenciação automática. Para esse fim, exploramos o cálculo da matriz hessiana sob dois pontos de vista. O primeiro é um modelo de grafo que foca nas simetrias que ocorrem no processo do cálculo da hessiana. Este ângulo propicia a intuição de como deve ser calculada a hessiana e leva ao desenvolvimento de um novo método de modo reverso para o cálculo de matrizes hessianas denominado edge pushing. O segundo ponto de vista é uma representação puramente algébrica que reduz o cálculo da hessiana à avaliação de uma expressão. Esta expressão pode ser usada para demonstrar algoritmos já existentes e projetar novos. Para ilustrar, deduzimos dois novos algoritmos, edge pushing e um novo algoritmo de modo direto, e uma série de outros métodos conhecidos [1], [20, p.157] e [9]. Apresentamos estudos teóricos e empíricos sobre o algoritmo edge pushing. Analisamos sua complexidade temporal e de uso de memória. Implementamos o algoritmo como um driver do pacote ADOL-C [19] e efetuamos testes computacionais, comparando sua performance com à de dois outros drivers em dezesseis problemas da coleção CUTE [5]. Os resultados indicam que o novo algoritmo é muito promissor. Pequenas modificações em edge pushing produzem um novo algoritmo, edge pushing sp, para o cálculo da esparsidade de matrizes hessianas, um passo necessário de uma classe de métodos que calculam a matriz hessiana usando colorações de grafos, [14, 19, 30]. Estudos de complexidade e testes numéricos são realizados comparando o novo método contra um outro recentemente desenvolvido [30] e os testes favorecem o novo algoritmo edge pushing sp. No capítulo final, motivado pela disponibilidade crescente de computadores com multiprocesadores, investigamos o processamento em paralelo do cálculo de matrizes hessianas. Examinamos o cálculo em paralelo de matrizes hessianas de funções parcialmente separáveis. Apresentamos uma abordagem desenvolvida para o cômputo em paralelo que pode ser usando em conjunto com qualquer método de cálculo de hessiana e outra estratégia específica para métodos de modo reverso. Testes são executados em um computador com memória compartilhada usando a interface de programação de aplicativo OpenMP / Abstract: In the context of nonlinear programming, many algorithms boil down to the application of Newton's method to the system constituted by the first order Lagrangian conditions. The calculation of Hessian matrices is necessary in this class of solvers. Our focus is on the exact calculation, within machine precision, of Hessian matrices through automatic differentiation. To this end, we detail the calculations of the Hessian matrix under two points of view. The first is an intuitive graph model that focuses on what symmetries occur throughout the Hessian calculation. This provides insight on how one should calculate the Hessian matrix, and we use this enlightened perspective to deduce a new reverse Hessian algorithm called edge pushing. The second viewpoint is a purely algebraic representation of the Hessian calculation via a closed formula. This formula can be used to demonstrate existing algorithms and design new ones. In order to illustrate, we deduce two new algorithms, edge pushing and a new forward algorithm, and a series of other known Hessian methods [1], [20, p.157] and [9]. We present theoretical and empirical studies of the edge pushing algorithm, establishing memory and temporal bounds, and comparing the performance of its computer implementation against that of two algorithms available as drivers of the software ADOL-C [14, 19, 30] on sixteen functions from the CUTE collection [5]. Test results indicate that the new algorithm is very promising. As a by-product of the edge pushing algorithm, we obtain an efficient algorithm, edge pushing sp, for automatically obtaining the sparsity pattern of Hessian matrices, a necessary step in a class of methods used for computing Hessian matrices via graph coloring, [14, 19, 30]. Complexity bounds are developed and numerical tests are carried out comparing the new sparsity detection algorithm against a recently developed method [30] and the results favor the new edge pushing sp algorithm. In the final chapter, motivated by the increasing commercial availability of multiprocessors, we investigate the implementation of parallel versions of the edge pushing algorithm. We address the concurrent calculation of Hessian matrices of partially separable functions. This includes a general approach to be used in conjunction with any Hessian software, and a strategy specific to reverse Hessian methods. Tests are carried out on a shared memory computer using the OpenMP paradigm / Mestrado / Analise Numerica / Mestre em Matemática Aplicada
239

Classificação automática de sinais visuais da Língua Brasileira de Sinais representados por caracterização espaço-temporal / Automatic visual sign classification of Brazilian Sign Language represented by spatio-temporal features

Machado, Marcelo Chamy, 92 98112-4545 27 August 2018 (has links)
Submitted by Marcelo Machado (marcelo.chamy@icomp.ufam.edu.br) on 2018-09-28T19:34:42Z No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) _dissertacao_MarceloChamy_2018_versao_final.pdf: 6880495 bytes, checksum: 5006699b235a438f9ffef67b4013e2fa (MD5) Folha_de_Aprovacao.pdf: 329467 bytes, checksum: a5d4697348f9714ffcbcab61af88f22c (MD5) / Approved for entry into archive by Secretaria PPGI (secretariappgi@icomp.ufam.edu.br) on 2018-10-01T17:46:07Z (GMT) No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) _dissertacao_MarceloChamy_2018_versao_final.pdf: 6880495 bytes, checksum: 5006699b235a438f9ffef67b4013e2fa (MD5) Folha_de_Aprovacao.pdf: 329467 bytes, checksum: a5d4697348f9714ffcbcab61af88f22c (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-10-01T19:23:04Z (GMT) No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) _dissertacao_MarceloChamy_2018_versao_final.pdf: 6880495 bytes, checksum: 5006699b235a438f9ffef67b4013e2fa (MD5) Folha_de_Aprovacao.pdf: 329467 bytes, checksum: a5d4697348f9714ffcbcab61af88f22c (MD5) / Made available in DSpace on 2018-10-01T19:23:04Z (GMT). No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) _dissertacao_MarceloChamy_2018_versao_final.pdf: 6880495 bytes, checksum: 5006699b235a438f9ffef67b4013e2fa (MD5) Folha_de_Aprovacao.pdf: 329467 bytes, checksum: a5d4697348f9714ffcbcab61af88f22c (MD5) Previous issue date: 2018-08-27 / The automatic translation of the Brasilian Sign Languagem (LIBRAS) into Portuguese is a very complex problem, due to the peculiarities and characteristics of this sign language. Several researches have already been carried out and important results have been obtained. However, most of the proposed methods recognize only letters and numbers, or a reduced number of words. In addition, due to such limitations, the results of these researches are still insufficient to enable communication with deaf people without the dependency of interpreters, and basic services such as education and health need these professionals to meet the demand for care of the hearing impaired. Another problem faced on trying to envision solutions is the lack of a public database containing a significant number of signals, labeled by experts in this area. Finally, deep learning techniques have been used to solve many computer vision problems, but we have not found any work directly related to the automatic classification of LIBRAS. In light of these observations, this work uses a method based on deep convolutional 3D neural network, extracted spatiotemporal characteristics, strategy of transfer learning and depth data associated with RGB, to perform the classification of the most common LIBRAS signs used in the literacy of deaf people. In addition, another important contribution is the generated labeled database, composed of 510 instances, all representing dynamic signals, given that there is no LIBRAS database available with such an amount of samples. / A tradução automática da Língua Brasileira de Sinais (LIBRAS) para o português é um problema bastante complexo, devido às particularidades e características desta linguagem de sinais. Diversas pesquisas já foram realizadas e resultados importantes foram obtidos. Porém, a maioria dos métodos propostos reconhece somente letras e números, ou uma quantidade reduzida de palavras. Além disso, devido a essas limitações, os resultados dessas pesquisas ainda não são suficientes para tornar possível a comunicação com os surdos sem a dependência de intérpretes, e os serviços básicos como educação e saúde necessitam desses profissionais para suprirem a demanda de atendimento a deficientes auditivos. Outro problema enfrentado ao tentar vislumbrar soluções é a inexistência de uma base de dados pública que contenha um número significativo de sinais rotulados por especialistas desta área. Por fim, técnicas de aprendizado profundo têm sido utilizadas para resolver muitos problemas de visão computacional, mas não foram encontrados trabalhos diretamente relacionados à classificação automática da LIBRAS utilizando tais técnicas. Diante dessas observações, este trabalho utiliza um método baseado em rede neural profunda convolutiva em 3 dimensões (3D), características espaços-temporais extraídas, estratégia de transferência de aprendizado e dados de profundidade associados aos do tipo Red, Green, Blue (RGB), para realizar a classificação dos sinais da LIBRAS mais comuns empregados na alfabetização de surdos. Além disso, outra contribuição importante é a base de dados gerada e rotulada, composta por 510 instâncias, todas representando sinais dinâmicos, dada a inexistência de bases de vídeos da LIBRAS com essa quantidade de amostras.
240

Teste de nomeação automática rápida : evidências de validade para amostra de crianças brasileiras

Silva, Patricia Botelho da 10 December 2015 (has links)
Submitted by Daniela Ribeiro (daniela.ribeiro@mackenzie.br) on 2016-10-01T16:48:19Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Patricia Botelho da Silva.pdf: 1154151 bytes, checksum: e817360a453aac2617d0945d66fe293d (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2016-10-03T13:42:19Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Patricia Botelho da Silva.pdf: 1154151 bytes, checksum: e817360a453aac2617d0945d66fe293d (MD5) / Made available in DSpace on 2016-10-03T13:42:19Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Patricia Botelho da Silva.pdf: 1154151 bytes, checksum: e817360a453aac2617d0945d66fe293d (MD5) Previous issue date: 2015-12-10 / The reading learning depends on precursor skills such as phonological awareness and rapid automatized naming. Rapid automatic naming of evidence are tied to reading fluency. The aim of the study were to verify evidence of validity based on external criteria from the development trends based on the age criterion of the Rapid Automatic Naming Test (RAN) in a sample of children from the school elementary; correlating the test with attention tasks, bucofacial articulation, phonological awareness and reading and writing in Portuguese; verify the predictive effect of NAR and analysis test precision aspects through test-retest analysis. The study included 494 children 3-9 years of age in the states of São Paulo and Maranhão. Reading and writing test were applied; phonological awareness; articulatory precision; attention and intelligence. To check evidence of instrument validity, variance analyzes were conducted with age, gender and type of school as independent variables. There was no gender difference. Multivariate ANOVA revealed that RAN develops with age, with both speed and number of errors decreases with age. In addition, ANOVA repeated measures revealed that naming colors and objects presents naming speed greater than naming letters and numbers. This data shows that the semantic set depends on longer appointment than the phonological set. Also, correlations between the tests and NAR correlated with all tests were performed. Linear regression analysis showed that NAR has predictive power for both preschool and for the elementary school I also found higher predictive effect of NAR with regard to accuracy of data and precision in reading and writing than in relation to speed. Furthermore, the NAR test was reliable. / O aprendizado da leitura depende de habilidades precursoras como a nomeação automática rápida. As provas de nomeação rápida predizem aspectos ligados à fluência de leitura. Os objetivos do estudo são: verificar evidências de validade baseadas no critério externo a partir de tendências do desenvolvimento em função do critério idade do Teste de Nomeação Automática Rápida (NAR) em uma amostra de crianças pertencentes ao Ensino Infantil e ao Ensino Fundamental I; correlacionar o teste com tarefas de atenção, articulação bucofacial, consciência fonológica e leitura e escrita em português; verificar o efeito preditivo da NAR; e verificar aspectos de precisão do teste através de analise teste-reteste. Participaram do estudo 494 crianças de 3 a 9 anos de idade dos Estados de São Paulo e Maranhão. Para verificar evidências de validade do instrumento, foram conduzidas análises de variância tendo idade, gênero e tipo de escola como variáveis independentes. Não houve diferença de gênero. Anova multivariada revelou que NAR se desenvolve com a idade, sendo tanto velocidade quanto número de erros diminui conforme a idade. Além disso, Anova de medidas repetidas revelou que nomeação de cores e objetos apresenta velocidade de nomeação maior do que nomeação de letras e números. Esse dado mostra que o conjunto semântico depende de maior tempo de nomeação do que o conjunto fonológico. Além disso, foram realizadas correlações entre os testes e NAR correlacionou-se com todos os testes aplicados. Análises de Regressão Linear mostrou que NAR apresenta capacidade preditiva tanto para pré-escolares quanto para o ensino fundamental I. Além disso, foi encontrado efeito preditivo maior de NAR em relação aos dados de acurácia e precisão em leitura e escrita, do que em relação à velocidade. Além disso, o teste NAR mostrou-se fidedigno.

Page generated in 0.0543 seconds