• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 269
  • 11
  • 7
  • 6
  • 6
  • 6
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 370
  • 166
  • 60
  • 54
  • 52
  • 48
  • 43
  • 40
  • 32
  • 31
  • 30
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

A tradução de jogos de palavras no romance O Xangô de Baker Street: uma revisão do quadro de estratégias de Delabastita com o auxílio da Linguística de Corpus / The translation of wordplays in the novel O xangô de Baker Street: a review of Delabastitas framework with the support of Corpus Linguistics.

Nilson Roberto Barros da Silva 24 August 2015 (has links)
Esta tese analisa a tradução de jogos de palavras do romance O xangô de Baker Street (SOARES, 1995), traduzido para o inglês por Clifford Landers em 1997, e o faz com base no quadro de estratégias de tradução de jogos de palavras apresentado por Delabastita (1996). O corpus de estudo é composto pelo romance citado mais a sua tradução para a língua inglesa, A samba for Sherlock. Esta investigação utiliza a abordagem teórico-metodológica da Linguística de Corpus e se caracteriza como um estudo direcionado pelo corpus (TOGNINI-BONELLI, 2001), uma vez que os dados analisados foram evidenciados a partir da exploração de linhas de concordância elaboradas com palavras-chave do corpus de estudo. A exploração do corpus de estudo (de modo especial, a geração e a análise da lista de palavras-chave e das linhas de concordância, bem como o alinhamento do corpus nas duas línguas português e inglês) contou com o auxílio do programa WordSmith Tools 6.0 (SCOTT, 2012), desenvolvido especialmente para a análise lexical. A análise das traduções demonstrou que o quadro de estratégias apresentado por Delabastita (1996) dá conta apenas de parte dos procedimentos observados na tradução dos jogos de palavras investigados. Em decorrência disso, esta tese propõe a ampliação do quadro de estratégias apresentado pelo referido autor, por meio do acréscimo de quatro novas estratégias de tradução de jogos de palavras, quais sejam: 1) o jogo de palavras da língua-fonte é traduzido por um jogo de palavras na língua-alvo e adiciona-se uma explicação; 2) o tradutor realiza uma alteração textual (a substituição de uma palavra no texto inteiro, por exemplo) para viabilizar a tradução de um jogo de palavras; 3) o tradutor reproduz o jogo de palavras do texto-fonte no texto da língua-alvo, sem traduzilo, e adiciona uma explicação; 4) o tradutor reproduz o jogo de palavras do texto-fonte no texto da língua-alvo, sem traduzi-lo, mas suprime elementos (ou a repetição de elementos) constitutivos do jogo de palavras original. / Based on Delabastita\'s (1996) framework for wordplay translation strategies, this dissertation analyzes the translation of wordplays in the novel O Xangô de Baker Street (SOARES, 1995), translated into English by Clifford Landers in 1997. Our study corpus consists of the above mentioned novel and its translation into English, A samba for Sherlock. This research uses the theoretical and methodological approach of Corpus Linguistics and is characterized as \'corpus-driven\' (TOGNINI-BONELLI, 2001), once the data analyzed were highlighted in the concordances generated from keywords of the corpus. The exploration of the corpus (in particular, the generation and analysis of the keyword list and concordances as well as the corpus alignment in both languages - Portuguese and English) was carried out with the lexical analysis software WordSmith Tools 6.0 (SCOTT, 2012). A qualitative analysis of equivalence choices showed that Delabastita\'s (1996) framework matches only partially the procedures observed in the translation of the wordplays investigated. As a result, this dissertation proposes the expansion of Delabastitas framework by means of four new translation strategies of wordplays, as follows: 1) the source language wordplay is translated by a wordplay in the target language and an explanation is added; 2) the translator changes the text (by substituting a word in the whole text, for instance) in order to enable the translation of a wordplay; 3) the translator reproduces the source language wordplay in the target language text, without translating it, and adds an explanation; 4) the translator reproduces the source language wordplay in the target language text, without translating it, but suppresses elements (or the repetition of elements) which constitute the original wordplay.
192

Uma análise dos sufixos -ão, -ona, -aço, -aça, -uço e -uça no português brasileiro

Souza, Leoni Meyer de January 2015 (has links)
O presente trabalho apresenta um estudo de base morfológica, no qual analisamos os sufixos derivacionais -ão,-ona, -aço,-aça, -uço e –uça, tradicionalmente classificados como grau aumentativo no Português Brasileiro. Inicialmente, assumimos que a expressão do grau no Português Brasileiro é um processo de derivação e, portanto, iniciamos nossa análise dos sufixos aumentativos de acordo com os pressupostos teóricos da morfologia gerativa, especialmente em Aronoff (1976), Anderson (1982) e Basílio (2007). Selecionamos nosso corpus através de consulta ao Dicionário Eletrônico Houaiss (DEH), ao Dicionário de Usos do Português Brasileiro (DUPB) e ao mecanismo de pesquisa linguística WebCorp. Em um primeiro momento, a análise dos dados partiu da identificação das Regras de Formação de Palavras – RFPs, mas percebemos que apenas esta análise não seria suficiente para entender o semanticismo da formação derivacional com sufixos aumentativos. Por esta razão, apesar de termos o paradigma gerativo como base teórica desta dissertação, tivemos de buscar outros referenciais que nos possibilitassem realizar a matriciação semântica das bases estudadas. Assim, tendo como objetivo principal a descrição morfossemântica de palavras formadas com sufixos aumentativos, agregamos em nossa análise as construções teóricas funcionalistas de Chafe (1979) para analisar a estrutura semântica das palavras formadas com os sufixos aumentativos. Além de Chafe (1979), recorremos também ao auxílio da classificação semântica dos adjetivos apresentada por Neves (2000) para que pudéssemos analisar plenamente a semântica das bases envolvidas na formação de nosso corpus. Atribuímos categorias analíticas para os sufixos, baseadas em seus valores semânticos, como: escalar, intensificador, avaliativo. Analisamos as bases e os sufixos em separado e verificamos suas contribuições para a formação do sentido da palavra derivada. Identificamos os sufixos –ão e –aço como os mais produtivos entre os pesquisados, bem como a categoria dos substantivos como a mais produtiva em bases para a formação de aumentativos. Verificamos que as unidades semânticas da base influenciam no valor semântico assumido pelo afixo na formação de aumentativos. / En este trabajo se presenta un estudio de base morfológica, en el que se analizaron los sufijos derivativos -ão, -ona, -aço, -aça, -uco y -uça tradicionalmente clasificados como grado aumentativo en portugués de Brasil. Inicialmente, se supone que el grado de expresión en portugués brasileño es un proceso de derivación y, por lo tanto, analizamos los sufijos aumentativos de acuerdo con los supuestos teóricos de la morfología generativa, especialmente en Aronoff (1976), Anderson (1982) y Basilio (2007). Seleccionamos nuestro corpus consultando el Diccionario Electrónico Houaiss (DEH), el Diccionario de usos del Portugués Brasileño (DUPB) y el motor de búsqueda lingüística WebCorp. Así, en un primer momento, el análisis de los datos proviene de la identificación de las reglas de formación de palabras - RFP, pero nos damos cuenta de que sólo este análisis no sería suficiente para entender el semanticismo de la formación derivacional con sufijos aumentativos. Por eso, aunque tengamos el paradigma generativo como base teórica de este trabajo, tuvimos que buscar otros referenciales que nos possibilitaran realizar el análisis semántico de las bases estudiadas. Así, teniendo como objetivo justo la descripción morfosemántica de las palabras formadas con sufijos aumentativos, hemos añadido en nuestro análisis constructos teóricos funcionalistas de Chafe (1979) para analizar la estructura semántica de las palabras formadas con los sufijos aumentativos. Además de Chafe (1979), también recurrimos a la ayuda de clasificación semántica de los adjetivos de Neves (2000) para que pudiéramos analizar completamente la semántica de las bases que participan en la formación de nuestro corpus. Atribuimos categorías analíticas para los sufijos, con base en sus valores semánticos, como: escalaridade, intensificador, evaluativo. Hemos analizado las bases y sufijos en separado y comprobado su contribución a la formación del sentido de la palabra derivada. Identificamos los sufijos -ão y -aço como los más productivos entre los encuestados, así como la categoría de los sustantivos como la más productiva en las bases para la formación de aumentativos. Encontramos que las unidades semánticas de la base influyen en el valor semántico que toma el afijo en la formación de aumentativos.
193

Extração automatica de palavras-chave na lingua portuguesa aplicada a dissertações e teses da area das engenharias

Dias, Maria Abadia Lacerda 28 October 2004 (has links)
Orientador: Mauro Sergio Miskulin / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-06T11:14:40Z (GMT). No. of bitstreams: 1 Dias_MariaAbadiaLacerda_M.pdf: 1014055 bytes, checksum: 6be654aceec323e5ef0f99d61e79212d (MD5) Previous issue date: 2004 / Resumo: O objetivo desta dissertação é adaptar um algoritmo de extração automática de palavraschave para a língua portuguesa. Palavras-chave fornecem uma descrição adequada do conteúdo de um documento. Tal descrição facilita aos futuros leitores decidirem se o documento é ou não relevante para os mesmos. As palavras-chave têm também outras aplicações, já que estas resumem documentos de forma sucinta. Portanto podem ser usadas como uma medida eficiente de similaridade entre documentos, tornando possível organizá-los em grupos ao se medir a sobreposição entre as palavras-chave que estão associadas. Esta adaptação consiste na utilização de um algoritmo de radicalização de palavras na língua portuguesa, o qual foi aperfeiçoado neste estudo, e uma lista de stopwords da língua portuguesa, apresentada neste trabalho / Abstract: The goal of this dissertation is to adapt an automatic extraction algorithm of keywords for the Portuguese language. Keywords give an adequate description of a document's contents. Such description helps future readers to decide whether the document is relevant or not for them. The keywords have also other applications, because they summarize documents in a brief way. Therefore, they can be used as an efficient measure of similarity between documents, making possible to organize them in groups when measuring the overlap between the keywords they are associated to. This adaptation consists on the utilization of a stemming algorithm for words of the Portuguese language, which was improved in this study, and a list of stopwords of Portuguese language, also presented in this work / Mestrado / Eletrônica, Microeletrônica e Optoeletrônica / Mestre em Engenharia Elétrica
194

Avaliação de diferentes tecnicas para reconhecimento da fala

Martins, José Antônio 23 July 2018 (has links)
Orientador: Fabio Violaro / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-23T10:44:55Z (GMT). No. of bitstreams: 1 Martins_JoseAntonio_D.pdf: 10107406 bytes, checksum: 84fe0eb5136fa3647bc206aa2d240af1 (MD5) Previous issue date: 1997 / Resumo: Neste trabalho são avaliadas as seguintes técnicas empregadas em reconhecimento de fala: Modelos Ocultos de Markov (Discreto, Semicontínuo e Contínuo), redes " Multilayer Perceptron " e Sistemas Híbridos. Para essa avaliação, foram implementados vários reconhece dores de palavras isoladas independentes do locutor, sendo usada a mesma base de dados para todos os reconhecedores. O objetivo dessa avaliação é identificar as vantagens e desvantagens de cada técnica de modo a facilitar a escolha da técnica mais apropriada para cada aplicação de reconhecimento de fala considerando diversos aspectos como taxa de acerto, tempo de reconhecimento, tempo de treinamento, quantidade de parâmetros, tipo de algoritmo e outros. Reconhecedores implementados empregando as técnicas descritas também foram utilizados para avaliar algoritmos para detecção de início/fim de palavras, vários tipos de medidas de distorção usados em quantização vetorial e diferentes parâmetros utilizados para representar o sinal de fala. Entre esses parâmetros mostrou-se que existe uma superioridade dos parâmetros calculados usando uma escala não linear de freqüências, independentemente da técnica empregada nos reconhecedores. Discute-se também o uso da subtração da média espectral e diferenciação, as quais melhoram o desempenho dos reconhecedores. Combinando diferentes parâmetros conseguiu-se obter uma taxa de acertos de 99.47% para um reconhecedor de palavras isoladas independente do locutor e um vocabulário de 50 palavras / Abstract: This work presents an evaluation of speaker independent isolated word recognizers using Hidden Markov Models (Discrete, Continuous and Semicontinuous), Artificial Neural Networks (Multilayer Perceptron) and Hybrid Systems. All the recognizers were evaluated considering the same database. The goal of these comparisons is to identify the advantages and disadvantages of each technique used in speech recognition, considering the following features: training and recognition time, recognition accuracy, complexity of algorithms and others. It is also reported the result of a comparison among different algorithms used in word endpoints detection. Moreover, several distance measures employed in vector quantization were evaluated with regard to recognition performance. In addition, different kinds of parameters used to represent the speech signal such as LPC coefficients, Mel Frequency Cepstrum coefficients, PLP coefficients were considered in the evaluation of recognizers and it was discussed the efects of cepstral mean subtraction in order to improve the recognition accuracy. The best recognizer performance of 99.47% was obtained combining different features / Doutorado / Doutor em Engenharia Elétrica
195

Lathe-DB - integrando um mecanismo de busca por palavras-chave em SGBDs relacionais

Santos, Gilberto Eduardo, 92-98111-1766 03 April 2018 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-10T15:48:01Z No. of bitstreams: 2 Dissertacao_Gilberto.pdf: 2725589 bytes, checksum: 3a53e66d215a13f076c0fe9e613cf2c8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-10T15:48:14Z (GMT) No. of bitstreams: 2 Dissertacao_Gilberto.pdf: 2725589 bytes, checksum: 3a53e66d215a13f076c0fe9e613cf2c8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-05-10T15:48:14Z (GMT). No. of bitstreams: 2 Dissertacao_Gilberto.pdf: 2725589 bytes, checksum: 3a53e66d215a13f076c0fe9e613cf2c8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-04-03 / For many years, several researchers have proposed methods to empower the naive users, without any knowledge about query languages or database details, to perform queries in RDBMS using keywords.ystems that process queries based on keywords in RDBMS, commonly called Relational Keyword-Search - R-KwS , face the task of automatically determine, from some keywords, what information should be retrieved from the database, and how this information can be combined to provide a relevant and quality answer to the user. However a common feature, in the vast majority of current R-KwS systems, is that the implementation of these systems is usually done outside the RDBMS environment. This requires, for its operation, a separate software infrastructure, with complex installation and subsequent hard to perform maintenance. The main objective of this dissertation is integrate a search engine for keyword in a RDBMS, implementing the Lathe method, proposed in the database and information retrieval group of ICOMP, inside PostgreSQL RDBMS environment. Experiments show that the implementation of Lathe-DB, as a search engine inside the RDBMS environment, generate results very close to those of the original work, and that is a very practical, low cost, and adds value, for use the keyword search in RDBMS. / Durante muitos anos, vários pesquisadores propuseram métodos para capacitar os usuários leigos, sem qualquer conhecimento em linguagens de consulta ou sobre os bancos de dados, a realizar consultas em Sistemas Gerenciadores de Bancos de Dados - SGBD usando palavras-chave. Sistemas que processam consultas baseadas em palavras-chaves em SGBDs, comumente chamados de Relational Keyword-Search - R-KwS, enfrentam a tarefa de determinar automaticamente, a partir de algumas palavras-chave, quais informações devem ser recuperadas do banco de dados, e como essas informações podem ser combinadas para fornecer uma resposta relevante, e de qualidade, para o usuário. Porém, uma característica comum, na grande maioria dos atuais sistemas R-KwS, é que a implementação desses sistemas é feita geralmente fora do ambiente do SGBD. Isso exige, para o seu funcionamento, uma infraestrutura de software separada, com instalação complexa e posterior dificuldade para realizar manutenções. O objetivo principal desta dissertação é integrar um mecanismo de busca por palavras-chave em um SGBD, implementando o método Lathe, proposto no grupo de Banco de Dados e Recuperação da Informação do ICOMP, no ambiente do SGBD PostgreSQL. Experimentos realizados, e cujo os resultados apresentamos nessa dissertação, mostram que a implementação do Lathe-DB, como um mecanismo de busca por palavras-chaves dentro do ambiente do SGBD, geram resultados bem próximos aos do trabalho original, e que é uma forma bem prática, de baixo custo e que agrega valor, para o uso da busca por palavras-chave em SGBDs.
196

Adaptação, desenvolvimento e evidências de validade e precisão de instrumentos de avaliação dos componentes de leitura no ensino fundamental II

Brito, Gabriel Rodriguez 09 February 2017 (has links)
Submitted by Marta Toyoda (1144061@mackenzie.br) on 2017-03-16T17:25:11Z No. of bitstreams: 2 Gabriel Rodriguez Brito.pdf: 1550346 bytes, checksum: f7fd5793df66e8b3bafce5bd4123a166 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2017-04-29T16:29:47Z (GMT) No. of bitstreams: 2 Gabriel Rodriguez Brito.pdf: 1550346 bytes, checksum: f7fd5793df66e8b3bafce5bd4123a166 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-04-29T16:29:47Z (GMT). No. of bitstreams: 2 Gabriel Rodriguez Brito.pdf: 1550346 bytes, checksum: f7fd5793df66e8b3bafce5bd4123a166 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-02-09 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Reading is characterized as a complex activity. International prevalence studies indicate that students with difficulties in reading and writing match up to 17.5% of the Elementary School students, which have lower performance according to the level expected in their education. Different models have tried to explain the cognitive processes involved in the reading ability. According to the Componential Model, the reading performance involves several factors, divided into three domains: cognitive, psychological and ecological. Regarding the cognitive domain, reading with comprehension can be understood as the product of the interaction of decoding processes, comprehension and fluency. Studies have shown that the identification of possible difficulties of these abilities can provide appropriate intervention, resulting in significant improvement in the ability and therefore better performance in reading in general. Because of the lack of validated instruments for the reading evaluation in Brazil, this study was divided into three phases in order to, based on the cognitive neuropsychology, adapt and develop assessment tools for reading components focusing on the final years of elementary school. Three instruments were built and adapted on phase one: Teste de Compreensão de Palavras e Pseudopalavras II (TCLPP-II), which aims to investigate word recognition processes; Teste de Fluência de Leitura (TFL), in order to evaluate the fluency in reading single words and in texts; Teste Cloze de Compreensão de Leitura (TCCL) which aims evaluate reading comprehension in narrative and argumentative texts. On phase 2, a pilot study was made with 48 students from a State public school, 29 of them were from the 6th grade and 19 from the 9th grade. Preliminary analyzes of the study oriented modifications and corrections in the three instruments and demonstrated their applicability. In phase 3 an analysis of variance revealed that there was a significant improvement in performance with school progress in most of the measures in the three tests, a statistically significant difference between the 6th and the other grades. Overall, the measures of all tests correlated significantly with each other, with the other tests and with school performance, varying the magnitude of the correlations. As precision analyzes indicate adequate internal consistency of all instruments, especially for the initial grades of Elementary School II. Therefore, this research suggests that all three tests have an adequate psychometric effect. / A leitura é caracterizada como uma atividade complexa. Estudos internacionais de prevalência apontam que alunos com dificuldades em leitura e escrita correspondem a até 17,5% dos estudantes do Ensino Fundamental, os quais apresentam desempenho abaixo do esperado para seu nível de escolaridade, o que revela a importância de compreender melhor essa atividade e desenvolver instrumentos para sua avaliação. Diferentes modelos têm tentado explicar os processos cognitivos envolvidos na habilidade de leitura. De acordo com o Modelo Componencial, a performance em leitura envolve diversos fatores divididos em três domínios: cognitivo, psicológico e ecológico. No que tange ao domínio cognitivo, a leitura com compreensão pode ser entendida como o produto da interação de processos de decodificação, de compreensão e de fluência. Estudos demonstram que a identificação de possíveis dificuldades em cada uma dessas habilidades pode proporcionar intervenção apropriada, resultando em melhora significativa da habilidade e, consequentemente, um melhor rendimento em leitura de forma geral. Em virtude da escassez de instrumentos brasileiros validados para a avaliação da leitura no Ensino Fundamental II, o presente estudo foi dividido em 3 fases a fim de, com base na Neuropsicologia Cognitiva, adaptar e desenvolver instrumentos de avaliação dos componentes de leitura com foco nos anos finais do Ensino Fundamental. Na fase 1 foram construídos e adaptados três instrumentos: Teste de Compreensão e Leitura de Palavras e Pseudopalavras II (TCLPP-II), que visa a investigar processos de reconhecimento de palavras; Teste de Fluência de Leitura (TFL), com o objetivo de avaliar a fluência em leitura de palavras isoladas e em textos; e Teste Cloze de Compreensão de Leitura (TCCL), que visa a avaliar a compreensão em leitura de textos narrativos e dissertativos. Na fase 2 foi realizado o estudo piloto com 48 alunos de uma escola pública estadual, sendo 29 alunos do 6º ano e 19 do 9º ano. Análises preliminares do estudo orientaram modificações e correções nos três instrumentos e demonstraram a aplicabilidade dos mesmos. Na fase 3 a análise de variância revelou que houve melhora significativa de desempenho com a progressão escolar na maioria das medidas nos três testes, sendo a diferença estatisticamente significativa principalmente entre o 6º e os demais anos. De forma geral, as medidas de todos os testes correlacionaram-se de forma significativa entre si, com os demais testes e com o desempenho escolar, variando a magnitude das correlações. As análises de precisão indicam adequada consistência interna de todos os instrumentos. Portanto, essa pesquisa sugere que os três testes têm parâmetros psicométricos adequados, especialmente para as séries iniciais do Ensino Fundamental II, porém pesquisas com amostras diferentes precisam ser realizadas.
197

Efeitos de uma técnica de coloração silábica para a facilitação da leitura em crianças em processo de alfabetização / Effects of a syllabic coloring technique for reading facilitation in children in the literacy process

Wania Nogueira Lopes 07 December 2017 (has links)
O reconhecimento de palavras isoladas é uma habilidade básica e preliminar ao desenvolvimento da leitura fluente. No leitor hábil esse processo encontra-se automatizado. Parte das dificuldades de leitura está relacionada ao desenvolvimento inadequado das habilidades de decodificação (reconhecimento de palavras) que pode ter origem em dificuldades específicas do aprendiz, mas também nas metodologias e materiais utilizados no ensino da leitura e escrita. Assim, o propósito deste estudo foi analisar os efeitos de uma técnica de coloração silábica sobre o desempenho em leitura de palavras e pseudopalavras de alunos em processo de alfabetização. O método utilizado consistiu em um estudo experimental com delineamento cruzado (crossover). Uma amostra de 77 crianças do segundo ano de uma escola estadual de ensino fundamental foi submetida ao Teste TCLPP para identificação do nível inicial de leitura dos participantes. Em seguida, estes foram distribuídos, de forma balanceada - em função do nível de leitura - em dois grupos (G1 e G2) e submetidos ao teste de leitura de palavras e pseudopalavras (LPI) com e sem uso da técnica de coloração silábica. O G1 (n=37) leu inicialmente as palavras com as sílabas coloridas, alternadas em vermelho e azul. Após um período de washout, o mesmo grupo leu as palavras em preto e branco. O Grupo 2 (n=40) foi submetido à apresentação do material na ordem inversa. Procedeu-se a análise de variância ANOVA 2 X 2 para as comparações entre e intra-grupos, considerando os valores médios de acertos de palavras e tempo de leitura, mediante estatística descritiva e inferencial para crossover. Verificou-se a eficácia da técnica de coloração silábica sobre o desempenho em leitura dos participantes como um todo (amostra total), com diferenças estatisticamente significantes entre os grupos; o efeito de período (maiores escores na 2ª leitura da LPI) interferiu significativamente na eficácia do tratamento, tanto no escore total como em todas as categorias de palavras: regulares, irregulares e pseudopalavras. Considerando o nível de leitura dos participantes, as análises comparativas indicaram maior eficácia da técnica para os leitores com maiores dificuldades. Os resultados do tempo de leitura apresentaram maiores efeitos de período para os bons leitores, indicando a influência da repetição do teste (tempos menores para a 2ª leitura). Para os leitores regulares, o efeito da interação (tratamento vs período) apresentou-se mais significativo do que o efeito de período. O nível de proficiência dos leitores também interferiu no tempo de leitura com os melhores leitores apresentando tempo de leitura significativamente mais baixo. O uso da técnica de coloração silábica impulsionou o mecanismo de recodificação fonológica facilitando o desempenho na leitura de palavras e pseudopalavras em crianças em processo de alfabetização. Esse efeito foi maior no desempenho dos participantes com habilidades de leitura menos desenvolvidas. O efeito da repetição do teste contribuiu para o armazenamento ortográfico das palavras na memória. Conclui-se que o uso do destaque silábico pode ser uma estratégia eficaz na elaboração de material didático para o ensino da leitura, particularmente para o desenvolvimento das habilidades de reconhecimento de palavras em crianças no início da alfabetização e daquelas com dificuldades específicas de leitura / The recognition of isolated words is a basic and preliminary skill in the development of fluent reading. In the skilled readers this process is automated. Part of the reading difficulties is related to the inadequate development of the decoding skills (word recognition) that can originate in specific learning difficulties, but also in the methodologies and materials used in teaching reading and writing. Thus, the purpose of this study was to analyze the effects of a syllabic coloring technique on the performance of reading words and pseudowords of students in the literacy process. The method used consisted of an experimental study with crossover design. A sample of 77 children from the second degree of a state elementary school was submitted to the TCLPP Test to identify the initial reading level of each participant. Then, they were distributed in two groups (G1 and G2), in a balanced way according to the level of reading, and submitted to the test of reading of words and pseudowords (LPI) with and without the use of the syllabic coloring technique. The G1 (n = 37) initially read the words with the colored syllables, alternating in red and blue. After an interval around of 13 days, the same group read the words in black and white. Group 2 (n = 40) was submitted to the presentation of the material in the reverse order. ANOVA 2 X 2 analysis was performed for comparisons between- and within-subjects factors considering the mean values of word hits and reading time, using descriptive and inferential statistics for crossover. The efficacy of the syllabic staining technique on the reading performance of the participants as a whole (total sample) was verified, with statistically significant differences between the groups; the effect of period (higher scores in the second reading of LPI) significantly interfered in treatment efficacy both in the score of total hits and in all categories of words: regular, irregular and pseudowords. Considering the level of reading of the participants, the comparative analyzes indicated a greater efficacy of the technique for the readers with greater difficulties. The reading time results presented higher period effects for the good readers, indicating the influence of the repetition of the test (smaller times for the second reading). For the regular readers, the interaction effect (treatment vs period) was more significant than the period effect. The proficiency level of the readers also interfered in the reading time with the best readers presenting significantly lower reading time. The use of the syllabic coloring technique boosted the phonological recoding mechanism facilitating the performance in reading of words and pseudowords in children in the literacy process. This effect was greater in the performance of participants with less developed reading skills. The effect of the repetition of the test contributed to the orthographic storage of words in memory. In conclusion, the use of syllabic highlighting can be an effective strategy in the elaboration of didactic material for teaching reading, particularly for the development of word recognition abilities in children at the beginning of literacy and those with specific reading disabilities
198

O efeito de vizinhança ortográfica no português brasileiro : uma comparação de múltiplas tarefas

Ricardo dos Reis Justi, Francis 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T22:56:53Z (GMT). No. of bitstreams: 2 arquivo3860_1.pdf: 1291523 bytes, checksum: 6f61c0af7bf5ad91953692846ef88da0 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O presente estudo investigou o efeito de vizinhança ortográfica no reconhecimento visual de palavras em adultos falantes do português do Brasil. Uma análise de corpus indicou que N (neighborhood density) e NF (neighborhood frequency) apresentam uma correlação ínfima com TLN (transposed letter neighbors), sendo que, ao mesmo tempo, afetam uma proporção muito maior de palavras do português brasileiro. Desse modo, uma das primeiras conclusões desse trabalho foi a de que, pelo menos no caso do português brasileiro, N e NF são medidas mais relevantes de vizinhança ortográfica do que TLN. Além da análise de corpus, foram desenvolvidos quatro experimentos para investigar os efeitos de N e NF. Efeitos inibidores de NF foram observados nos experimentos que utilizaram ou uma tarefa de identificação perceptual ou uma tarefa de leitura em voz alta do tipo Go/NoGo (na qual as pseudopalavras tinham muitos vizinhos ortográficos). Já efeitos facilitadores de N foram observados nos experimentos que utilizaram ou uma tarefa de identificação perceptual ou uma tarefa de leitura em voz alta (onde as palavras e pseudopalavras deviam ser lidas em uma mesma sessão). No experimento que utilizou uma tarefa de categorização semântica os efeitos de N e NF foram nulos. Os resultados desse estudo foram então combinados com os resultados de outros estudos realizados com falantes do português brasileiro e uma meta-análise foi realizada. A meta-análise indicou que o tipo de tarefa empregada nos estudos é um moderador dos efeitos de N e NF. Sendo que, de uma forma geral, em tarefas onde o processo de identificação lexical foi enfatizado o efeito de NF foi inibidor e o de N nulo e, em tarefas onde algum tipo de processamento estratégico predominou, o efeito de NF foi nulo e o de N foi facilitador. Os resultados desse estudo corroboram a hipótese de que os efeitos de N e NF podem ser modulados pela demanda das tarefas utilizadas para se investigar o acesso lexical e, além disso, colocam em dificuldades modelos de reconhecimento visual de palavras que não têm mecanismos específicos que os permitam predizer quais tarefas enfatizam processos estratégicos e quais enfatizam o processo de identificação lexical
199

Sistema de reconhecimento de fala baseado em redes neurais artificiais

Runstein, Fernando Oscar 10 September 1998 (has links)
Orientador: Fabio Violaro / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-24T14:15:07Z (GMT). No. of bitstreams: 1 Runstein_FernandoOscar_D.pdf: 12230122 bytes, checksum: c881b8dbd3ee58b6586540e4f1df16f3 (MD5) Previous issue date: 1998 / Resumo: Neste trabalho são comparadas diferentes configurações de redes neurais, diversos tipos de análise do sinal de voz e diferentes parâmetros de entrada da rede neural, com o objetivo de defInir o melhor sistema de reconhecimento de fala para palavras isoladas, independente do locutor e baseado em redes neurais artifIciais. Um dos problemas abordados é o das redes neurais terem um número fixo de entradas enquanto as palavras a reconhecer terem durações diferentes. Duas soluções são propostas para resolver este problema: dizimação/interpolação de quadros analisando as palavras com quadros de duração fixa dizimação/interpolação de quadros usando análise síncrona com o pitch. Ambos métodos apresentaram melhores resultados que os usualmente utilizados. Também é proposto um novo método de adaptação do sistema de reconhecimento de fala às características espectrais da voz do locutor, de forma a melhorar os índices de reconhecimento do sistema. Com este método conseguiu-se diminuir as taxas de erro em até 18%. Os sistemas foram avaliados com sinais ruidosos e sem ruído. Em testes independentes do locutor realizados com vocabulários de 10 a 32 palavras, obtiveram-se taxas de acerto superiores a 96% / Abstract: In this work we compared different neural network configurations, different speech analysis procedures and different neural net input parameters. The goal was to defme the best isolated word, speaker independent, speech recognition system based on artificialneural networks. One of the problems we worked on was how to deal with different word duration and fixed number of inputs of a neural network. Two solutions are proposed to solve this problem. One of hem, pitch-synchronous analysis, is new in speech recognition and produced very good results. It is also proposed in this work, a new method to adapt the speech recognition system to the spectral characteristics of the speaker's speech, in order to improve the recognition rate. With this method we diminished the error rates up to 18%. The systems were assessed with noise and noiseless signals. On speaker independent tests with 10 to 32 word vocabularies, we obtained word recognition rates better than 96% / Doutorado / Doutor em Engenharia Elétrica
200

Segmentação automatica e treinamento discriminativo aplicados a um sistema de reconhecimento de digitos conectados

Figueiredo, Fabricio Lira 17 December 1999 (has links)
Orientador: Fabio Violaro / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-26T00:16:55Z (GMT). No. of bitstreams: 1 Figueiredo_FabricioLira_M.pdf: 8181706 bytes, checksum: 4b3db6624620a5cb43cd1b3304195637 (MD5) Previous issue date: 1999 / Resumo: Os Modelos Ocultos de Markov constituem, atualmente, a principal abordagem para o problema de Reconhecimento de Fala, pois proporcionam bom desempenho e alto grau de flexibilidade. Infelizmente, este modelo acústico não é ideal e alguns problemas afetam sua robustez e desempenho em condições adversas. A inconsistência do modelamento temporal implícito nos HMM's é um exemplo de um sério problema sem soluções bem definidas. De fato, o Modelo de Duração de Estados com distribuição exponencial é incompatível com o comportamento estatístico das unidades lingüísticas reais. A hipótese de independência entre observações representa outra limitação dos HMM's, já que não se verifica nos experimentos práticos. De fato, existe forte dependência contextual no caso de quadros pertencentes a regiões de transição entre unidades acústicas de uma elocução. Alguns modelos e algoritmos têm sido propostos para tentar transpor estes obstáculos, tais como Modelos Segmentais e Duração Explícita de Estados. Nesta tese, uma estratégia alternativa é proposta para atenuar estes problemas, sem acréscimos significativos no custo computacional. A informação relativa às transições entre fones, ao longo de uma elocução, é obtida através de métodos de segmentação automática. Realiza-se uma ponderação no algoritmo de Viterbi, a fim de penalizar os modelos que gerarem segmentações inconsistentes. Bons resultados são obtidos, para várias condições relacionadas a uma aplicação de Dígitos Conectados. O objetivo atual é aplicar esta técnica para o caso de vocabulários extensos / Abstract: Hidden Markov Model is actually the main approach to Speech Recognition problem, because of the good performance and high degree of flexibility that can be achieved. Unfortunately, this acoustical modeling is not optimum and some problems still affect it's robustness and performance in a more realistic condition. The weakness of the temporal modeling embedded in HMM is an example of a serious problem without well defined solutions. In fact, the implicit state duration model with exponential distribution may not describe the real linguistic units distributions. The hypothesis of independence between observations is other difficult problem to solve and it is incompatible with practical experiments because there is strong correlation between frames in the same acoustic segment. Some models and algorithms have been proposed to overcome or, at lest, attenuate those problems, such as Stochastic Segment Models and Explicit State Duration. This thesis presents an alternative approach to alleviate these problems, with relatively low computational cost. The information on phoneme boundaries in time is obtained through an Automatic segmentation algorithm and it is used in a Weighted Viterbi Algorithm in order to penalize the, models that generates inconsistent segmentations. Good results were achieved for various conditions related to connected digits application. The actual objective is to expand it to continuous speech recognition / Mestrado / Mestre em Engenharia Elétrica

Page generated in 0.0675 seconds