• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

O campo glotopolítico do espanhol: norma linguística e autoridade normativa

Blanco, Ariel Matías 10 May 2017 (has links)
Submitted by Fabiano Vassallo (fabianovassallo2127@gmail.com) on 2017-05-10T18:52:24Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) O CAMPO GLOTOPOLÍTICO DO ESPANHOL. TESE.pdf: 1672539 bytes, checksum: cfeea166623bf032c87978dbca0e034c (MD5) / Approved for entry into archive by Josimara Dias Brumatti (bcgdigital@ndc.uff.br) on 2017-05-10T19:24:52Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) O CAMPO GLOTOPOLÍTICO DO ESPANHOL. TESE.pdf: 1672539 bytes, checksum: cfeea166623bf032c87978dbca0e034c (MD5) / Made available in DSpace on 2017-05-10T19:24:52Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) O CAMPO GLOTOPOLÍTICO DO ESPANHOL. TESE.pdf: 1672539 bytes, checksum: cfeea166623bf032c87978dbca0e034c (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O conceito de norma suscita interesse entre os especialistas das disciplinas linguísticas. Na tentativa de descrever a natureza objetiva dos fatos linguísticos, a atitude prescritiva foi sistematicamente rejeitada pela ciência moderna. No entanto, tendo em conta que inclusive a descrição científica mais estritamente constatativa sempre corre o risco de funcionar como uma prescrição, as análises dos efeitos materiais da objetivação devem ser consideradas. A presente tese examina as relações conflitivas em torno das definições de norma e de autoridade normativa no contexto da língua espanhola. Nesse sentido, é apresentado um esboço do espaço teórico de posições elaborado a partir do recenseamento das propriedades de produtores de conhecimento linguístico. Com base numa perspectiva glotopolítica (GUESPIN; MARCELLESI, 1986; DEL VALLE, 2007, 2014; ARNOUX, 2000, 2008) e relacional (BOURDIEU, 1996 [1982], 2010 [1989], 2008 [1972]) é desenvolvida a noção de campo glotopolítico para designar o lugar de concorrência entre agentes interessados na definição legítima de norma linguística. Dentre os resultados da análise destacam-se: (a) a posição predominante da Real Academia Espanhola no campo de produção normativa; (b) o trabalho coletivo (investimentos, estratégias, práticas) destinado a validar os critérios que fundamentam o valor da produção; e (c) a distribuição desigual de capital de autoridade entre os agentes glotopolíticos / The concept of norm arouses interest between linguistic discipline specialists. In attempting to describe the objective nature of linguistic facts, the prescriptive attitude has been systematically rejected by modern science. However, taking into account that even the most strictly proven scientific description runs the risk of functioning as a prescription, the analysis of the material effects of the objectivization must be considered. This thesis examines the conflicting relationships surrounding the definitions of norm and normative authority in the context of the Spanish language. Thus, is presented a draft of the theoretical space of positions elaborated from the census of the properties of producers of linguistic knowledge. With a base in a glotopolitical perspective (GUESPIN; MARCELLESI, 1986; DEL VALLE, 2007, 2014; ARNOUX, 2000, 2008) and a relational one (BOURDIEU, 1996 [1982], 2010 [1989], 2008 [1972]), the notion of glotopolitical field is developed to designate the concurrent place between agents interested in the legitimate definition of linguistic norm. The following is highlighted within the results of the analysis: (a) the predominant position of the Real Spanish Academy in the field of normative production; (b) the collective work (investments, strategies, practices) destined to validate the criteria that substantiate the value of production; and (c) the unequal distribution of capital of authority between glotopolitical agents
2

Extração automática de termos simples baseada em aprendizado de máquina / Automatic simple term extraction based on machine learning

Laguna, Merley da Silva Conrado 06 May 2014 (has links)
A Mineração de Textos (MT) visa descobrir conhecimento inovador nos textos não estruturados. A extração dos termos que representam os textos de um domínio é um dos passos mais importantes da MT, uma vez que os resultados de todo o processo da MT dependerão, em grande parte, da qualidade dos termos obtidos. Nesta tese, considera-se como termos as unidades lexicais realizadas para designar conceitos em um cenário tematicamente restrito. Para a extração dos termos, pode-se fazer uso de abordagens como: estatística, linguística ou híbrida. Normalmente, para a Mineração de Textos, são utilizados métodos estatísticos. A aplicação desses métodos é computacionalmente menos custosa que a dos métodos linguísticos, entretanto seus resultados são geralmente menos interpretáveis. Ambos métodos, muitas vezes, não são capazes de identificar diferenças entre termos e não-termos, por exemplo, os estatísticos podem não identificar termos raros ou que têm a mesma frequência de não-termos e os linguísticos podem não distinguir entre termos que seguem os mesmo padrões linguísticos dos não-termos. Uma solução para esse problema é utilizar métodos híbridos, de forma a combinar as estratégias dos métodos linguísticos e estatísticos, visando atenuar os problemas inerentes a cada um deles. Considerando as características dos métodos de extração de termos, nesta tese, foram investigados métodos estatísticos, formas de obtenção de conhecimento linguístico e métodos híbridos para a extração de termos simples - aqueles constituídos de somente um radical, com ou sem afixos - na língua portuguesa do Brasil. Quatro medidas estatísticas (tvq, tv, tc e comGram), originalmente utilizadas em outras tarefas, foram avaliadas na extração de termos simples, sendo que duas delas (tvq e tv) foram consideradas relevantes para essa tarefa. Quatro novas medidas híbridas (n_subst., n_adj., n_po e n_verbo) foram propostas, sendo que três delas (n_subst,. n_adj., e n_po) auxiliaram na extração de termos. Normalmente os métodos de extração de termos selecionam candidatos a termos com base em algum conhecimento linguístico. Depois disso, eles aplicam a esses candidatos medidas ou combinação de medidas (e/ou heurísticas) para gerar um ranking com tais candidatos. Quanto mais ao topo desse ranking os candidatos estão, maior a chance de que eles sejam termos. A escolha do liminar a ser considerado nesse ranking é feita, em geral de forma manual ou semiautomática por especialistas do domínio e/ou terminólogos. Automatizar a forma de escolha dos candidatos a termos é a primeira motivação da extração de termos realizada nesta pesquisa. A segunda motivação desta pesquisa é minimizar o elevado número de candidatos a termos presente na extração de termos. Esse alto número, causado pela grande quantidade de palavras contidas em um corpus, pode aumentar a complexidade de tempo e os recursos computacionais utilizados para se extrair os termos. A terceira motivação considerada nesta pesquisa é melhorar o estado da arte da extração automática de termos simples da língua portuguesa do Brasil, uma vez que os resultados dessa extração (medida F = 16%) ainda são inferiores se comparados com a extração de termos em línguas como a inglesa (medida F = 92%) e a espanhola (medida F = 68%). Considerando essas motivações, nesta tese, foi proposto o método MATE-ML (Automatic Term Extraction based on Machine Learning) que visa extrair automaticamente termos utilizando técnicas da área de aprendizado de máquina. No método MATE-ML, é sugerido o uso de filtros para reduzir o elevado número de candidatos a termos durante a extração de termos sem prejudicar a representação do domínio em questão. Com isso, acredita-se que os extratores de termos podem gerar listas menores de candidatos extraídos, demandando, assim , menos tempo dos especialistas para avaliar esses candidatos. Ainda, o método MATE-ML foi instanciado em duas abordagens: (i) ILATE (Inductive Learning for Automatic Term Extraction), que utiliza a classificação supervisionada indutiva para rotular os candidatos a termos em termos e não termos, e (ii) TLATE (Transductive Learning for Automatic Term Extraction), que faz uso da classificação semissupervisionada transdutiva para propagar os rótulos dos candidatos rotulados para os não rotulados. A aplicação do aprendizado transdutivo na extração de termos e a aplicação ao mesmo tempo de um conjunto rico de características de candidatos pertencentes a diferentes níveis de conhecimento - linguístico, estatístico e híbrido também são consideradas contribuições desta tese. Nesta tese, são discutidas as vantagens e limitações dessas duas abordagens propostas, ILATE e TLATE. Ressalta-se que o uso dessas abordagens alcança geralmente resultados mais altos de precisão (os melhores casos alcançam mais de 81%), altos resultados de cobertura (os melhores casos atingem mai de 87%) e bons valores de medida F (máximo de 41%) em relação aos métodos e medidas comparados nas avaliações experimentais realizadas considerando três corpora de diferentes domínios na língua portuguesa do Brasil / Text Mining (TM) aims at discovering innovating knowledge in unstructured texts. The extraction of terms that represent that texts of a specific domain is one of the most important steps of TM, since the results of the overall TM process will mostly depend on the quality of these terms. In this thesis, we consider terms as lexical units used to assign concepts in thematically restricted scenarios. The term extraction task may use approaches such as: statistical, linguistic, or hybrid. Typically, statistical methods are the most common for Text Mining. These methods are computationally less expensive than the linguistic ones, however their results tend to be less human-interpretable. Both methods are not often capable of identifying differences between terms and non-terms. For example, statistical methods may not identify terms that have the same frequency of non-terms and linguistic methods may not distinguish between terms that follow the same patterns of non-terms. One solution to this problem is to use hybrid methods, combining the strategies of linguistic and ststistical methods, in order to attenuate their inherent problems. Considering the features of the term extraction methods, in this thesis, we investigated statistical melhods, ways of obtaining linguistic knowledge, and hybrid methods for extracting simple terms (only one radical, with or without the affixes) for the Braziian Portuguese language. We evaluated, in term extraction, four new hybrid measures (tvq, tv, and comGram) originally proposed for other tasks; and two of them (tvq and tv) were considered relevant for this task. e proposed four new hybrid measures(n_subs., n_adj., n_po, and n_verb); and there of them (n_subst., n_adj., and n_po) were helpful in the term extraction task. Typically, the extraction methods select term candidates based on some linguistic knowledge. After this process, they apply measures or combination of measures (and/or heuristics) to these candidates in order to generate a ranking. The higher the candidates are in the ranking, the better the chances of being terms. To decide up to which position must be considered in this ranking normally, a domain expert and/or terminologist manually or semiautomatically analyse the ranking. The first motivation of this thesis is to automate how to choose the candidates during the term extraction process. The second motivation of this research is to minimize the high number of candidates present in the term extraction. The high number of candidate, caused by the large amount of words in a corpus, could increase the time complexity and computational resources for extracting terms. The third motivation considered in this research is to improve the state of the art of the automatic simple term extraction for Brazilian Portuguese since the results of this extraction (F-measure = 16%) are still low when compared to other languages like English (F-measure = 92%) and Spanish (F-measure =68%). Given these motivations, we proposed the MATE-ML method (Automatic Term Extraction Based on Machine Learning), which aims to automatically extract simple terms using the machine learning techniques. MATE-ML method suggests the use of filters to reduce the high number of term candidates during the term extraction task without harming the domain representation. Thus, we believe the extractors may generate smaller candidate lists, requiring less time to evaluate these candidates. The MATE-ML method was instantiated in two approaches.: (i) ILATE (Inductive Learning for Automatic Term Extraction),. which uses the supervised inductive classification to label term candidates, and (ii) TLATE (Trnasductive Learning for Automatic Term Extraction), which uses transductive semi-supervised classification to propagate the classes from labeled candidates to unlabeled candidates. Using transductive learning in term extraction and using, at the same time, a rich set of candidate features belonging to different levels of knowledge (linguistic,statistical, and hybrid) are also considered as contributions. In this thesis, we discuss the advantages and limitations of these two proposed approaches. We emphasize taht the use of these approaches usually with higher precision (the best case is above of 81%), high coverage results (the best case is above of 87%), and good F-measure value (maximum of 41%) considering three corpora of different domains in the Brazilian Portuguese language
3

Extração automática de termos simples baseada em aprendizado de máquina / Automatic simple term extraction based on machine learning

Merley da Silva Conrado Laguna 06 May 2014 (has links)
A Mineração de Textos (MT) visa descobrir conhecimento inovador nos textos não estruturados. A extração dos termos que representam os textos de um domínio é um dos passos mais importantes da MT, uma vez que os resultados de todo o processo da MT dependerão, em grande parte, da qualidade dos termos obtidos. Nesta tese, considera-se como termos as unidades lexicais realizadas para designar conceitos em um cenário tematicamente restrito. Para a extração dos termos, pode-se fazer uso de abordagens como: estatística, linguística ou híbrida. Normalmente, para a Mineração de Textos, são utilizados métodos estatísticos. A aplicação desses métodos é computacionalmente menos custosa que a dos métodos linguísticos, entretanto seus resultados são geralmente menos interpretáveis. Ambos métodos, muitas vezes, não são capazes de identificar diferenças entre termos e não-termos, por exemplo, os estatísticos podem não identificar termos raros ou que têm a mesma frequência de não-termos e os linguísticos podem não distinguir entre termos que seguem os mesmo padrões linguísticos dos não-termos. Uma solução para esse problema é utilizar métodos híbridos, de forma a combinar as estratégias dos métodos linguísticos e estatísticos, visando atenuar os problemas inerentes a cada um deles. Considerando as características dos métodos de extração de termos, nesta tese, foram investigados métodos estatísticos, formas de obtenção de conhecimento linguístico e métodos híbridos para a extração de termos simples - aqueles constituídos de somente um radical, com ou sem afixos - na língua portuguesa do Brasil. Quatro medidas estatísticas (tvq, tv, tc e comGram), originalmente utilizadas em outras tarefas, foram avaliadas na extração de termos simples, sendo que duas delas (tvq e tv) foram consideradas relevantes para essa tarefa. Quatro novas medidas híbridas (n_subst., n_adj., n_po e n_verbo) foram propostas, sendo que três delas (n_subst,. n_adj., e n_po) auxiliaram na extração de termos. Normalmente os métodos de extração de termos selecionam candidatos a termos com base em algum conhecimento linguístico. Depois disso, eles aplicam a esses candidatos medidas ou combinação de medidas (e/ou heurísticas) para gerar um ranking com tais candidatos. Quanto mais ao topo desse ranking os candidatos estão, maior a chance de que eles sejam termos. A escolha do liminar a ser considerado nesse ranking é feita, em geral de forma manual ou semiautomática por especialistas do domínio e/ou terminólogos. Automatizar a forma de escolha dos candidatos a termos é a primeira motivação da extração de termos realizada nesta pesquisa. A segunda motivação desta pesquisa é minimizar o elevado número de candidatos a termos presente na extração de termos. Esse alto número, causado pela grande quantidade de palavras contidas em um corpus, pode aumentar a complexidade de tempo e os recursos computacionais utilizados para se extrair os termos. A terceira motivação considerada nesta pesquisa é melhorar o estado da arte da extração automática de termos simples da língua portuguesa do Brasil, uma vez que os resultados dessa extração (medida F = 16%) ainda são inferiores se comparados com a extração de termos em línguas como a inglesa (medida F = 92%) e a espanhola (medida F = 68%). Considerando essas motivações, nesta tese, foi proposto o método MATE-ML (Automatic Term Extraction based on Machine Learning) que visa extrair automaticamente termos utilizando técnicas da área de aprendizado de máquina. No método MATE-ML, é sugerido o uso de filtros para reduzir o elevado número de candidatos a termos durante a extração de termos sem prejudicar a representação do domínio em questão. Com isso, acredita-se que os extratores de termos podem gerar listas menores de candidatos extraídos, demandando, assim , menos tempo dos especialistas para avaliar esses candidatos. Ainda, o método MATE-ML foi instanciado em duas abordagens: (i) ILATE (Inductive Learning for Automatic Term Extraction), que utiliza a classificação supervisionada indutiva para rotular os candidatos a termos em termos e não termos, e (ii) TLATE (Transductive Learning for Automatic Term Extraction), que faz uso da classificação semissupervisionada transdutiva para propagar os rótulos dos candidatos rotulados para os não rotulados. A aplicação do aprendizado transdutivo na extração de termos e a aplicação ao mesmo tempo de um conjunto rico de características de candidatos pertencentes a diferentes níveis de conhecimento - linguístico, estatístico e híbrido também são consideradas contribuições desta tese. Nesta tese, são discutidas as vantagens e limitações dessas duas abordagens propostas, ILATE e TLATE. Ressalta-se que o uso dessas abordagens alcança geralmente resultados mais altos de precisão (os melhores casos alcançam mais de 81%), altos resultados de cobertura (os melhores casos atingem mai de 87%) e bons valores de medida F (máximo de 41%) em relação aos métodos e medidas comparados nas avaliações experimentais realizadas considerando três corpora de diferentes domínios na língua portuguesa do Brasil / Text Mining (TM) aims at discovering innovating knowledge in unstructured texts. The extraction of terms that represent that texts of a specific domain is one of the most important steps of TM, since the results of the overall TM process will mostly depend on the quality of these terms. In this thesis, we consider terms as lexical units used to assign concepts in thematically restricted scenarios. The term extraction task may use approaches such as: statistical, linguistic, or hybrid. Typically, statistical methods are the most common for Text Mining. These methods are computationally less expensive than the linguistic ones, however their results tend to be less human-interpretable. Both methods are not often capable of identifying differences between terms and non-terms. For example, statistical methods may not identify terms that have the same frequency of non-terms and linguistic methods may not distinguish between terms that follow the same patterns of non-terms. One solution to this problem is to use hybrid methods, combining the strategies of linguistic and ststistical methods, in order to attenuate their inherent problems. Considering the features of the term extraction methods, in this thesis, we investigated statistical melhods, ways of obtaining linguistic knowledge, and hybrid methods for extracting simple terms (only one radical, with or without the affixes) for the Braziian Portuguese language. We evaluated, in term extraction, four new hybrid measures (tvq, tv, and comGram) originally proposed for other tasks; and two of them (tvq and tv) were considered relevant for this task. e proposed four new hybrid measures(n_subs., n_adj., n_po, and n_verb); and there of them (n_subst., n_adj., and n_po) were helpful in the term extraction task. Typically, the extraction methods select term candidates based on some linguistic knowledge. After this process, they apply measures or combination of measures (and/or heuristics) to these candidates in order to generate a ranking. The higher the candidates are in the ranking, the better the chances of being terms. To decide up to which position must be considered in this ranking normally, a domain expert and/or terminologist manually or semiautomatically analyse the ranking. The first motivation of this thesis is to automate how to choose the candidates during the term extraction process. The second motivation of this research is to minimize the high number of candidates present in the term extraction. The high number of candidate, caused by the large amount of words in a corpus, could increase the time complexity and computational resources for extracting terms. The third motivation considered in this research is to improve the state of the art of the automatic simple term extraction for Brazilian Portuguese since the results of this extraction (F-measure = 16%) are still low when compared to other languages like English (F-measure = 92%) and Spanish (F-measure =68%). Given these motivations, we proposed the MATE-ML method (Automatic Term Extraction Based on Machine Learning), which aims to automatically extract simple terms using the machine learning techniques. MATE-ML method suggests the use of filters to reduce the high number of term candidates during the term extraction task without harming the domain representation. Thus, we believe the extractors may generate smaller candidate lists, requiring less time to evaluate these candidates. The MATE-ML method was instantiated in two approaches.: (i) ILATE (Inductive Learning for Automatic Term Extraction),. which uses the supervised inductive classification to label term candidates, and (ii) TLATE (Trnasductive Learning for Automatic Term Extraction), which uses transductive semi-supervised classification to propagate the classes from labeled candidates to unlabeled candidates. Using transductive learning in term extraction and using, at the same time, a rich set of candidate features belonging to different levels of knowledge (linguistic,statistical, and hybrid) are also considered as contributions. In this thesis, we discuss the advantages and limitations of these two proposed approaches. We emphasize taht the use of these approaches usually with higher precision (the best case is above of 81%), high coverage results (the best case is above of 87%), and good F-measure value (maximum of 41%) considering three corpora of different domains in the Brazilian Portuguese language
4

A importância do conhecimento Tácito no ensino de Língua Portuguesa

Sugui, Khalil Salem 12 August 2014 (has links)
Made available in DSpace on 2016-04-28T19:33:49Z (GMT). No. of bitstreams: 1 Khalil Salem Sugui.pdf: 611234 bytes, checksum: acb33e915ebd130a4a5b247dfae3aafc (MD5) Previous issue date: 2014-08-12 / This research investigates the value of tacit knowledge in education, especially as regards the teaching practice of portuguese language. For both elucidates the dimensions of both explicit knowledge as implicit knowledge, which is resize when one takes into account empirical and contextual aspects, whose structure builds new epistemological values, sometimes associated with the experience, sometimes articulated with prior knowledge. Indeed, the relevance of this research is due to the current overvaluation of explicit knowledge, which minimizes the importance of other potential gnosiological, such as intuition, and leads to the idea that many lessons are either totally right or totally wrong, deconstructing the principle of relativity and ponderability inherent epistemological act. It is intended, in this thesis, overcome this dualistic view, valuing, coherently, the tacit dimension of knowledge, as well as all other potential presents in this gnosiological plan. Indeed, in relation specifically to the linguistic study, this study is the assumption that every speaker has tacit knowledge of language and cognitive considers that such acquisitions can be used to advantage in the teaching and learning language process. Through a pedagogical look that enhances the personal aspects, and subsidiary tacit knowledge, we explore the importance of timely insight, intuition and discovery in the construction process of human knowledge, strengthening, thus, an organizational structure and articulated in terms the consolidation of skills and competencies consistent with the needs of today's knowledge society. The thesis draws upon theory in studies of Michael Polanyi, which mostly show the importance of tacit knowledge in human epistemological conformation. Other philosophers of science, such as Aristotle, Plato and Progogine are also used, in order to clarify, a dialogical way, the horizons of human knowledge as well as their internal dynamics and gradations. The research within the linguistic study bolsters on studies and concepts developed by Kleiman, Bechara, Chomsky and Van Dijk, seeking, according to these surveys, the values of key scoring tacit knowledge in the construction of linguistic knowledge / Esta pesquisa investiga o valor do conhecimento tácito no ensino, sobretudo no que se refere à prática docente de língua portuguesa. Para tanto, elucida as dimensões tanto dos saberes explícitos quanto dos saberes implícitos, os quais se redimensionam quando se leva em consideração aspectos empíricos e contextuais, cujas tessituras erigem novos valores epistemológicos, ora associados à vivência, ora articulados aos saberes prévios. Com efeito, a relevância dessa pesquisa deve-se à atual supervalorização do conhecimento explícito, que minimiza a importância de outros potenciais gnosiológicos, como a intuição, e conduz à ideia de que numerosas ilações são ou totalmente certas ou totalmente erradas, descaracterizando, desse modo, o princípio de relativização e ponderabilidade inerente ao ato epistemológico. Pretende-se, nessa tese, superar tal visão dualística, valorizando, de maneira coerente, a dimensão tácita do conhecimento, bem como todos os demais potenciais gnosiológicos aliançados a esse plano. Deveras, no que tange especificamente ao estudo linguístico, este estudo parte da suposição de que todo falante detém conhecimentos tácitos da língua e considera que tais aquisições cognitivas podem ser utilizadas com vantagem no processo de ensino e aprendizagem de língua. Mediante um olhar pedagógico que valorize os aspectos pessoais, tácitos e subsidiários do conhecimento, explora-se pontualmente a importância da percepção, da intuição e da descoberta no processo de construção do conhecimento humano, fortalecendo, dessa forma, uma estrutura orgânica e articulada no tocante à consolidação de habilidades e competências coerentes com as necessidades da atual sociedade do conhecimento. A tese respalda-se teoricamente nos estudos de Michael Polanyi, os quais majoritariamente evidenciam a importância do conhecimento tácito na conformação epistemológica humana. Outros filósofos da ciência, como Aristóteles, Platão e Progogine são também utilizados, objetivando clarificar, de modo dialógico, os horizontes do conhecimento, bem como suas gradações e dinâmicas internas. A pesquisa, no âmbito do estudo linguístico, ampara-se nos estudos e conceitos desenvolvidos por Kleiman, Bechara, Chomsky e Van Dijk, procurando, à luz dos princípios investigados em tais pesquisas, pontuar os valores do conhecimento tácito fundamentais na construção do conhecimento linguístico

Page generated in 0.1367 seconds