• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 253
  • 124
  • 44
  • 38
  • 31
  • 29
  • 24
  • 24
  • 13
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • Tagged with
  • 635
  • 635
  • 145
  • 133
  • 122
  • 116
  • 95
  • 90
  • 88
  • 83
  • 81
  • 78
  • 73
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Assimetria de informação e sinalização na cadeia da carne bovina

Ceolin, Alessandra Carla January 2011 (has links)
A presente pesquisa tem como objetivo identificar e analisar os principais Mecanismos de Sinalização utilizados na cadeia da carne bovina brasileira, bem como, verificar o grau de ocorrências dessas sinalizações pela Ciência, pelo Governo e pela Mídia, por meio de processos de mineração de textos e descoberta do conhecimento. Embasando-se na Economia da Informação como teoria-chave dessa análise e concentrando-se nas teorias da Assimetria de Informação, Seleção Adversa e Sinalização e, também, da revisão das interações entre Ciência, Mídia e Governo, foram definidas cinco dimensões, sob as quais os sinais sobre a carne bovina são enquadrados: Econômica, Comunicação e Marketing, Qualidade, Institucional e Sistema de Produção. Para análise, foram coletados documentos textuais em formato eletrônico ao longo de cinco anos. A busca dos documentos deu-se em bases de dados de publicações científicas, em portais do Governo e em arquivos dos jornais e magazines disponíveis na rede mundial de computadores , a partir de palavras-chave relacionadas à cadeia da carne bovina. Foram selecionados 4.281 artigos científicos para compor a base de dados da Ciência, 730 documentos para a base de dados do Governo e 5.439 documentos na base de dados da Mídia, totalizando 10.450 documentos selecionados. Esses documentos foram armazenados e classificados no software QDA Miner segundo as variáveis fonte (Ciência, Governo e Mídia) e ano (2005, 2006, 2007, 2008 e 2009). Para extrair o conhecimento das bases textuais, foi elaborada uma estrutura de análise constituída pelas dimensões, códigos (sinais) e palavras -chave. Na sequência foram analisados e codificados os documentos com os respectivos sinalizadores. Aplicando-se a estrutura de análise do software, foram utilizadas representações gráficas elaboradas a partir da frequência relativa das ocorrências de cada código nas três fontes de informação. De acordo com os resultados apresentados foi possível verificar que os termos e dimensões utilizados pela Ciência, Governo e Mídia diferem nas frequências em praticamente todos os códigos , demonstrando pouca sinergia entre as fontes de informação . No decorrer do período analisado, percebeuse maior oscilação na frequência das publicações que incluíam os sinais Sanidade e Sustentabilidade, os quais foram mais enfatizados nos últimos anos da presente análise. Os códigos Certificação e Rastreabilidade que pareciam ter maior destaque para fornecer informações sobre aspectos ligados à carne bovina brasileira, de acordo com estudos existentes, não são os mais emitidos, de acordo com esta pesquisa. A maior identidade da Ciência ao longo do período de anál ise foi para a Dimensão Sistema de Produção, demonstrando que as publicações científicas possuem um caráter mais voltado à melhoria da produção em si, como alimentação, genética, reprodução, idade de abate, dentre outros. Em relação ao Governo, observou-se maior identidade dessa fonte de informação para a Dimensão Institucional, com exceção do ano de 2007, onde se percebe maior es ênfases das publicações do Governo nas Dimensões Qualidade e Sistema de Produção . Já em relação ao que se observa na Mídia, há maior interesse em publicações nas Dimensões Qualidade e Sistema de Produção. Ao analisar os resultados entre as três fontes de informação, verifica-se maior proximidade entre o que se observa na Mídia e no Governo, visto a predominância da Dimensão Sistema de Produção na Ciência. Analisando comparativamente as fontes de informação foi possível observar que o maior grau de similaridade entre os códigos foi observad o nos documentos publicados pelo Governo. Embora os códigos adotados para sinalizar informações sobre a cadeia da carne bovina sejam os mesmos, enquadrados igualmente em cinco Dimensões, determinados sinalizadores são utilizados com maior destaque, similaridades e agrupamentos de códigos e, de acordo com as peculiaridades de cada fonte de informação investigada (Ciência, Governo e Mídia). / The goal of this research is to identify and analyze the main signaling mechanisms utilized in the Brazilian beef chain, as well as to investigate the degree of occurrence of these signalings by science, government, and media, through text mining and knowledge discover processes. Using Information Economy as key theory of this analysis and concentrating on the theories of Information Asymmetry, Adverse Selection and Signaling and, also, through revision of the interactions between science, media and government , five dimensions have been defined which encompass the signals about beef: economic, communication and marketing, quality, institutional and production system. To perform the analysis, electronic text documents over a five-year period have been collected. The documents have been searched in scientific journal databases, government portals, and news paper and magazine files available on the Internet, based on keywords connected to beef chain. The selection included 4.281 scientific articles to compose the science database, 730 documents to the government database, and 5.439 documents to the media database, in a total of 10.450 documents selected. These documents have been stored and classified in the QDA Miner software through the source variables (science, government and media ) and year (2005, 2006, 2007, 2008 and 2009). To extract the knowledge from the text databases, it has been elaborated an analysis framework composed by dimensions, codes (signals) and keywords. The next step was to analyze and codi fy the documents with the respective signallers. With application of the software analysis framework , it has been used graph representations elaborated from the relative frequency of each code occurrences in the three sources of information. According to the results found, it h as been evidenced that the terms and dimensions used by science, government an d media differ in frequency in practically all codes, demonstrating little synergy between the information sources. Over the period analyzed, a greater oscillation has been perceived in publications that included the sani ty and sustainability signals, which have been more emphasized in certain years. According to this research, the certification and traceability signals which, judging from existing studies, seemed to have the greatest emphasis to supply information on aspects related with Brazilian beef, are not the most issued. Science, over the analysis period, has been more identified with the production system dimension, demonstrating that scientific journals are more focused on the enhancement of production itself, such as feeding, genetics, breeding, slaughter age, among others. With regard to the government, it has been observed that this source of information is more identified with the institutional dimension, with exception of the year 2007, where the greatest emphasis of government publications is perceived in the quality and production syste m dimensions. In the media, quality and production system dimensions are the most emphasized in publications. Analyzing the results between the three sources of information, a closer connection between media and government is perceived, given the predominance of production system dimension in science . Comparative analysis between the sources of information revealed that the greatest degree of similarity between the codes has been found in the documents published by the government. Although the codes adopted to signaling information about beef chain are the same, equally framed in five dimensions, certain signallers are utilized with a greater emphasis, similarities and code groupings, and in accordance with the peculiarities of each source of information investigated (science, government and media).
242

Context-Aware Adaptive Hybrid Semantic Relatedness in Biomedical Science

January 2016 (has links)
abstract: Text mining of biomedical literature and clinical notes is a very active field of research in biomedical science. Semantic analysis is one of the core modules for different Natural Language Processing (NLP) solutions. Methods for calculating semantic relatedness of two concepts can be very useful in solutions solving different problems such as relationship extraction, ontology creation and question / answering [1–6]. Several techniques exist in calculating semantic relatedness of two concepts. These techniques utilize different knowledge sources and corpora. So far, researchers attempted to find the best hybrid method for each domain by combining semantic relatedness techniques and data sources manually. In this work, attempts were made to eliminate the needs for manually combining semantic relatedness methods targeting any new contexts or resources through proposing an automated method, which attempted to find the best combination of semantic relatedness techniques and resources to achieve the best semantic relatedness score in every context. This may help the research community find the best hybrid method for each context considering the available algorithms and resources. / Dissertation/Thesis / Doctoral Dissertation Biomedical Informatics 2016
243

A Study of Text Mining Framework for Automated Classification of Software Requirements in Enterprise Systems

January 2016 (has links)
abstract: Text Classification is a rapidly evolving area of Data Mining while Requirements Engineering is a less-explored area of Software Engineering which deals the process of defining, documenting and maintaining a software system's requirements. When researchers decided to blend these two streams in, there was research on automating the process of classification of software requirements statements into categories easily comprehensible for developers for faster development and delivery, which till now was mostly done manually by software engineers - indeed a tedious job. However, most of the research was focused on classification of Non-functional requirements pertaining to intangible features such as security, reliability, quality and so on. It is indeed a challenging task to automatically classify functional requirements, those pertaining to how the system will function, especially those belonging to different and large enterprise systems. This requires exploitation of text mining capabilities. This thesis aims to investigate results of text classification applied on functional software requirements by creating a framework in R and making use of algorithms and techniques like k-nearest neighbors, support vector machine, and many others like boosting, bagging, maximum entropy, neural networks and random forests in an ensemble approach. The study was conducted by collecting and visualizing relevant enterprise data manually classified previously and subsequently used for training the model. Key components for training included frequency of terms in the documents and the level of cleanliness of data. The model was applied on test data and validated for analysis, by studying and comparing parameters like precision, recall and accuracy. / Dissertation/Thesis / Masters Thesis Engineering 2016
244

Perspective Scaling and Trait Detection on Social Media Data

January 2018 (has links)
abstract: This research start utilizing an efficient sparse inverse covariance matrix (precision matrix) estimation technique to identify a set of highly correlated discriminative perspectives between radical and counter-radical groups. A ranking system has been developed that utilizes ranked perspectives to map Islamic organizations on a set of socio-cultural, political and behavioral scales based on their web site corpus. Simultaneously, a gold standard ranking of these organizations was created through domain experts and compute expert-to-expert agreements and present experimental results comparing the performance of the QUIC based scaling system to another baseline method for organizations. The QUIC based algorithm not only outperforms the baseline methods, but it is also the only system that consistently performs at area expert-level accuracies for all scales. Also, a multi-scale ideological model has been developed and it investigates the correlates of Islamic extremism in Indonesia, Nigeria and UK. This analysis demonstrate that violence does not correlate strongly with broad Muslim theological or sectarian orientations; it shows that religious diversity intolerance is the only consistent and statistically significant ideological correlate of Islamic extremism in these countries, alongside desire for political change in UK and Indonesia, and social change in Nigeria. Next, dynamic issues and communities tracking system based on NMF(Non-negative Matrix Factorization) co-clustering algorithm has been built to better understand the dynamics of virtual communities. The system used between Iran and Saudi Arabia to build and apply a multi-party agent-based model that can demonstrate the role of wedges and spoilers in a complex environment where coalitions are dynamic. Lastly, a visual intelligence platform for tracking the diffusion of online social movements has been developed called LookingGlass to track the geographical footprint, shifting positions and flows of individuals, topics and perspectives between groups. The algorithm utilize large amounts of text collected from a wide variety of organizations’ media outlets to discover their hotly debated topics, and their discriminative perspectives voiced by opposing camps organized into multiple scales. Discriminating perspectives is utilized to classify and map individual Tweeter’s message content to social movements based on the perspectives expressed in their tweets. / Dissertation/Thesis / Doctoral Dissertation Computer Science 2018
245

Detecting Fake Reviews with Machine Learning

Ferreira Uchoa, Marina January 2018 (has links)
Many individuals and businesses make decisions based on freely and easily accessible online reviews. This provides incentives for the dissemination of fake reviews, which aim to deceive the reader into having undeserved positive or negative opinions about an establishment or service. With that in mind, this work proposes machine learning applications to detect fake online reviews from hotel, restaurant and doctor domains. In order to _lter these deceptive reviews, Neural Networks and Support Vector Ma- chines are used. Both algorithms' parameters are optimized during training. Parameters that result in the highest accuracy for each data and feature set combination are selected for testing. As input features for both machine learning applications, unigrams, bigrams and the combination of both are used. The advantage of the proposed approach is that the models are simple yet yield results comparable with those found in the literature using more complex models. The highest accuracy achieved was with Support Vector Machine using the Laplacian kernel which obtained an accuracy of 82.92% for hotel, 80.83% for restaurant and 73.33% for doctor reviews.
246

Sistema de recomendação de objeto de aprendizagem baseado em postagens extraídas do ambiente virtual de aprendizagem

Silva, Reinaldo de Jesus da January 2016 (has links)
Os fóruns de discussões apresentam-se com umas das ferramentas de interação utilizadas nos ambientes virtuais de aprendizagem (AVAs). Esta pesquisa tem como objetivo propor um sistema computacional para recomendação de Objeto de Aprendizagem (OA), levando em consideração as postagens feitas de dentro dos fóruns de um Ambiente Virtual de Aprendizagem (AVA). A metodologia utilizada foi a pesquisa qualitativa, dos tipos descritiva e explicativa. Esse sistema identifica as palavras-chave nos fóruns de um AVA; usam as palavras-chave como indícios dos interesses dos usuários; classifica (atributos pesos) as palavras mais relevantes (Hot Topics); submete a um mecanismo de busca (repositório), neste trabalho foram usados os motores de busca, para fins de teste e oferece os resultados da busca aos usuários. As contribuições deste sistema para os sujeitos participantes desta pesquisa são: recomendação automática de OA para os alunos e professores; aplicação de mineração de dados para sistema gestão educacional; técnica de mineração de textos, utilizando algoritmo TF*PDF (Term Frequency * Proportional Document Frequency) e integração do AVA com repositório digital. Para validar o sistema de recomendação de OA em um AVA foi desenvolvido protótipo do sistema com uma amostra, contendo vinte e cinco alunos e cinco professores de duas turmas das disciplinas de Modelagem de Banco de Dados e Interface de Usuários e Sistemas Computacionais do curso de Engenharia de Computação da Universidade Estadual do Maranhão. O estudo realizado sobre o tema, e relatado nessa tese, tem como foco a recomendação de OA nos fóruns de um AVA. A avaliação e validação realizadas, através de protótipo do sistema com professores e alunos evidenciaram que o sistema de recomendação de Web Services (RECOAWS) proposto atende às expectativas e pode apoiar professores e alunos, nas suas atividades pedagógicas, dentro dos fóruns. / Discussion forums get present with one of interaction tools used in virtual learning environments (VLEs). This research aims to propose a computational system for Learning Object recommendation (LO), taking into account the posts made from within the forums of a Virtual Learning Environment (VLE). The methodology used was a qualitative study of descriptive and explanatory types. This system identifies the keywords in the forums of a VLE; It uses the keywords as evidence of the interests of users; ranks (attributes weights) the most relevant words (Hot Topics); It submits to a search engine (repository), this work were used search engines for testing purposes and provides the search results to users. The contributions of this system to the participants in this study are: automatic recommendation of LO for students and teachers; data mining application to educational management system; text mining techniques, using TF * PDF algorithm (Term Frequency * Proportional Document Frequency) and integration of the VLE with digital repository. To validate the LO recommendation system in a VLE was developed prototype system with a sample, with twenty-five students and five teachers from two classes of database modeling disciplines and User Interface and Computational Systems of Engineering course Computing of the State University of Maranhão. The study on the subject, and reported in this thesis is focused on LO recommendation in the forums of a VLE. The evaluation and validation performed by the prototype system with teachers and students showed that the Web Services recommendation system (RecoaWS) proposed meets expectations and can support teachers and students in their educational activities within the forums.
247

Mineração de textos aplicada na previsão e detecção de eventos adversos no Hospital de Clínicas de Porto Alegre

Silva, Daniel Antonio da January 2017 (has links)
Este trabalho apresenta os resultados de uma pesquisa que teve como objetivo avaliar o desempenho de métodos de mineração de textos na previsão e detecção de Eventos Adversos (EA). A primeira etapa foi a revisão sistemática da literatura que buscou identificar os métodos de mineração de textos e as áreas da saúde que esses estão sendo aplicados para prever e detectar EA. Após essa etapa foi realizada uma aplicação de métodos de mineração de textos para prever Infecções do Sítio Cirúrgico (ISC) a partir do texto livre de descrições cirúrgicas no Hospital de Clínicas de Porto Alegre (HCPA). Por fim, métodos de mineração de textos foram aplicados para detectar ISC a partir do texto das evoluções de pacientes 30 (trinta) dias após uma cirurgia. Como resultados, destaca-se a identificação dos melhores métodos de pré-processamento e mineração de textos para prever e detectar ISC no HCPA, podendo ser aplicados a outros EA. O método Stochastic Gradient Descent (SGD) apresentou o melhor desempenho, 79,7% de ROC-AUC na previsão de EA. Já para detecção de EA o melhor método foi o Logistic Regression, com desempenho 80,6% de ROC-AUC. Os métodos de mineração de textos podem ser usados para apoiar de maneira eficaz a previsão e detecção de EA, direcionando ações de vigilância para a melhoria da segurança do paciente. / This work presents the results of a research that aimed to evaluate the performance of text mining methods in the prediction and detection of Adverse Events (AE). The first step was the systematic review of the literature that sought to identify the methods of text mining and the health areas they are being applied to predict and detect AE. After this step, an application of text mining methods was performed to predict Surgical Site Infections (SSI) from the free text of medical records at Hospital de Clínicas de Porto Alegre (HCPA). Finally, text mining methods were applied to detect SSI from the text of medical records 30 (thirty) days after surgery. As results, is highlight the identification of the best methods of pre-processing and text mining to predict and detect SSI in the HCPA, and can be applied to other AE. The Stochastic Gradient Descent (SGD) presented the best performance, 79.7% of ROC-AUC in the prediction of AE. Already for the detection of AE the best method was the Logistic Regression, with performance 80.6% of ROC-AUC. Text mining methods can be used to effectively support the prediction and detection of AE by directing surveillance actions to improve patient safety.
248

Presença plus : modelo de identificação de presença social em ambientes virtuais de ensino e aprendizagem

Bastos, Helvia Pereira Pinto January 2012 (has links)
Este trabalho de tese apresenta o Modelo Presença Plus (PPlus) para identificação de pistas textuais denotadoras de presença social em interações discursivas feitas por alunos em fóruns e chats educacionais. O grau de presença social (PS) é um indicativo de como os sujeitos interagem entre si e com o ambiente de aprendizagem; sendo considerado, na literatura, significativo para o desenvolvimento de relacionamentos e fortalecimento de sentimento de pertencimento no grupo. O trabalho se baseia na vertente Pragmática da Linguística, campo que enfatiza a importância de se considerar o contexto de produção dos eventos comunicativos e a dinâmica dialógica entre os interlocutores. Considerando que o mapeamento das interações dos discentes para detectar e avaliar seu grau de presença pode se constituir uma tarefa complexa e morosa para tutores de cursos a distância, desenvolveu-se um software para realizar o processamento automático das mensagens eletrônicas visando torná-lo uma funcionalidade a ser adicionada a ambientes virtuais de ensino e aprendizagem (AVEAs). Apesar de alguns impasses referentes, particularmente, aos aspectos sintáticos dos textos, os resultados obtidos no processamento, por lexicometria, das postagens foram satisfatoriamente semelhantes aos levantados na análise manual. O modelo PPlus e a escala de graus de PS foram também testados em um segundo ambiente disponibilizado na plataforma Moodle, tendo apresentado resultados equivalentes. A sondagem com professores e tutores de cursos a distância forneceu dados que corroboram a proposta de uma ferramenta a ser inserida em AVEAs de modo a facilitar o acompanhamento de estados afetivos, grau de envolvimento e interação entre os participantes no e com o ambiente. / This thesis presents Presence Plus (PPLus), a model for identifying indicators of social presence in text-based interactions made by students in educational forums and chats. The degree of social presence (SP) can be an indicator of how individuals interact among themselves and with the learning environment, and is considered by the literature to be relevant for the development of relationships and the strengthening of the sense of belonging in the group. This study is based on Pragmatics, an area of Linguistics that emphasizes the importance of the context in communicative events and the dialogic dynamics among speakers. Considering that mapping students’ interactions, as well as detecting and evaluating their degree of SP, may be a complex and time-consuming task in distance learning tutoring, a software was developed to do the automatic processing of posts, aiming at making it a possible functionality in virtual learning environments (VLEs). Despite the few conflicting results, mostly related to textual syntactic relations, data from processing tests using lexicometrics were satisfactorily similar to those obtained by manual analysis. The PPlus model and the SP scale were also tested in a different course in the Moodle platform. Results from this experiment presented equally positive data. Feedback from the questionnaire answered by teachers and tutors working in distance learning courses support the proposal of a tool that may facilitate their assessment of affective states, involvement and text-based interaction dents within the environment.
249

Conceitos de gestão da inovação : compatibilidades da linguagem técnica na produção científica veiculada em periódicos brasileiros entre 2008 e 2012

Valent, Vinicius Dornelles January 2013 (has links)
Este estudo analisa conceitos da linguagem científica, veiculados em periódicos nacionais da área de Administração, no período de 2008 a 2012, mais precisamente, 11 revistas classificadas pelo Qualis-Capes. Para tanto, focaliza a Teoria da Gestão da Inovação, embasada na Teoria Econômica da vertente schumpeteriana e neo-schumpeteriana e na Teoria da Linguagem. O ponto de partida foi o questionamento sobre: Qual a estrutura lógica dos conceitos-chave dos artigos sobre Gestão da Inovação? O objetivo geral foi verificar a consistência da linguagem empregada na produção de artigos brasileiros sobre a Gestão da Inovação em relação à sua Teoria. Como objetivos específicos, foram definidos os seguintes: identificar conceitos-chave por meio de um estudo-piloto; confrontar os conceitos identificados encontrados com aqueles elencados no projeto da dissertação; calcular a frequência do uso de tais conceitos-chave; formar clusters com os conceitos empregados pelos pesquisadores da área e, confrontar com as teorias de base o conteúdo de alguns conceitos de maior ocorrência. Este estudo classifica-se como uma pesquisa exploratória, com tratamentos quantitativo (mineração de textos) e qualitativo (análise de conteúdo) de dados. Os nove conceitos pesquisados foram os seguintes: Aprendizagem; Ciência e conhecimento científico; Capacidades (capabilities); Informação; Inovação; Invenção; Pesquisa e Desenvolvimento (P&D); Técnica e Tecnologia. O estudo-piloto constou da leitura de 31 artigos de uma das 11 revistas, cuja especialização era o tema da inovação. A análise quantitativa resultou em 10 clusters, representados por dendrogramas. A análise qualitativa confrontou alguns excertos extraídos dos artigos selecionados com as teorias de base da dissertação. O resultado da análise quantitativa apontou que os conceitos de “Informação”, “Aprendizagem” e “Tecnologia” são os que mais formam clusters com o conceito de “Inovação”. A análise qualitativa revelou que existem lacunas na relação lógica conceitual em muitos casos de aplicação dos conceitos-chave. Este motivo torna-se suficiente para estimular o surgimento de novos estudos nesta linha de tendência multidisciplinar. / The present study examines concepts of scientific language, conveyed in national Business Management scientific journals area, within the period between 2008 and 2012. Therefore, focuses on the theory of Innovation Management, based in the Economic Theory of schumpeterian and neo-schumpeterian strand and in the Theory of Language. The starting point was the question: "what key concepts in Innovation Management constitute a language that matches theoretical content?" The overall goal was to verify the language consistency used in some of Brazilian production of Innovation Management articles. Specific objectives were defined as follows: identify key concepts in reading scientific Brazilian articles chosen, list the key concepts related to innovation management; calculate use frequency of these key concepts; clustering the concepts used by this area researchers and compare contents of some highest occurrence concepts with based theories. This is an exploratory and descriptive research with quantitative (text mining) and qualitative (content analysis) treatment of data. The nine concepts surveyed were: Learning, Science and scientific knowledge; Capabilities; Information, Innovation, Invention, Research and Development (R&D); Technique and Technology. In order to confirm the pre-established conceptual corpus, we conducted a pilot study with a reading of 31 articles from a journal on the topic of innovation. The quantitative analysis resulted in 10 clusters, represented by dendrograms and qualitative analysis confronting extracted excerpts of selected articles with base theories of the study. The results of quantitative analysis showed that the concepts of "Information", "Learning" and "Technology" are the most clustered with the "Innovation" concept. Qualitative analysis revealed that there are gaps in the logic conceptual relationship in many of key concept applications. This fact becomes reason enough to stimulate the emergence of new studies in this multidisciplinary trendline.
250

Mineração textual e produção de fanfictions : processos desencadeadores de oportunidades de letramento no ensino de língua estrangeira

Barcellos, Patrícia da Silva Campelo Costa January 2013 (has links)
Esta tese tem por objetivo investigar como o letramento em língua estrangeira (LE) pode ser apoiado pelo uso de um recurso digital passível de auxiliar os processos de leitura e produção textual. Assim, a presente pesquisa baseia-se nos estudos de Feldman e Sanger (2006) acerca da mineração de textos e nas pesquisas de Black (2007, 2009) sobre a incorporação de um gênero textual característico da internet (fanfiction) na aprendizagem de línguas. Através da utilização de um recurso de mineração de texto (Sobek), a partir do qual ocorre a extração dos termos mais recorrentes em um texto, os participantes deste estudo criaram narrativas, em meio digital. Os doze alunos participantes da pesquisa utilizaram a ferramenta Sobek como mediadora da produção de histórias conhecidas como fanfictions, nas quais novas tramas são criadas a partir de elementos culturais já reconhecidos na mídia. Os informantes eram seis graduandos em Letras e seis alunos de um curso de extensão, ambos os grupos na Universidade Federal do Rio Grande do Sul (UFRGS). Na tarefa proposta, cada aprendiz leu uma fanfiction de sua escolha, publicada na web, e utilizou a ferramenta de mineração para formar grafos com os termos mais recorrentes da história. Durante tal processo, o aluno tinha oportunidade de fazer associações entre as expressões do texto, de modo a formar, na ferramenta Sobek, uma imagem em rede (grafo) que representasse termos recorrentes nesse gênero textual (tais como o uso de tempos verbais no passado e adjetivos para caracterizar personagens e contexto). Posteriormente, esse grafo foi repassado a um colega, que assim iniciou seu processo de composição com base nessa imagem representativa do texto. A partir da análise dos dados, observou-se que a utilização da ferramenta digital deu suporte à produção textual em LE, e sua subsequente prática de letramento, visto que os autores se apoiaram no recurso de mineração para criar suas narrativas fanfiction. / This doctoral thesis aims at investigating how literacy in a foreign language (FL) may be supported by the use of a digital resource which can help the processes of reading and writing. Thus, the present research is based on studies by Feldman and Sanger (2006) about text mining, and on research by Black (2007, 2009) about the incorporation of a textual genre characteristic of the Internet (fanfiction) in language learning. Through the use of a text mining resource (Sobek), which promotes the extraction of frequent terms present in a text, the participants of this study created narratives, in digital media. The twelve students who participated in the research used the tool Sobek to mediate the production of stories known as fanfictions, in which new plots are created from cultural elements already recognized in the media. The participants were six undergraduate students of Languages and six students who were part of an extension course, both groups at the Federal University of Rio Grande do Sul (UFRGS). In the proposed task, each student read a fanfiction of his/her choice, which was published on a website, and used the mining tool to develop graphs with the recurrent terms found in the story. During this process, the student had the opportunity to make associations between expressions from the text, using the software Sobek, so as to form an image (graph) that represented terms used in this textual genre (such as the use of verbal tenses in the past and adjectives to describe characters and context). Later, this graph was forwarded to a peer, who then began his/her writing process based on this picture originated from a text. From the data analysis, it was observed that the use of a digital tool supported the text production in the FL, and its following practice of literacy, as the authors relied on the mining resource to create their fanfictions.

Page generated in 0.0833 seconds