• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 202
  • 25
  • 6
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 233
  • 233
  • 233
  • 114
  • 113
  • 82
  • 52
  • 51
  • 51
  • 47
  • 47
  • 36
  • 36
  • 35
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Reconhecimento de traços de personalidade com base em textos / Personality traits recognition through texts

Barbara Barbosa Claudino da Silva 27 February 2018 (has links)
Apresentamos uma pesquisa na área de Processamento de Linguagem Natural, para reconhecimento de personalidade com base em textos da língua portuguesa. Neste trabalho utilizamos textos provenientes da rede social Facebook, em conjunto com o modelo de personalidade dos Cinco Grandes Fatores, para construir um córpus rotulado com as personalidades de seus autores e, após a identificação das características mais relevantes para o reconhecimento de personalidade, construir modelos computacionais utilizando essas características. Utilizando-se métodos provenientes de léxicos, como o dicionário LIWC ou atributos psicolinguísticos, e métodos provenientes do próprio texto, como bag of words, representação distribuída de palavras e de documentos foram desenvolvidos modelos para reconhecimento de personalidade sem a necessidade de outros métodos mais comumente utilizados para essa tarefa, como inventários ou entrevistas com psicólogos. Os resultados dos métodos de representação distribuída são ligeiramente superiores do que os resultados utilizando o dicionário LIWC, com a vantagem de não exigirem recursos dependentes de um idioma específico / We present a research proposal in the Natural Language Processing field, to recognize personality through texts in the portuguese language. Using texts from the social network Facebook we built a corpus labeled with authors Big-5 personality traits, and after identifying the most relevant atributes to recognize personality, we built computational models based on those attributes. The model was expected to recognize personality without the help of any other methods commonly used in this task, such as inventories or interviews with psychologists. Using lexical methods such as the LIWC dictionary or psycholinguistic attributes, and methods from the text itself, such as bag of words, distributed representation of words and documents, we obtained models for personality recognition without the need of other methods most commonly used for this task. The results of distributed representation methods are slightly better than the results using the LIWC dictionary, with the advantage of not requiring features dependent on a specific language
132

Reescrita sentencial baseada em traços de personalidade / Text rewrite based on psychological profiles

Georges Basile Stávracas Neto 13 March 2018 (has links)
Sistemas de Geração de Língua Natural tentam produzir textos de maneira automatizada. Em sistemas desse tipo, é desejável produzir textos de forma realista - ou psicologicamente plausível - como forma de aumentar o engajamento do leitor. Uma das formas de alcançar esse objetivo é gerando textos de modo a refletir uma personalidade-alvo de interesse. Por exemplo, uma pessoa extrovertida usaria palavras mais simples e seus textos teriam mais interjeições e traços de oralidade. Esse trabalho tem o objetivo de desenvolver um modelo de reescrita sentencial para o português brasileiro com base em traços de personalidade de um locutor-alvo. Para isso, foi coletado um córpus de textos e inventários de personalidade e, com base em uma análise preliminar desses dados, foram encontrados fortes indícios de correlação entre os fatores de personalidade e as características observadas dos textos em português brasileiro. Foram gerados três modelos de lexicalização, referentes à adjetivos, substantivos e verbos. Esses modelos de lexicalização, então, foram utilizados na proposta de um modelo de reescrita sentencial para selecionar as palavras mais adequadas à personalidade-alvo. Os resultados demonstram que o uso de personalidade permite que o texto gerado seja mais próximo do desempenho humano se comparado a um sistema de baseline que faz escolhas lexicais mais frequentes / Natural Language Generation Systems attempt to produce texts in an automated fashion. In systems of this kind, it is desired to produce texts realisticaly - or at least psychologically plausible - as a way to increase reader\'s engagement. One way to achieve this goal is generating texts in such a way to reflect a target personality profile. For example, an extroverted individual would use simpler words and its texts would have more interjections and orality traces. This work proposes the development of a Brazilian Portuguese personality-based sentence rewrite model. To this end, a corpus with text samples and personality inventories has been collected, and, based on a preliminary analysis, strong correlations between personality and text features have been found. Three lexicalization models were generated, related to adjectives, nouns and verbs. These models were then used by the sentence rewrite model to select the most appropriate word for the target personality. Results show that the usage of personality allows the generated text to be closer to human performance when compared to a baseline system that makes lexical choices based on frequency
133

Extração de informação e documentação de laudos médicos. / Information extraction and medical reports documentation.

Alice Shimada Bacic 09 May 2007 (has links)
Os sistemas de informação hospitalares geram diariamente uma quantidade significativa de dados em formato de texto livre, principalmente através de laudos médicos. Os laudos geralmente são recuperados do sistema através de informações associadas, como identificação do paciente, por datas ou profissional responsável. A recuperação da informação a partir do conteúdo descritivo é uma tarefa não trivial, pois os sistemas hospitalares em geral não são capazes de verificar o conteúdo de um texto livre em uma busca. Não havendo uma estrutura básica de organização, categorização ou indexação do texto livre armazenado nas bases hospitalares, uma grande quantidade de informação deixa de estar disponível para profissionais que necessitam delas, pois não sabem como recuperá-las. A capacidade de recuperação do conhecimento armazenado nestas bases de dados seria de grande valia para pesquisadores, estudantes ou mesmo para o estudo de casos clínicos. Segundo o contexto descrito, este trabalho propõe a criação de uma ferramenta de documentação automática que tem por objetivo gerar uma formatação associada ao texto livre de laudos em radiologia através da adição de informações obtidas a partir de sistemas de terminologias médicos padronizados. Com este procedimento, pretende-se facilitar a pesquisa pelo conhecimento armazenado em uma base de dados médicos através da informação adicional gerada. Para tanto o trabalho envolve pesquisas nas áreas de Ontologias e Extração deInformação, uma subárea do Processamento de linguagem Natural. As ontologias são importantes neste trabalho por tratarem o problema da padronização das terminologias usadas na escrita dos laudos, bem como para fornecer a organização e formatação necessária para que os laudos passem a ser partes de uma base de conhecimento. ) A Extração de Informação fornece os algoritmos e técnicas necessárias para que os laudos sejam documentados de forma automática, minimizando a necessidade de intervenção humana, normalmente muito custosa em termos de trabalho manual e tempo. Como resultado final obteve-se um conjunto de metodologias e ferramentas capazes de receber um laudo em texto livre e gerar um documento XML rotulado com códigos de conceitos definidos em um sistema de terminologias médico, como o UMLS ou o Radlex. Em todas as fases de processamento, até a obtenção do arquivo XML de saída, obteve-se valores de precisão superiores a 70%, um resultado bastante satisfatório se considerado que os algoritmos de PLN utilizados são todos baseados em regras. Em adição às ferramentas de PLN desenvolvidas, cita-se como resultados, os trabalhos desenvolvidos para avaliação de ontologias médicas segundo uma área médica prédefinido, a organização das ontologias em um formato útil para a utilização por algoritmos de PLN, a criação de um Corpus de laudos de Raio-X de Tórax em português para treinamento e testes de aplicações de PLN e um modelo de informação para documentação dos laudos. / Hospital Information Systems generate each day a significant amount of data in free text format, mainly as medical reports. Normally the reports are recovered from the system through associated information like patient identification, dates or responsible identification, for example. To recover a report by its content is not a trivial task since hospital systems are not capable of searching the free text content. Without a basic organizational structure, some categorization and indexing the free text stored on the hospital database is not accessible, since it cannot be recovered in the right context when it is needed. The ability of recovering the knowledge stored on these databases would be valuable for researchers, students or for the study of clinical cases. According to the described context, this work considers the creation of a tool for automatic documentation of medical reports written in free text. The main objective is to format radiological reports to achieve a more efficient way of recovering the knowledge stored in medical report\'s databases. To achieve this goal, information from medical terminology systems is added to the original report automatically. Such task requires some research in the field of Ontologies and Information Extraction, a sub field of Natural Language Processing. Ontologies are important in this work because they provide the standardization needed for the terminologies used in the written reports. It is important too forsupplying the organization necessary to format the reports in an adequate way to be stored on the knowledge base. Information Extraction supplies the algorithms and the necessary techniques to register in an automatic way the radiological reports, minimizing the human intervention, normally with a high cost in terms of handwork and time. ) The final result achieved was a set of methodologies and tools used to process a free text report, generating a XML document tagged with codes extracted from a medical terminology system. Considering all process steps, it was achieved a precision of at least 70%, in each step, a good score, if we consider that all the algorithms are rule based. In addiction to the NLP tools results, there are results concerning to medical ontologies evaluation for a pre-defined medical area, the organization need to make the ontologies usable by the NLP tools, the creation of a x-ray Corpus of reports in Portuguese and an information model used to document the reports. The Corpus could be used on the evaluation and test of NLP tools.
134

Extração de informação e documentação de laudos médicos. / Information extraction and medical reports documentation.

Bacic, Alice Shimada 09 May 2007 (has links)
Os sistemas de informação hospitalares geram diariamente uma quantidade significativa de dados em formato de texto livre, principalmente através de laudos médicos. Os laudos geralmente são recuperados do sistema através de informações associadas, como identificação do paciente, por datas ou profissional responsável. A recuperação da informação a partir do conteúdo descritivo é uma tarefa não trivial, pois os sistemas hospitalares em geral não são capazes de verificar o conteúdo de um texto livre em uma busca. Não havendo uma estrutura básica de organização, categorização ou indexação do texto livre armazenado nas bases hospitalares, uma grande quantidade de informação deixa de estar disponível para profissionais que necessitam delas, pois não sabem como recuperá-las. A capacidade de recuperação do conhecimento armazenado nestas bases de dados seria de grande valia para pesquisadores, estudantes ou mesmo para o estudo de casos clínicos. Segundo o contexto descrito, este trabalho propõe a criação de uma ferramenta de documentação automática que tem por objetivo gerar uma formatação associada ao texto livre de laudos em radiologia através da adição de informações obtidas a partir de sistemas de terminologias médicos padronizados. Com este procedimento, pretende-se facilitar a pesquisa pelo conhecimento armazenado em uma base de dados médicos através da informação adicional gerada. Para tanto o trabalho envolve pesquisas nas áreas de Ontologias e Extração deInformação, uma subárea do Processamento de linguagem Natural. As ontologias são importantes neste trabalho por tratarem o problema da padronização das terminologias usadas na escrita dos laudos, bem como para fornecer a organização e formatação necessária para que os laudos passem a ser partes de uma base de conhecimento. ) A Extração de Informação fornece os algoritmos e técnicas necessárias para que os laudos sejam documentados de forma automática, minimizando a necessidade de intervenção humana, normalmente muito custosa em termos de trabalho manual e tempo. Como resultado final obteve-se um conjunto de metodologias e ferramentas capazes de receber um laudo em texto livre e gerar um documento XML rotulado com códigos de conceitos definidos em um sistema de terminologias médico, como o UMLS ou o Radlex. Em todas as fases de processamento, até a obtenção do arquivo XML de saída, obteve-se valores de precisão superiores a 70%, um resultado bastante satisfatório se considerado que os algoritmos de PLN utilizados são todos baseados em regras. Em adição às ferramentas de PLN desenvolvidas, cita-se como resultados, os trabalhos desenvolvidos para avaliação de ontologias médicas segundo uma área médica prédefinido, a organização das ontologias em um formato útil para a utilização por algoritmos de PLN, a criação de um Corpus de laudos de Raio-X de Tórax em português para treinamento e testes de aplicações de PLN e um modelo de informação para documentação dos laudos. / Hospital Information Systems generate each day a significant amount of data in free text format, mainly as medical reports. Normally the reports are recovered from the system through associated information like patient identification, dates or responsible identification, for example. To recover a report by its content is not a trivial task since hospital systems are not capable of searching the free text content. Without a basic organizational structure, some categorization and indexing the free text stored on the hospital database is not accessible, since it cannot be recovered in the right context when it is needed. The ability of recovering the knowledge stored on these databases would be valuable for researchers, students or for the study of clinical cases. According to the described context, this work considers the creation of a tool for automatic documentation of medical reports written in free text. The main objective is to format radiological reports to achieve a more efficient way of recovering the knowledge stored in medical report\'s databases. To achieve this goal, information from medical terminology systems is added to the original report automatically. Such task requires some research in the field of Ontologies and Information Extraction, a sub field of Natural Language Processing. Ontologies are important in this work because they provide the standardization needed for the terminologies used in the written reports. It is important too forsupplying the organization necessary to format the reports in an adequate way to be stored on the knowledge base. Information Extraction supplies the algorithms and the necessary techniques to register in an automatic way the radiological reports, minimizing the human intervention, normally with a high cost in terms of handwork and time. ) The final result achieved was a set of methodologies and tools used to process a free text report, generating a XML document tagged with codes extracted from a medical terminology system. Considering all process steps, it was achieved a precision of at least 70%, in each step, a good score, if we consider that all the algorithms are rule based. In addiction to the NLP tools results, there are results concerning to medical ontologies evaluation for a pre-defined medical area, the organization need to make the ontologies usable by the NLP tools, the creation of a x-ray Corpus of reports in Portuguese and an information model used to document the reports. The Corpus could be used on the evaluation and test of NLP tools.
135

Descoberta de relacionamentos semânticos não taxonômicos entre termos ontológicos

Andrade, Arthur Morais de 14 February 2017 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-08-03T19:48:04Z No. of bitstreams: 1 DissAMA.pdf: 3949100 bytes, checksum: a7c504999039d0736a8629285dd87c12 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-08T18:37:14Z (GMT) No. of bitstreams: 1 DissAMA.pdf: 3949100 bytes, checksum: a7c504999039d0736a8629285dd87c12 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-08T18:37:20Z (GMT) No. of bitstreams: 1 DissAMA.pdf: 3949100 bytes, checksum: a7c504999039d0736a8629285dd87c12 (MD5) / Made available in DSpace on 2017-08-08T18:41:15Z (GMT). No. of bitstreams: 1 DissAMA.pdf: 3949100 bytes, checksum: a7c504999039d0736a8629285dd87c12 (MD5) Previous issue date: 2017-02-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Ontologies have become an important tool to structure knowledge. However, the construction of an ontology involves a careful process of defining representative terms of the domain and its relationships, which requires a lot of time from ontology engineers and domain experts. These relationships can be taxonomic (hyponymy and meronymy), representing a taxonomy of concepts, and non-taxonomic, referring to the other relationships that occur between the nodes of this taxonomy. The main difficulties of constructing an ontology are related to the time spent by domain specialists and the necessity of guaranteeing the quality and reliability of the ontologies create. In this way, we are welcome the efforts to elaborate approaches that aim to reduce the amount of time dedicated by specialists without reducing the quality of the ontology created. In this master's project, an approach was developed for the discovery of semantic relationships between non-taxonomic ontological terms from semi-structured documents written with informal vocabularies of the Brazilian Portuguese language. Thus, it aids ontology engineers and domain experts in the arduous task of discovering the relationships between ontological terms. After the discovery of semantic relationships, the relationships were converted into a conceptual structure, generated by the Formal Concept Analysis (FCA) method. This approach was validated in two experiments, with the help of domain experts in special education. The first experiment consisted of a comparison between manually extracted relationships and automatic extraction, presenting a good value of precision, coverage and measurement F, respectively, 92%, 95% and 93%. The second experiment evaluated the relationships extracted, automatically, in the structure generated by the FCA, it gets average accuracy 86,5%.These results prove the effectiveness of the semantic relationship discovery approach. / Ontologias têm se tornado um importante instrumento para a estruturação do conhecimento. Porém, a construção de uma ontologia envolve um cuidadoso processo de definição de termos representativos do domínio e seus relacionamentos, exigindo muito tempo dos engenheiros de ontologias em conjunto com especialistas de domínio. Esses relacionamentos podem ser taxonômicos (hiponímia e meronímia), representando uma taxonomia de conceitos, e não taxonômicos, referentes aos demais relacionamentos que ocorrem entre os nós dessa taxonomia. As principais dificuldades estão relacionadas ao tempo gasto pelos especialistas de domínio e às garantias necessárias para a qualidade das ontologias criadas, tornando-as confiáveis. Neste sentido, são bem-vindos os esforços para a elaboração de abordagens que visam diminuir o tempo de dedicação do especialista sem redução de qualidade da ontologia criada. Neste trabalho foi desenvolvida uma abordagem para a descoberta de relações semânticas não taxonômicas entre termos ontológicos, a partir de documentos semiestruturados redigidos com vocábulos informais do Português variante brasileira. A abordagem visa auxiliar engenheiros de ontologias e especialistas de domínio na árdua tarefa de descoberta dos relacionamentos entre termos ontológicos. Após a descoberta dos relacionamentos semânticos, estes foram convertidos em uma estrutura conceitual, gerada pelo método Formal Concept Analysis (FCA). Essa abordagem foi avaliada em dois experimentos, com auxílio de especialistas de domínio em Educação Especial. O primeiro experimento consistiu em uma comparação entre os relacionamentos extraídos de forma manual e a extração automática, apresentando um bom valor de precisão, cobertura e medida F, obtendo, respectivamente, 92%, 95% e 93%. Já o segundo experimento consistiu em avaliar os relacionamentos extraídos automaticamente na estrutura gerada pelo FCA, obtendo precisão média 86,5%. Esses resultados indicam a eficácia da abordagem de descoberta de relacionamentos semânticos.
136

Conjunto de informações essenciais de enfermagem para atendimento a portadoras de endometriose / Dandara Novakowsk Spigolon ; orientadora, Cláudia Maria Cabral Moro Barra

Spigolon, Dandara Novakowsk January 2011 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2011 / Bibliografia: f. 130-142 / Justificativa: A endometriose atinge em torno de 10 a 15% das mulheres em idade reprodutiva. A importância de um bom acompanhamento, inclusive multidisciplinar, se deve à alta prevalência, etiopatogenia incerta, cronicidade e morbidade do quadro. Porém, o / Background: Endometriosis affects about 10 to 15% of women of reproductive age. The importance of good monitoring, including multidisciplinary, is due to high prevalence, etiology uncertain, morbidity and chronicity of the condition. However, the role of
137

Aquisição de conhecimento de mundo para sistemas de processamento de linguagem natural / World of knowledge acquisition for systems of natural language processing

Silva, José Wellington Franco da January 2013 (has links)
SILVA, José Wellington Franco da. Aquisição de conhecimento de mundo para sistemas de processamento de linguagem natural. 2013. 88 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T17:27:20Z No. of bitstreams: 1 2013_dis_jwfsilva.pdf: 3234188 bytes, checksum: 9b5bbdb17bd9bce014a2e05dd96198bc (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-18T15:14:38Z (GMT) No. of bitstreams: 1 2013_dis_jwfsilva.pdf: 3234188 bytes, checksum: 9b5bbdb17bd9bce014a2e05dd96198bc (MD5) / Made available in DSpace on 2016-07-18T15:14:38Z (GMT). No. of bitstreams: 1 2013_dis_jwfsilva.pdf: 3234188 bytes, checksum: 9b5bbdb17bd9bce014a2e05dd96198bc (MD5) Previous issue date: 2013 / One of the challenges of research in Natural Language Processing(NLP) is to provide semantic and linguistic resources to express knowledge of the world to support tasks such as Information Extraction, Information Retrieval systems, Questions & Answering, Text Summarization, Annotation Semantics of texts, etc. For this challenge this work proposes strategies for acquiring knowledge of the world. We propose two methods. The first is a semi-automatic method that has main idea of using a semantic reasoning process on pre-existing knowledge base semantics. The second is an acquisition method that utilizes automatic Wikipedia for generating semantical content. Wikipedia was used as a source of knowledge because of the reliability, dynamism and scope of its content. In this work we propose a method for acquiring semantic relations between concepts from the texts of Wikipedia articles that makes use of an implicit knowledge that exists in Wikipedia and in hypermedia systems: links between articles. Throughout the descriptive text of a Wikipedia article appear links to other articles that are evidence that there is a relationship between the current article and another article referenced by the link. The proposed method aims to capture the semantic relationship expressed in the text between them (current article and link to another article), no regular expressions identifying similar relationships through a semantic similarity measure. / Um dos desafios das pesquisas na área de Processamento de Linguagem Natural (PLN) é prover recursos semântico-linguísticos que expressem conhecimento de mundo para suportar tarefas como: extração de informação, recuperação de informação, sistemas de perguntas e respostas, sumarização de textos, anotação semântica de textos, dentre outras. Para esse desafio este trabalho propõe estratégias para aquisição de conhecimento de mundo. Propomos dois métodos. O primeiro é um método semiautomático que tem como ideia principal utilizar um processo de raciocínio semântico sobre o conhecimento pré-existente em uma base semântica. O segundo é um método de aquisição automática que utiliza a Wikipédia para a geração de conteúdo semântico. A Wikipédia foi utilizada como fonte de conhecimento devido à confiabilidade, dinamicidade e abrangência de seu conteúdo. Neste trabalho propomos um método para aquisição de relações semânticas entre conceitos a partir de textos de artigos da Wikipédia que faz uso de um conhecimento implícito existente na Wikipédia e em sistemas hipermídia: os links entre artigos. Ao longo do texto descritivo de um artigo da Wikipédia aparecem links para outros artigos que são evidências de que há uma relação entre o artigo corrente e o outro artigo referenciado pelo link. O método proposto objetiva capturar a relação semântica expressa no texto entre eles (artigo corrente e link para outro artigo), sem expressões regulares identificando relações similares através de uma medida de similaridade semântica.
138

MALTU – um modelo para avaliação da interação em sistemas sociais a partir da linguagem textual do usuário / MALTU - model for evaluation of interaction in social systems from the Users Textual Language

Mendes, Marília Soares January 2015 (has links)
MENDES, Marília Soares. MALTU – um modelo para avaliação da interação em sistemas sociais a partir da linguagem textual do usuário. 2015. 199 f. Tese (Doutorado em Ciência da Computação)-Universidade Federal do Ceará, Fortaleza, 2015. / Submitted by Vitor Campos (vitband@gmail.com) on 2016-09-27T23:24:34Z No. of bitstreams: 1 2015_tese_msmendes.pdf: 9165504 bytes, checksum: 35e2398a141e078cdbae6331e1173c8a (MD5) / Approved for entry into archive by Jairo Viana (jairo@ufc.br) on 2016-09-27T23:40:31Z (GMT) No. of bitstreams: 1 2015_tese_msmendes.pdf: 9165504 bytes, checksum: 35e2398a141e078cdbae6331e1173c8a (MD5) / Made available in DSpace on 2016-09-27T23:40:31Z (GMT). No. of bitstreams: 1 2015_tese_msmendes.pdf: 9165504 bytes, checksum: 35e2398a141e078cdbae6331e1173c8a (MD5) Previous issue date: 2015 / The field of Human Computer Interaction (HCI) has suggested various methods for evaluating systems in order to improve their usability and User eXperience (UX). The advent of Web 2.0 has allowed the development of applications marked by collaboration, communication and interaction among their users in a way and on a scale never seen before. Social Systems (SS) (e.g. Twitter, Facebook, MySpace, LinkedIn etc.) are examples of such applications and have features such as: frequent exchange of messages, spontaneity and expression of feelings. The opportunities and challenges posed by these types of applications require the traditional evaluation methods to be reassessed, taking into consideration these new characteristics. For instance, the postings of users on SS reveal their opinions on various issues, including on what they think of the system. This work aims to test the hypothesis that the postings of users in SS provide relevant data for evaluation of the usability and of UX in SS. While researching through literature, we have not identified any evaluation model intending to collect and interpret texts from users in order to assess the user experience and system usability. Thus, this thesis proposes MALTU - Model for evaluation of interaction in social systems from the Users Textual Language. In order to provide a basis for the development of the proposed model, we conducted a study of how users express their opinions on the system in natural language. We extracted postings of users from four SS of different contexts. HCI experts classified, studied and processed such postings by using Natural Language Processing (PLN) techniques and data mining, and then analyzed them in order to obtain a generic model. The MALTU was applied in two SS: an entertainment and an educational SS. The results show that is possible to evaluate a system from the postings of users in SS. Such assessments are aided by extraction patterns related to the use, to the types of postings and to HCI factors used in system. / A área de Interação Humano-Computador (IHC) tem sugerido muitas formas para avaliar sistemas a fim de melhorar sua usabilidade e a eXperiência do Usuário (UX). O surgimento da web 2.0 permitiu o desenvolvimento de aplicações marcadas pela colaboração, comunicação e interatividade entre seus usuários de uma forma e em uma escala nunca antes observadas. Sistemas Sociais (SS) (e.g., Twitter, Facebook, MySpace, LinkedIn etc.) são exemplos dessas aplicações e possuem características como: frequente troca de mensagens e expressão de sentimentos de forma espontânea. As oportunidades e os desafios trazidos por esses tipos de aplicações exigem que os métodos tradicionais de avaliação sejam repensados, considerando essas novas características. Por exemplo, as postagens dos usuários em SS revelam suas opiniões sobre diversos assuntos, inclusive sobre o que eles pensam do sistema em uso. Esta tese procura testar a hipótese de que as postagens dos usuários em SS fornecem dados relevantes para avaliação da Usabilidade e da UX (UUX) em SS. Durante as pesquisas realizadas na literatura, não foi identificado nenhum modelo de avaliação que tenha direcionado seu foco na coleta e análise das postagens dos usuários a fim de avaliar a UUX de um sistema em uso. Sendo assim, este estudo propõe o MALTU – Modelo para Avaliação da interação em sistemas sociais a partir da Linguagem Textual do Usuário. A fim de fornecer bases para o desenvolvimento do modelo proposto, foram realizados estudos de como os usuários expressam suas opiniões sobre o sistema em língua natural. Foram extraídas postagens de usuários de quatro SS de contextos distintos. Tais postagens foram classificadas por especialistas de IHC, estudadas e processadas utilizando técnicas de Processamento da Linguagem Natural (PLN) e mineração de dados e, analisadas a fim da obtenção de um modelo genérico. O MALTU foi aplicado em dois SS: um de entretenimento e um SS educativo. Os resultados mostram que é possível avaliar um sistema a partir das postagens dos usuários em SS. Tais avaliações são auxiliadas por padrões de extração relacionados ao uso, aos tipos de postagens e às metas de IHC utilizadas na avaliação do sistema.
139

[en] USING MACHINE LEARNING TO BUILD A TOOL THAT HELPS COMMENTS MODERATION / [pt] UTILIZANDO APRENDIZADO DE MÁQUINA PARA CONSTRUÇÃO DE UMA FERRAMENTA DE APOIO A MODERAÇÃO DE COMENTÁRIOS

SILVANO NOGUEIRA BUBACK 05 March 2012 (has links)
[pt] Uma das mudanças trazidas pela Web 2.0 é a maior participação dos usuários na produção do conteúdo, através de opiniões em redes sociais ou comentários nos próprios sites de produtos e serviços. Estes comentários são muito valiosos para seus sites pois fornecem feedback e incentivam a participação e divulgação do conteúdo. Porém excessos podem ocorrer através de comentários com palavrões indesejados ou spam. Enquanto para alguns sites a própria moderação da comunidade é suficiente, para outros as mensagens indesejadas podem comprometer o serviço. Para auxiliar na moderação dos comentários foi construída uma ferramenta que utiliza técnicas de aprendizado de máquina para auxiliar o moderador. Para testar os resultados, dois corpora de comentários produzidos na Globo.com foram utilizados, o primeiro com 657.405 comentários postados diretamente no site, e outro com 451.209 mensagens capturadas do Twitter. Nossos experimentos mostraram que o melhor resultado é obtido quando se separa o aprendizado dos comentários de acordo com o tema sobre o qual está sendo comentado. / [en] One of the main changes brought by Web 2.0 is the increase of user participation in content generation mainly in social networks and comments in news and service sites. These comments are valuable to the sites because they bring feedback and motivate other people to participate and to spread the content. On the other hand these comments also bring some kind of abuse as bad words and spam. While for some sites their own community moderation is enough, for others this impropriate content may compromise its content. In order to help theses sites, a tool that uses machine learning techniques was built to mediate comments. As a test to compare results, two datasets captured from Globo.com were used: the first one with 657.405 comments posted through its site and the second with 451.209 messages captured from Twitter. Our experiments show that best result is achieved when comment learning is done according to the subject that is being commented.
140

AquisiÃÃo de Conhecimento de Mundo para Sistemas de Processamento de Linguagem Natural / World of Knowledge Acquisition for Systems of Natural Language Processing

Josà Wellington Franco da Silva 30 August 2013 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / Um dos desafios das pesquisas na Ãrea de Processamento de Linguagem Natural (PLN) à prover recursos semÃntico-linguÃsticos que expressem conhecimento de mundo para suportar tarefas como: extraÃÃo de informaÃÃo, recuperaÃÃo de informaÃÃo, sistemas de perguntas e respostas, sumarizaÃÃo de textos, anotaÃÃo semÃntica de textos, dentre outras. Para esse desafio este trabalho propÃe estratÃgias para aquisiÃÃo de conhecimento de mundo. Propomos dois mÃtodos. O primeiro à um mÃtodo semiautomÃtico que tem como ideia principal utilizar um processo de raciocÃnio semÃntico sobre o conhecimento prÃ-existente em uma base semÃntica. O segundo à um mÃtodo de aquisiÃÃo automÃtica que utiliza a WikipÃdia para a geraÃÃo de conteÃdo semÃntico. A WikipÃdia foi utilizada como fonte de conhecimento devido à confiabilidade, dinamicidade e abrangÃncia de seu conteÃdo. Neste trabalho propomos um mÃtodo para aquisiÃÃo de relaÃÃes semÃnticas entre conceitos a partir de textos de artigos da WikipÃdia que faz uso de um conhecimento implÃcito existente na WikipÃdia e em sistemas hipermÃdia: os links entre artigos. Ao longo do texto descritivo de um artigo da WikipÃdia aparecem links para outros artigos que sÃo evidÃncias de que hà uma relaÃÃo entre o artigo corrente e o outro artigo referenciado pelo link. O mÃtodo proposto objetiva capturar a relaÃÃo semÃntica expressa no texto entre eles (artigo corrente e link para outro artigo), sem expressÃes regulares identificando relaÃÃes similares atravÃs de uma medida de similaridade semÃntica. / One of the challenges of research in Natural Language Processing(NLP) is to provide semantic and linguistic resources to express knowledge of the world to support tasks such as Information Extraction, Information Retrieval systems, Questions & Answering, Text Summarization, Annotation Semantics of texts, etc. For this challenge this work proposes strategies for acquiring knowledge of the world. We propose two methods. The first is a semi-automatic method that has main idea of using a semantic reasoning process on pre-existing knowledge base semantics. The second is an acquisition method that utilizes automatic Wikipedia for generating semantical content. Wikipedia was used as a source of knowledge because of the reliability, dynamism and scope of its content. In this work we propose a method for acquiring semantic relations between concepts from the texts of Wikipedia articles that makes use of an implicit knowledge that exists in Wikipedia and in hypermedia systems: links between articles. Throughout the descriptive text of a Wikipedia article appear links to other articles that are evidence that there is a relationship between the current article and another article referenced by the link. The proposed method aims to capture the semantic relationship expressed in the text between them (current article and link to another article), no regular expressions identifying similar relationships through a semantic similarity measure.

Page generated in 0.174 seconds