• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 3
  • Tagged with
  • 34
  • 21
  • 19
  • 9
  • 9
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

[en] AUTOBIOGRAPHICAL MEMORIES AND MENTAL IMAGERY: AN EMOTIONAL REGULATION AND RECONSOLIDATION STUDY / [pt] MEMÓRIAS AUTOBIOGRÁFICAS E IMAGINAÇÃO: UM ESTUDO DE REGULAÇÃO EMOCIONAL E RECONSOLIDAÇÃO

JOANA SANTOS PRA BALDI 17 March 2021 (has links)
[pt] A presente dissertação tem como objetivo explorar a conexão entre memórias autobiográficas (MA) e imagética mental (IM) através de uma revisão sistemática e um estudo empírico. A presente revisão investiga o papel da AM e MI como procedimentos de indução de humor (PIH). Os resultados em geral sugerem que uma variedade de pistas tem sido usada para evocar MA ou IM. Verificou-se também que poucos estudos relataram resultados estatísticos sobre a eficácia dos métodos, controle dos efeitos de demanda ou empregaram medidas fisiológicas da emoção. Recomenda-se um trabalho adicional para investigar as implicações dessas questões metodológicas. O estudo empírico explorou os efeitos das tarefas IM (positivo ou neutro) sobre a MA de adultos jovens saudáveis. Na Sessão 1, os participantes se lembraram de um evento triste. Dependendo do grupo, eles deveriam imaginar um cenário alternativo positivo ou neutro para a memória. Duas semanas mais tarde, na Sessão 2, eles tiveram que completar a mesma tarefa de memória. Os resultados indicam que os PIHs foram eficazes, com aumentos no humor negativo após a MA triste e melhorias no humor em ambos os grupos após IM, independentemente do seu conteúdo emocional. Isso sugere que as IMs podem ser usadas como uma estratégia eficaz de regulação emocional para o material autobiográfico negativo, e que o conteúdo emocional das imagens pode não ter um impacto crucial nesse processo, porém são necessários mais estudos para realizar esta avaliação, explorar diferentes tipos de memória emocional e estender esse paradigma para populações clínicas. / [en] The current dissertation aims to explore the connection between autobiographical memories (AM) and mental imagery (MI) through a systematic review and an empirical study. The present review investigates the role of AM and MI as mood induction procedures (MIP). Results broadly suggest that a variety of cues to elicit AM or MI has been used. It was also found that few studies reported statistical results about the methods efficacy, control for demand effects, or employed physiological measures of emotion. Further work investigating the implications of these methodological issues is recommended. The empirical study explored the effects of MI tasks (positive or neutral) on AM of healthy young adults. In Session 1, participants remembered a sad life event. Depending on their group, they should imagine either a positive or a neutral alternative scenario to the memory. Two weeks later, in Session 2, they had to complete the same memory task. Results indicate that MIPs were effective, with increases in negative mood after the sad AM and improvements in mood in both groups after imagery regardless of its emotional content. Memory report revealed that groups had a similar profile of memory intrusion. This suggests that mental imagery may be used as an effective emotional regulation strategy for negative autobiographical material, and that the emotional content of imagery may not have a crucial impact in this process. Further studies are needed to evaluate the use of imagery as emotional regulation, explore different types of emotional memory and extend this paradigm to clinical populations.
32

[en] COREFERENCE RESOLUTION FOR THE ENGLISH LANGUAGE / [pt] RESOLUÇÃO DE CO-REFERÊNCIA PARA A LÍNGUA INGLESA

ADRIEL GARCIA HERNANDEZ 28 July 2017 (has links)
[pt] Um dos problemas encontrados nos sistemas de processamento de linguagem natural é a dificuldade em identificar elementos textuais que se referem à mesma entidade. Este fenômeno é chamado de correferência. Resolver esse problema é parte integrante da compreensão do discurso, permitindo que os usuários da linguagem conectem as partes da informação de fala relativas à mesma entidade. Por conseguinte, a resolução de correferência é um importante foco de atenção no processamento da linguagem natural.Apesar da riqueza das pesquisas existentes, o desempenho atual dos sistemas de resolução de correferência ainda não atingiu um nível satisfatório. Neste trabalho, descrevemos um sistema de aprendizado estruturado para resolução de correferências em restrições que explora duas técnicas: árvores de correferência latente e indução automática de atributos guiadas por entropia. A modelagem de árvore latente torna o problema de aprendizagem computacionalmente viável porque incorpora uma estrutura escondida relevante. Além disso, utilizando um método automático de indução de recursos, podemos construir eficientemente modelos não-lineares, usando algoritmos de aprendizado de modelo linear como, por exemplo, o algoritmo de perceptron estruturado e esparso.Nós avaliamos o sistema para textos em inglês, utilizando o conjunto de dados da CoNLL-2012 Shared Task. Para a língua inglesa, nosso sistema obteve um valor de 62.24 por cento no score oficial dessa competição. Este resultado está abaixo do desempenho no estado da arte para esta tarefa que é de 65.73 por cento. No entanto, nossa solução reduz significativamente o tempo de obtenção dos clusters dos documentos, pois, nosso sistema leva 0.35 segundos por documento no conjunto de testes, enquanto no estado da arte, leva 5 segundos para cada um. / [en] One of the problems found in natural language processing systems, is the difficulty to identify textual elements referring to the same entity, this task is called coreference. Solving this problem is an integral part of discourse comprehension since it allows language users to connect the pieces of speech information concerning to the same entity. Consequently, coreference resolution is a key task in natural language processing.Despite the large efforts of existing research, the current performance of coreference resolution systems has not reached a satisfactory level yet. In this work, we describe a structure learning system for unrestricted coreferencere solution that explores two techniques: latent coreference trees and automatic entropy-guided feature induction. The latent tree modeling makes the learning problem computationally feasible,since it incorporates are levant hidden structure. Additionally,using an automatic feature induction method, we can efciently build enhanced non-linear models using linear model learning algorithms, namely, the structure dandsparse perceptron algorithm. We evaluate the system on the CoNLL-2012 Shared Task closed track data set, for the English portion. The proposed system obtains a 62.24 per cent value on the competition s official score. This result is be low the 65.73 per cent, the state-of-the-art performance for this task. Nevertheless, our solution significantly reduces the time to obtain the clusters of adocument, since, our system takes 0.35 seconds per document in the testing set, while in the state-of-the-art, it takes 5 seconds for each one.
33

[pt] APRENDIZADO ESTRUTURADO COM INDUÇÃO E SELEÇÃO INCREMENTAIS DE ATRIBUTOS PARA ANÁLISE DE DEPENDÊNCIA EM PORTUGUÊS / [en] STRUCTURED LEARNING WITH INCREMENTAL FEATURE INDUCTION AND SELECTION FOR PORTUGUESE DEPENDENCY PARSING

YANELY MILANES BARROSO 09 November 2016 (has links)
[pt] O processamento de linguagem natural busca resolver várias tarefas de complexidade crescente que envolvem o aprendizado de estruturas complexas, como grafos e sequências, para um determinado texto. Por exemplo, a análise de dependência envolve o aprendizado de uma árvore que descreve a estrutura sintática de uma sentença dada. Um método amplamente utilizado para melhorar a representação do conhecimento de domínio em esta tarefa é considerar combinações de atributos usando conjunções lógicas que codificam informação útil com um padrão não-linear. O número total de todas as combinações possíveis para uma conjunção dada cresce exponencialmente no número de atributos e pode resultar em intratabilidade computacional. Também, pode levar a overfitting. Neste cenário, uma técnica para evitar o superajuste e reduzir o conjunto de atributos faz-se necessário. Uma abordagem comum para esta tarefa baseia-se em atribuir uma pontuação a uma árvore de dependência, usando uma função linear do conjunto de atributos. Sabe-se que os modelos lineares esparsos resolvem simultaneamente o problema de seleção de atributos e a estimativa de um modelo linear, através da combinação de um pequeno conjunto de atributos. Neste caso, promover a esparsidade ajuda no controle do superajuste e na compactação do conjunto de atributos. Devido a sua exibilidade, robustez e simplicidade, o algoritmo de perceptron é um método linear discriminante amplamente usado que pode ser modificado para produzir modelos esparsos e para lidar com atributos não-lineares. Propomos a aprendizagem incremental da combinação de um modelo linear esparso com um procedimento de indução de variáveis não-lineares, num cénario de predição estruturada. O modelo linear esparso é obtido através de uma modificação do algoritmo perceptron. O método de indução é Entropy-Guided Feature Generation. A avaliação empírica é realizada usando o conjunto de dados para português da CoNLL 2006 Shared Task. O analisador resultante alcança 92,98 por cento de precisão, que é um desempenho competitivo quando comparado com os sistemas de estado- da-arte. Em sua versão regularizada, o analizador alcança uma precisão de 92,83 por cento , também mostra uma redução notável de 96,17 por cento do número de atributos binários e, reduz o tempo de aprendizagem em quase 90 por cento, quando comparado com a sua versão não regularizada. / [en] Natural language processing requires solving several tasks of increasing complexity, which involve learning to associate structures like graphs and sequences to a given text. For instance, dependency parsing involves learning of a tree that describes the dependency-based syntactic structure of a given sentence. A widely used method to improve domain knowledge representation in this task is to consider combinations of features, called templates, which are used to encode useful information with nonlinear pattern. The total number of all possible feature combinations for a given template grows exponentialy in the number of features and can result in computational intractability. Also, from an statistical point of view, it can lead to overfitting. In this scenario, it is required a technique that avoids overfitting and that reduces the feature set. A very common approach to solve this task is based on scoring a parse tree, using a linear function of a defined set of features. It is well known that sparse linear models simultaneously address the feature selection problem and the estimation of a linear model, by combining a small subset of available features. In this case, sparseness helps control overfitting and performs the selection of the most informative features, which reduces the feature set. Due to its exibility, robustness and simplicity, the perceptron algorithm is one of the most popular linear discriminant methods used to learn such complex representations. This algorithm can be modified to produce sparse models and to handle nonlinear features. We propose the incremental learning of the combination of a sparse linear model with an induction procedure of non-linear variables in a structured prediction scenario. The sparse linear model is obtained through a modifications of the perceptron algorithm. The induction method is the Entropy-Guided Feature Generation. The empirical evaluation is performed using the Portuguese Dependency Parsing data set from the CoNLL 2006 Shared Task. The resulting parser attains 92.98 per cent of accuracy, which is a competitive performance when compared against the state-of-art systems. On its regularized version, it accomplishes an accuracy of 92.83 per cent, shows a striking reduction of 96.17 per cent in the number of binary features and reduces the learning time in almost 90 per cent, when compared to its non regularized version.
34

[en] CAUSAL REASONING AND INDUCTION IN DAVID HUME / [pt] RACIOCÍNIO CAUSAL E INFERÊNCIA INDUTIVA NO PENSAMENTO DE DAVID HUME

CARLOS JACINTO NASCIMENTO MOTTA 25 November 2005 (has links)
[pt] Esta dissertação tem por objetivo apresentar os resultados da pesquisa de mestrado em que se procurou evidenciar algumas características da relação de David Hume com a indução. Segundo a interpretação corrente, Hume é o responsável por mostrar que nossa razão não é capaz de justificar qualquer um de nossos raciocínios indutivos. O problema de Hume também se caracteriza por ser um problema acerca da racionalidade da ciência, pois se seu método principal, a indução, não pode receber suporte racional, parece lícito afirmar que o resultado de uma inferência indutiva é irracional. A fim de delinear o campo exato em que se insere a crítica humeana, este texto irá mostrar como Hume apresenta suas teorias acerca do raciocínio causal em seu Tratado da natureza humana, traçar as características exatas do raciocínio causal de Hume e confrontá-las com as formas de interpretação presentes em alguns de seus principais comentadores. Procuramos tornar claras as falhas apresentadas nestas interpretações. Em seguida trataremos de discutir algumas das mais celebradas interpretações da filosofia de Hume, centrando nossa análise nos textos de Mackie, Beauchamp e Mappes. O capítulo final tem por objetivo mostrar as características racionais que podem ser atribuídas aos raciocínios causais humeanos, salientando o caráter particular de suas inferências. Finalizando, mostraremos como a origem do princípio da cópia pode ser um exemplo do uso de inferências indutivas por parte de Hume, o que nos leva a considerações heterodoxas a respeito de sua visão a respeito da racionalidade. / [en] The aim of this work is to present the results of my master´s degree research, which tried to show some of the characteristics of David Hume´s approach to induction. According to the standard interpretation, Hume is responsible for showing that our reason is not able to justify any of our inductive reasonings. Hume´s problem also characterizes itself by being a problem about the rationality of science, for, since his main method, induction, cannot receive a rational foundation, it seems licit to assert that the result of any inductive inference is irrational. In order to precisely describe the Humean criticism I am going to show how Hume presents his theories concerning causal reasoning in this A Treatise of Human Nature, define the exact characteristics of causal reasoning according to him, and compare this analysis to those by some of his main critics. We shall try to bring to light the proposed inadequacy of the latter. Next we will discuss some of the most celebrated interpretations of Hume´s philosophy, specially those by of Mackie, Beauchamp and Mappes. The final chapter aims at showing the rational characteristics that can be assigned to Humean causal reasoning emphasizing the particular character of his inferences. Finally, we show how the origin of the copy principle can be an instance of the use of inductive inferences by Hume, which allows us to risk some heterodox hypotheses concerning his view of rationality.

Page generated in 0.0387 seconds