• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Neural correlates of word learning and meaning acquisition

Mestres Missé, Anna 15 November 2007 (has links)
The series of studies that comprise this dissertation are aimed at simulating vocabulary learning and meaning acquisition of different types of words, namely words which differ in imageability. For this purpose, the human simulation paradigm is the best option to approach the question of how the meanings of words are learned. It also offers the advantage of using electrophysiological and hemodynamic techniques to explore the underlying processes and neural regions that sustain on-line word learning and that, with the use of infants, would have been difficult or impossible to study. In order to study the meaning acquisition of new words, the human simulation paradigm was adopted (Gillette et al., 1999). In the first series of experiments (Chapters 2 and 3), adults were provided with congruent and incongruent semantic contexts from which they had to derive the meanings of new words. This strategy was further applied in order to understand the neural mechanisms involved in learning concrete and abstract words (Chapters 4 and 5). More specifically, Chapter 2 analyzes the interaction of semantic information congruency and meaning resolution using event-related brain potentials (ERP) (experiments 1 and 3). A different experiment explores the effects of context congruence on lexical acquisition using a self-paced reading paradigm (experiment 2). Chapter 3 examines the localization of cortical areas of successful meaning acquisition with functional magnetic resonance imaging (fMRI), and investigates the neural network for lexical learning (experiment 4). In Chapter 4, the self¬paced reading paradigm is used to study meaning acquisition of concrete and abstract words. First, a reanalysis of experiment 2 is presented (experiment 2b). Experiment 5 investigates abstract word learning from congruent and incongruent sentential contexts. Afterward, a comparison between experiments 2b and 5 is presented. In experiment 6, the simultaneous acquisition of concrete and abstract words is studied using the self¬paced paradigm. Finally, Chapter 5 examines the localization of cortical areas differently involved in meaning acquisition of concrete and abstract words using fMRI (experiment 7). / El llenguatge és una capacitat humana que ha fet possible aspectes únics del pensament humà, com la creativitat, l'habilitat de pensar sobre el passat i el futur, la lògica i, totes les formes de cognició d'alt nivell. El llenguatge ens donà l'habilitat de mantenir informació de l'entorn en memòria per a poder manipular-la, i en conseqüència, tenir una eina per a comunicar idees. El llenguatge esdevingué la principal manera de transmetre i emmagatzemar el coneixement i la cultura. Degut a la importància d'aquesta increïble, però a la vegada, complicada habilitat, els humans hem d'aprendre'l durant els primers anys de vida. Un dels primers passos en aquest enigmàtic procés d'aprendre el llenguatge és aprendre les etiquetes del món. Donar un nom a quelcom optimitza la informació, i permet fer categoritzacions, que permeten generalitzacions del coneixement que ja existeix a nous exemplars, objectes o conceptes. Sota una etiqueta arbitrària, una convenció social, les característiques, funcions, parts i relacions amb altres paraules d'un concepte són emmagatzemades. L'aprenentatge d'aquestes etiquetes és un dels primers reptes que els infants han d'afrontar. Per tal d'esdevenir un usuari expert del llenguatge els infants primer han d'aprendre com es denominen les coses, quines coses pertanyen al mateix grup i quines no, és a dir, han d'aprendre a categoritzar el món i generalitzar la informació. Els infants són extremadament bons en això. Els nens comencen a produir les primeres paraules al volant del 12 mesos d'edat, aprenent unes 10 paraules noves cada dia fins al final de la secundaria. Nogensmenys, l'aprenentatge de vocabulari no s'atura al final de l'adolescència, constantment trobem paraules noves, neologismes, argots, que hem d'aprendre. A més a més, la majoria de gent haurà d'aprendre com a mínim una llengua estrangera durant la seva vida. Tot i això, l'adquisició de vocabulari en l'adultesa és molt més lenta i probablement depèn més de factors socials. Aquesta tesi està dedicada a la comprensió de com els adults aprenen el significat de noves paraules a partir del context semàntic, és a dir, estudia la vinculació d'una paraula amb un concepte utilitzant la informació semàntica proporcionada per les oracions en les que la paraula nova es troba.Així doncs, per a aquest propòsit, s'han realitzat set experiments. Dos experiments amb potencials evocats, un conductual i un utilitzant ressonància magnètica funcional (fMRI) es centren en l'efecte de la congruència del context semàntic en l'adquisició lèxica. Els següents experiments intenten profunditzar en l'aprenentatge de noves paraules investigant l'adquisició de paraules concretes i abstractes. Amb aquest propòsit s'han realitzat dos experiments conductuals i un utilitzant fMRI.
2

Conceptes, tècniques i problemes de la generalització cartrogràfica

Rosa Trias, Elisabet 25 February 2000 (has links)
Este trabajo recoge las distintas visiones existentes en la cartografía tradicional sobre qué es y en qué consiste el proceso de generalización cartográfica y en cómo ha sido integrado en los Sistemas de Información Geográfica. No se trata por lo tanto de aplicar algoritmos de generalización de forma aislada, sino en establecer un marco general de tratamiento de la información geográfica y sus partes. En este trabajo, se hace una revisión del estado de la cuestión en las tareas que corresponden a la generalización cartográfica, realizada por autores especialistas en la materia, para así poder establecer las tareas que disponen de soluciones adaptables para su computación, de las que son más complejas y menos estructuradas. El "modelo de error" asociado al procesamiento de los datos, estrechamente ligado al tipo de función y orden de estas, toma especial importancia ya que depende estrechamente de la totalidad del proceso cartográfico del cual la generalización interviene en distintos momentos. En la introducción se define qué se entiende por generalización cartográfica en un entorno manual y uno de digital. En "cómo" formalizar y secuenciar el proceso de generalización cartográfica, "qué" tipo de generalización, y "cuánta" es necesaria son las características que rigen el proceso. Básicamente, en el salto de una escala de mayor detalle a otra de menor detalle, no solo hay una transformación morfológica, sino también conceptual, de la información geográfica. El cambio en la simbolización no es pues, una mera transformación morfológica y topológica de las entidades para ser perceptibles en un espacio representacional más reducido, sino que se convierten en nuevas entidades y relaciones asociadas. El cambio en la simbolización no es pues, una mera transformación morfológica y topológica de las entidades para ser perceptibles en un espacio representacional más reducido, sino que se convierten en nuevas entidades y relaciones asociadas. Por lo tanto, no es tan solo la necesidad de inquibir más objetos geográficos en el espacio de representación cartográfica, lo que rige el proceso de generalización, sino que son las necesidades de análisis o de representación, las que determinan la adecuación de los datos espaciales a niveles de mayor abstracción. Con ello se pone de manifiesto la importancia que tiene la "escala conceptual" y "escala de análisis" sobre la "escala geométrica" en un contexto digital. En los primeros capítulos de este trabajo se revisa la importancia del pre-procesamiento cartográfico, etapa crucial en la cartografía tradicional y que en el nuevo entorno crece en importancia y complejidad. A continuación se contrasta la visión tradicional de la que surge en el nuevo entorno de trabajo, en los llamados Sistemas de Información Geográfica. En éstos, convive el modelo tradicional de comunicación unidireccional por parte del cartógrafo (codificador) - al lector (descodificador) de la información considerada de interés, con otro proceso de interpretación y modelización para uso exclusivo del usuario y donde el lenguaje cartográfico es sustituido por uno basado en la percepción propia, originando nuevas formas que pueden diferir de las tradicionales en cartografía. Es el resultado del acceso de usuarios sin conocimientos del lenguaje cartográfico, en lo que ha venido en llamarse la "democratización de la cartografía": una nueva forma de representación no necesariamente proveniente de la representación tradicional geográfica, sino específicamente espacial. A continuación, se revisa la importancia de la aportación de la escuela suiza y germana, por su exhaustiva explicitación tanto de los procesos manuales como de los digitales, y disponer de normas y reglas cartográficas que han facilitado en gran manera la formalización y posible automatización futura de la confección del mapa, esenciales en un proceso de generalización cartográfica lo más autónomo e "inteligente" posible. La metodología utilizada en este trabajo se ha basado en la implementación de la herramienta utilizada en ciencias sociales de "solución de problema", estructurando las aportaciones y soluciones de la década de los 90' del proceso de generalización cartográfica para un problema mal estructurado. Esta metodología permite reconocer cuáles son los subprocesos que nos interesa adaptar al nuevo entorno, para que sirvan de guía al usuario, y a su vez está en línea con la imposibilidad de disponer de momento de un procesamiento inteligente de la información, tan sólo para ciertos procesos, como es el caso del reconocimiento inteligente de imágenes satélite, parecen haber actualmente el soporte necesario para su total automatización. / This work gathers the different existing visions in the traditional cartography on what is and of what is about the process of cartographic generalization, so it can be integrated in the GIS. It is not tried therefore to apply algorithms of generalization of isolated form, but in establishing a general frame of geographic data processing and its parts. In this work, a revision is done of the state of the art on the tasks that correspond to the cartographic generalization, made by authors in the matter, thus to be able to establish the tasks that have adaptable solutions to their computation, of which more complex and which are less structured. The "model of error" associated to the processing of the data, closely bound to the type of function and order of these, takes special importance since it depends closely on the totality of the cartographic process of which the generalization takes part at different moments.In the introduction it is defined what is understood by cartographic generalization in manual surroundings and one of digital is. In "how" to formalize and to sequencer the process of cartographic generalization, "what" type of generalization, and "how much" it is necessary is the characteristics that govern the process. Basically, in the jump of a scale from greater detail to another one of smaller detail, not only there is a morphologic, but also conceptual transformation, of the geographic information. The change in the simbolization is not then, a mere morphologic transformation and topologic of the objects to be perceivable in a reduced representational space, but how they become in new objects and associate relations. Therefore, it is not only the necessity to allow more geographic objects in the space of cartographic representation, which governs the generalization process, but that they are the necessities of analyses or representation, those that determine the adjustment of the spatial data at levels of greater abstraction. With it the importance is shown that has the "conceptual scale" and "scale of analysis" on the "geometric scale" in a digital context.In the first chapters of this work the importance of the cartographic pre-processing is reviewed, crucial stage in the traditional cartography and that in the new surroundings grows in importance and complexity. Next the traditional vision from which it arises in the new surroundings of work, in the calls is resisted GIS. In these, the traditional model of unidirectional communication on the part of the cartographer (coder) - to the reader (decoder) of the considered information of interest coexists, with another process of interpretation and modelization for exclusive use of the user and where the cartographic language is replaced by one based on the own perception, originating new forms that can differ from the traditional ones in cartography. It is the result of the access of users without knowledge of the cartographic language, in which it has come in being called the "democratization of the cartography": a new form of representation not necessarily originating of the geographic, but specifically space traditional representation. Next, the importance of the contribution of the Swiss and Germanic school is reviewed, by its exhaustive explicitation as much of the manual processes as of digitalises, and to have norms and cartographic rules that have facilitated in great way the formalization and possible future automatization of the preparation of the map, essential in a most independent process of the cartographic generalization and "intelligent" possible. The methodology used in this work has been based on the implementation of the used tool in social sciences of "problem solution", structuring the contributions and solutions of the decade of the 90' of the process of cartographic generalization for a problem badly structured. This methodology allows to recognize which are the subprocesses that interest to us to adapt to the new surroundings, so that they serve as guide the user, and as well are in line with the impossibility at the moment to have an intelligent processing of the information, only to certain processes, as it is the case of the intelligent recognition of images satellite, at the moment seem to have the necessary support for its total automatization.

Page generated in 0.0876 seconds