Spelling suggestions: "subject:"noncontractile"" "subject:"nonconstructive""
1 |
Two types of focus in Castilian SpanishChung, Hye-Yoon 15 February 2013 (has links)
This dissertation proposes an experimental study of focus in Spanish, investigating, in particular, if two types of focus – Contrastive focus and Non-contrastive focus – are syntactically and prosodically distinguished. The evidence that the conceptual distinction between the focus subtypes can be represented linguistically has been found in languages (Drubig 2003, É. Kiss 1998, Gundel & Fretheim 2001, Zubizarreta 1998 to name a few). As for Spanish, Zubizarreta (1998) argued that the two types of focus most noticeably differ syntactically. While Non-contrastive Focus should appear at utterance-final position, Contrastive Focus may appear in-situ. Nevertheless, not all the studies seem to accept Zubizarreta’s (1998) syntax-oriented distinction between the two focus types. A few studies suggest that not only Contrastive Focus but also Non-Contrastive Focus can indeed occur sentence-internally (Cabrera Abreu & García Lecumberri 2003, Kim & Avelino 2003, Toledo 1989). Inspired by a handful of studies and motivated by empirical data gathered for the pilot study, the current study sets out to investigate Zubizarreta’s (1998) syntax-oriented claim on the distinction between the focus subtypes. Focus in Spanish is known to be prosodically marked by its particular intonational contour- higher pitch and the early peak, and secondarily longer duration and/or higher intensity, compared to unfocused elements in a given utterance (Cabrera Abreu & García Lecumberri 2003, Domínguez 2004a & b, Face 2000, 2001, 2002b, Hualde 2003, 2005, Kim & Avelino 2003, de la Mota 1995, 1997, Navarro Tomás 1918, Nibert 2000, Quilis 1971, Sosa 1998, Toledo 1989, Zubizarreta 1998). We assume that the distinction between the two types of focus would also be made using the existing cues, as suggested by a handful of studies on focus types (Cabrera Abreu & García Lecumberri 2003, Kim & Avelino 2003, Zubizarreta, 1998).
The findings of our experiments clearly indicate that Spanish speakers consistently use different phonetic and phonological cues such as duration and pitch in order to make a distinction between the two types of focus. These findings give clear evidence that the pragmatically defined notion of focus (Lambrecht 1994) is indeed further divided into two types in Castilian Spanish, somewhat similar to the distinction made in English (Selkirk 1984, 1995). / text
|
2 |
Sur l'élaboration de meilleures techniques pour l'apprentissage auto-supervisé des représentations du codeMaes, Lucas 07 1900 (has links)
Les représentations du code apprises par les modèles d’apprentissage profond sont une composante cruciale pour certaines applications en génie logiciel telles que la recherche de code ou la détection de clones. Les performances de ces applications dépendent de la qualité des représentations apprises par les modèles. De fait, des représentations possédant
peu de bruit et contenant des informations avec un haut niveau d’abstraction, comme la sémantique fonctionnelle, facilitent la résolution de ces tâches. En effet, la recherche de code nécessite de comprendre les objectifs des morceaux de code pour les comparer avec une requête en langage naturel, tandis que la détection de clone exige de déterminer si deux morceaux de code ont la même sémantique fonctionnelle. La capacité des modèles à apprendre des représentations contenant de telles informations abstraites est donc cruciale pour la bonne résolution de ces tâches. Cependant, il est toujours difficile pour les modèles de code d’apprendre des représentations abstraites indépendantes de la syntaxe, par exemple la sémantique fonctionnelle. Ce mémoire se consacre donc à l’élaboration de meilleures techniques pour l’apprentissage des représentations du code via l’apprentissage auto-supervisé. Plus spécifiquement, nous nous sommes concentrés sur deux tâches centrales dans l’automatisation du génie logiciel nécessitant un minimum de compréhension de la sémantique fonctionnelle, à savoir, la recherche de code et la détection de clones de type 4. Ce mémoire propose différentes approches à différents degrés d’entraînement. Le premier degré est le pré-entraînement et
consiste à apprendre des représentations génériques du code adaptables à n’importe quels problèmes. Le second est le peaufinage, modifiant les représentations apprises pour un problème spécifique. Tout d’abord, nous proposons un nouvel algorithme de pré-entraînement pour les modèles de code utilisant une méthode non contrastive régularisée adaptée de VICReg, permettant l’apprentissage de représentations génériques. Ensuite, nous proposons un nouvel objectif de peaufinage des modèles de code utilisant la distillation des connaissances d’un ensemble de modèles déjà peaufinés, appelés enseignants, sur un modèle étudiant, lui permettant ainsi l’apprentissage de représentations plus abstraites.
L’ensemble des contributions vise à améliorer les représentations du code et à maximiser les performances des modèles d’apprentissage automatique pour le code, mais aussi à déterminer quel est le meilleur degré d’entraînement à adopter pour cela. Les résultats expérimentaux et les analyses menées dans ce mémoire sont préliminaires et ne permettent pas de tirer de conclusions définitives. Néanmoins, il est important de souligner que la deuxième contribution surpasse la méthode classique de peaufinage des modèles pour la recherche de code. De plus, les approches décrites proposent des pistes de directions de recherche innovantes et non conventionnelles. / Code representations learned by deep learning models are a crucial component for certain
software engineering applications such as code search or clone detection. The performance
of these applications depends on the quality of the representations learned by the models.
In fact, low-noise representations containing highly abstract information, such as functional
semantics, facilitate the resolution of these tasks. Indeed, code search requires understanding the objectives of code snippets in order to compare them with a natural language
query, while clone detection requires determining whether two code snippets have the
same functional semantics. The ability of models to learn representations containing such
abstract information is therefore crucial to the successful resolution of these tasks.
However, it is still difficult for code models to learn abstract representations that are
independent of syntax, such as functional semantics. This thesis is therefore dedicated to
developing better techniques for learning code representations via self-supervised learning.
More specifically, we focus on two central tasks in software engineering automation requiring
a minimum understanding of functional semantics, namely, code search and type 4 clone
detection. This work proposes different approaches with different degrees of training. The
first, pre-training, consists in learning generic code representations that can be adapted to
any problem. The second is fine-tuning, modifying the representations learned for a specific
problem.
First, we propose a new pre-training algorithm for code models using a regularized
non-contrastive method adapted from VICReg [14] enabling the learning of generic representations. Secondly, we propose a new code model refinement objective using knowledge
distillation of a set of already refined models, called teachers, on a student model allowing
it to learn more abstract representations.
The aim of all these contributions is not only to improve code representations and
maximize the performance of machine learning models for code, but also to determine the
best degree of training to adopt for this purpose. The experimental results and analyses carried out in this thesis are preliminary and do not allow to draw formal conclusions.
Nevertheless, it is important to underline that the second contribution outperforms the
classical model refinement method for code search. Moreover, the approaches described
suggest innovative and unconventional research directions.
|
Page generated in 0.0803 seconds