• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 61
  • 20
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 88
  • 24
  • 22
  • 22
  • 17
  • 16
  • 14
  • 13
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Structuration de contenus audio-visuel pour le résumé automatique

Rouvier, Mickael 05 December 2011 (has links) (PDF)
Ces dernières années, avec l'apparition des sites tels que Youtube, Dailymotion ou encore Blip TV, le nombre de vidéos disponibles sur Internet aconsidérablement augmenté. Le volume des collections et leur absence de structure limite l'accès par le contenu à ces données. Le résumé automatique est un moyen de produire des synthèses qui extraient l'essentiel des contenus et les présentent de façon aussi concise que possible. Dans ce travail, nous nous intéressons aux méthodes de résumé vidéo par extraction, basées sur l'analyse du canal audio. Nous traitons les différents verrous scientifiques liés à cet objectif : l'extraction des contenus, la structuration des documents, la définition et l'estimation des fonctions d'intérêts et des algorithmes de composition des résumés. Sur chacun de ces aspects, nous faisons des propositions concrètes qui sont évaluées. Sur l'extraction des contenus, nous présentons une méthode rapide de détection de termes. La principale originalité de cette méthode est qu'elle repose sur la construction d'un détecteur en fonction des termes cherchés. Nous montrons que cette stratégie d'auto-organisation du détecteur améliore la robustesse du système, qui dépasse sensiblement celle de l'approche classique basée sur la transcription automatique de la parole.Nous présentons ensuite une méthode de filtrage qui repose sur les modèles à mixtures de Gaussiennes et l'analyse factorielle telle qu'elle a été utilisée récemment en identification du locuteur. L'originalité de notre contribution tient à l'utilisation des décompositions par analyse factorielle pour l'estimation supervisée de filtres opérants dans le domaine cepstral.Nous abordons ensuite les questions de structuration de collections de vidéos. Nous montrons que l'utilisation de différents niveaux de représentation et de différentes sources d'informations permet de caractériser le style éditorial d'une vidéo en se basant principalement sur l'analyse de la source audio, alors que la plupart des travaux précédents suggéraient que l'essentiel de l'information relative au genre était contenue dans l'image. Une autre contribution concerne l'identification du type de discours ; nous proposons des modèles bas niveaux pour la détection de la parole spontanée qui améliorent sensiblement l'état de l'art sur ce type d'approches.Le troisième axe de ce travail concerne le résumé lui-même. Dans le cadre du résumé automatique vidéo, nous essayons, dans un premier temps, de définir ce qu'est une vue synthétique. S'agit-il de ce qui le caractérise globalement ou de ce qu'un utilisateur en retiendra (par exemple un moment émouvant, drôle....) ? Cette question est discutée et nous faisons des propositions concrètes pour la définition de fonctions d'intérêts correspondants à 3 différents critères : la saillance, l'expressivité et la significativité. Nous proposons ensuite un algorithme de recherche du résumé d'intérêt maximal qui dérive de celui introduit dans des travaux précédents, basé sur la programmation linéaire en nombres entiers.
52

Élaboration d'un corpus étalon pour l'évaluation d'extracteurs de termes

Bernier-Colborne, Gabriel 05 1900 (has links)
Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction. / We describe a methodology for constructing a gold standard for the automatic evaluation of term extractors. These programs, designed to automatically extract specialized terms from a corpus, are used in various settings, including terminology work, translation, information retrieval, indexing, etc. Thus, the evaluation of term extractors must be carried out in accordance with a specific application. One way of evaluating term extractors is to construct a corpus in which all term occurrences have been annotated. This involves establishing a protocol for term selection and term boundary identification. To our knowledge, no well-documented annotated corpus is available for the evaluation of term extractors. This contribution aims to build such a corpus and describe what issues must be dealt with in the process. The gold standard we propose is a fully annotated corpus, constructed in accordance with a specific terminological setting, namely the compilation of a specialized dictionary of automotive mechanics. This annotated corpus accounts for the wide variety of realizations of terms in context. Terms are selected in accordance with specific criteria pertaining to the terminological setting as well as formal, linguistic and conceptual properties of terms and term variations. To evaluate a term extractor, a list of all the terminological units in the corpus is extracted and compared to the output of the term extractor, using a set of metrics to assess its performance. Subsets of terminological units may also be extracted, providing a level of customization. This allows an automatic and application-driven evaluation of term extractors. Due to its reusability, it can serve not only to assess the performance of a particular extractor, but also to compare different extractors and fine-tune extraction techniques.
53

Extracting and exploiting word relationships for information retrieval

Cao, Guihong January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
54

Étude sur l'équivalence de termes extraits automatiquement d'un corpus parallèle : contribution à l'extraction terminologique bilingue

Le Serrec, Annaïch January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
55

Analyse comparative de l'équivalence terminologique en corpus parallèle et en corpus comparable : application au domaine du changement climatique

Le Serrec, Annaïch 04 1900 (has links)
Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs. / The research undertaken for this thesis concerns the analysis of terminological equivalence in a parallel corpus and a comparable corpus. More specifically, we focus on specialized texts related to the domain of climate change. A unique aspect of this study is based on the analysis of the equivalents of single word terms. The theoretical frameworks on which we rely are the terminologie textuelle (Bourigault et Slodzian 1999) and the lexico-sémantique approaches (L’Homme 2005). This study has two objectives. The first is to perform a comparative analysis of terminological equivalents in the two types of corpora in order to verify if the equivalents found in the parallel corpus are different from the ones observed in the comparable corpora. The second is to compare in detail equivalents associated with a same English term, in order to describe them and define a typology. A detailed analysis of the French equivalents of 343 English terms is carried out with the help of computer tools (term extractor, text aligner, etc.) and the establishment of a rigorous methodology divided into three parts. The first part, common to both objectives of the research concerns the elaboration of the corpus, the validation of the English terms and the identification of the French equivalents in the two corpora. The second part describes the criteria on which we rely to compare the equivalents of the two types of corpora. The third part sets up the typology of equivalents associated with a same English term. The results for the first objective shows that of the 343 English words analyzed, terms with equivalents that can be criticized in both corpora are relatively low in number (12), while the number of terms with similar equivalences between the two corpora is very high (272 identical and 55 equivalents not objectionable). The analysis described in this chapter confirms our hypothesis that terminology used in parallel corpora does not differ from that used in comparable corpora. The results of the second objective show that many English terms are rendered by several equivalents (70% of analyzed terms). It is also noted that synonyms are not the largest group of equivalents but near-synonyms. Also, equivalents from another part of speech constitute an important part of the equivalents analyzed. Thus, the typology developed in this thesis presents terminological equivalent mechanisms rarely described as systematically in previous work.
56

Réduire la probabilité de disparité des termes en exploitant leurs relations sémantiques / Reducing Term Mismatch Probability by Exploiting Semantic Term Relations

Almasri, Mohannad 27 June 2017 (has links)
Les systèmes de recherche d’information utilisent généralement une multitude de fonctionnalités pour classer les documents. Néanmoins, un élément reste essentiel pour le classement, qui est les modèles standards de recherche d’information.Cette thèse aborde une limitation fondamentale des modèles de recherche d’information, à savoir le problème de la disparité des termes <Term Mismatch Problem>. Le problème de la disparité des termes est un problème de longue date dans la recherche d'informations. Cependant, le problème de la récurrence de la disparité des termes n'a pas bien été défini dans la recherche d'information, son importance, et à quel point cela affecterai les résultats de la recherche. Cette thèse tente de répondre aux problèmes présentés ci-dessus.Nos travaux de recherche sont rendus possibles par la définition formelle de la probabilité de la disparité des termes. Dans cette thèse, la disparité des termes est définie comme étant la probabilité d'un terme ne figurant pas dans un document pertinent pour la requête. De ce fait, cette thèse propose des approches pour réduire la probabilité de la disparité des termes. De plus, nous confortons nos proposions par une analyse quantitative de la probabilité de la disparité des termes qui décrit de quelle manière les approches proposées permettent de réduire la probabilité de la disparité des termes tout en conservant les performances du système.Au première niveau, à savoir le document, nous proposons une approche de modification des documents en fonction de la requête de l'utilisateur. Il s'agit de traiter les termes de la requête qui n'apparaissent pas dans le document. Le modèle de document modifié est ensuite utilisé dans un modèle standard de recherche afin d'obtenir un modèle permettant de traiter explicitement la disparité des termes.Au second niveau, à savoir la requête, nous avons proposé deux majeures contributions.Premièrement, nous proposons une approche d'expansion de requête sémantique basée sur une ressource collaborative. Nous concentrons plutôt sur la structure de ressources collaboratives afin d'obtenir des termes d'expansion intéressants qui contribuent à réduire la probabilité de la disparité des termes, et par conséquent, d'améliorer la qualité de la recherche.Deuxièmement, nous proposons un modèle d'expansion de requête basé sur les modèles de langue neuronaux. Les modèles de langue neuronaux sont proposés pour apprendre les représentations vectorielles des termes dans un espace latent, appelées <Distributed Neural Embeddings>. Ces représentations vectorielles s'appuient sur les relations entre les termes permettant ainsi d'obtenir des résultats impressionnants en comparaison avec l'état de l'art dans les taches de similarité de termes. Cependant, nous proposons d'utiliser ces représentations vectorielles comme une ressource qui définit les relations entre les termes.Nous adaptons la définition de la probabilité de la disparité des termes pour chaque contribution ci-dessus. Nous décrivons comment nous utilisons des corpus standard avec des requêtes et des jugements de pertinence pour estimer la probabilité de la disparité des termes. Premièrement, nous estimons la probabilité de la disparité des termes à l'aide les documents et les requêtes originaux. Ainsi, nous présentons les différents cas de la disparité des termes clairement identifiée dans les systèmes de recherche pour les différents types de termes d'indexation. Ensuite, nous indiquons comment nos contributions réduisent la probabilité de la disparité des termes estimée et améliorent le rappel du système.Des directions de recherche prometteuses sont identifiées dans le domaine de la disparité des termes qui pourrait présenter éventuellement un impact significatif sur l'amélioration des scénarios de la recherche. / Even though modern retrieval systems typically use a multitude of features to rank documents, the backbone for search ranking is usually the standard retrieval models.This thesis addresses a limitation of the standard retrieval models, the term mismatch problem. The term mismatch problem is a long standing problem in information retrieval. However, it was not well understood how often term mismatch happens in retrieval, how important it is for retrieval, or how it affects retrieval performance. This thesis answers the above questions.This research is enabled by the formal definition of term mismatch. In this thesis, term mismatch is defined as the probability that a term does not appear in a document given that this document is relevant. We propose several approaches for reducing term mismatch probability through modifying documents or queries. Our proposals are then followed by a quantitative analysis of term mismatch probability that shows how much the proposed approaches reduce term mismatch probability with maintaining the system performance. An essential component for achieving term mismatch probability reduction is the knowledge resource that defines terms and their relationships.First, we propose a document modification approach according to a user query. The main idea of our document modification approach is to deal with mismatched query terms. While prior research on document enrichment provides a static approach for document modification, we are concerned to only modify the document in case of mismatch. The modified document is then used in a standard retrieval model in order to obtain a mismatch aware retrieval model.Second, we propose a semantic query expansion approach based on a collaborative knowledge resource. We focus on the collaborative resource structure to obtain interesting expansion terms that contribute to reduce term mismatch probability, and as a result, improve the effectiveness of search.Third, we propose a query expansion approach based on neural language models. Neural language models are proposed to learn term vector representations, called distributed neural embeddings. Distributed neural embeddings capture relationships between terms, and they obtained impressive results comparing with state of the art approaches in term similarity tasks. However, in information retrieval, distributed neural embeddings are newly started to be exploited. We propose to use distributed neural embeddings as a knowledge resource in a query expansion scenario.Fourth, we apply the term mismatch probability definition for each contribution of the above contributions. We show how we use standard retrieval corpora with queries and relevance judgments to estimate the term mismatch probability. We estimate the term mismatch probability using original documents and queries, and we figure out how mismatch problem is clearly found in search systems for different types of indexing terms. Then, we point out how much our contributions reduce the estimated mismatch probability, and improve the system recall. As a result, we present how the modified document and query representations contribute to build a mismatch aware retrieval model that mitigate term mismatch problem theoretically and practically.This dissertation shows the effectiveness of our proposals to improve retrieval performance. Our experiments are conducted on corpora from two different domains: medical domain and cultural heritage domain. Moreover, we use two different types of indexing terms for representing documents and queries: words and concepts, and we exploit several types of relationships between indexing terms: hierarchical relationships, relationships based on a collaborative resource structure, relationships defined on distributed neural embeddings.Promising research directions are identified where the term mismatch research may make a significance impact on improving the search scenarios.
57

Méthode d'enrichissement et d'élargissement d'une ontologie à partir de corpus de spécialité multilingues / Method of ontology enrichment and population from multilingual comparable domain specific corpus

Korenchuk, Yuliya 11 July 2017 (has links)
Cette thèse propose une méthode pour alimenter une ontologie, une structure de concepts liés par des relations sémantiques, par des termes français, anglais et allemands à partir de corpus spécialisés comparables. Son apport principal est le développement des méthodes d'extraction utilisant des ressources endogènes apprises à partir de corpus et d'ontologie. Exploitant des n-grammes de caractères, elles sont disponibles et indépendantes vis-à-vis de la langue et du domaine. La première contribution porte sur l'utilisation des ressources morphologiques et morphosyntaxiques endogènes pour extraire des termes mono- et polylexicaux à partir de corpus. La deuxième contribution vise à exploiter des ressources endogènes pour identifier leurs traductions. La troisième contribution concerne la construction des familles morphologiques endogènes servant à alimenter l'ontologie. / This thesis proposes a method of enrichment and population of an ontology, a structure of concepts linked by semantic relations, by terms in French, English and German from comparable domain-specific corpora. Our main contribution is the development of extraction methods based on endogenous resources, learned from the corpus and the ontology being analyzed. Using caracter n-grams, these resources are available and independent of a particular language or domain. The first contribution concerns the use of endogenous morphological and morphosyntactic resources for mono- and polylexical terms extraction from the corpus. The second contribution aims to use endogenous resources to identify translations for these terms. The third contribution concerns the construction of endogenous morphological families designed to enrich and populate the ontology.
58

Effective Field Theory for Baryon Masses / Théorie effective des champs pour les masses des baryons

Ren, Xiulei 10 December 2015 (has links)
La masse est une des propriétés les plus fondamentales de la matière. Comprendre son origine a longtemps été un sujet central en physique. D'après la physique nucléaire et la physique des particules modernes, la clef de ce problème réside dans la compréhension de l’origine de la masse du nucléon à partir de l’interaction forte. Avec le développement des technologies informatiques, la chromodynamique quantique sur réseau offre la possibilité de comprendre l’origine de la masse à partir des premiers principes. Cependant, dû aux ressources de calcul limitées, les masses obtenues à partir des calculs sur réseau doivent être extrapolées jusqu'au point physique. La théorie chirale des perturbations en tant que théorie effective des champs de QCD à basse énergie est une méthode indépendante de modèle permettant de comprendre l’interaction forte dans la région non perturbative et de guider les diverses extrapolations nécessaires pour passer du résultat lattice au résultat physique. Le but de cette thèse est donc d'utiliser la complémentarité entre QCD sur réseau et théorie chirale des perturbations afin d'étudier de façon systématique les masses des baryons. Nous étudions les masses de l'octet baryonique le plus léger dans le cadre de la théorie chirale covariante des perturbations pour les baryons. Nous utilisons la méthode "extended on mass shell" jusqu'à l'ordre trois fois sous dominant. Afin d'étudier les artefacts des calculs sur réseau dus à la taille finie de la boîte nous calculons les effets de volume fini. Adaptant la théorie chirale des perturbations à des fermions de Wilson nous obtenons aussi les effets de discrétisation dû au pas fini du réseau. Nous étudions de façon systématique toutes les données réseau en tenant à la fois de l'extrapolation au continu, des corrections de volume finie et de l'extrapolation chirale. Nous démontrons l'importance des corrections de volume fini dans la description des masses des baryons sur réseau. Par contre les effets de discrétisation sont de l'ordre de 1% jusqu'à l'ordre a² et peuvent donc être ignorés. De plus nous trouvons que toutes les données sur réseau prises en sont consistentes entre elles malgré des différences notables dans les procédures adoptées. Utilisant les formules chirales des masses des baryons nous prédisons de façon précise leurs termes sigma via le théorème de Feynman-Hellmann en analysant les données sur réseau les plus récentes. Les effets dus au pas du réseau, à la troncation de la série de perturbation chirale et à la violation d'isospin de l'interaction forte sont pris en pour la première fois. En particulier le terme sigma pion nucléon et le « strangeness sigma term » sont en accord avec les résultats réseau les plus récents. Au vue des succès rencontrés lors de l'étude de l'octet baryonique nous avons fait une analyse systématique des masses du décuplet baryonique le plus léger dans la théorie chirale covariante des perturbations pour les baryons en fittant de façon simultanée les données réseau n_f=2+1. Une bonne description à la fois des données réseau et des masses expérimentales est obtenue. De plus les termes sigma sont prédits. Enfin comprendre le spectre d'excitation des hadrons est encore un challenge. En particulier le spectre des baryons a une structure très inhabituelle, la résonance Roper (1440) de parité positive étant plus légère que l'état de parité négative N(1535). La plupart des études sur réseau suggère que les effets des log chiraux sont plus importants pour la masse de la Roper que pour celle des nucléons. Nous avons donc calculé la masse de cette résonance en théorie chirale des perturbations en tenant en de façon explicite des contributions du nucléon et du delta. Les contributions venant du mélange entre le nucléon et la Roper sont étudiées pour la première fois. Une première analyse de la masse de cette particule est présentée. / Mass is one of the most fundamental properties of matter. Understanding its origin has long been a central topic in physics. According to modern particle and nuclear physics, the key to this issue is to understand the origin of nucleon (lowest-lying baryon) masses from the nonperturbative strong interaction. With the development of computing technologies, lattice Quantum Chromodynamics simulations provide great opportunities to understand the origin of mass from first principles. However, due to the limit of computational resources, lattice baryon masses have to be extrapolated to the physical point. Chiral perturbation theory, as an effective field theory of low-energy QCD, provides a model independent method to understand nonperturbative strong interactions and to guide the lattice multiple extrapolations. Therefore, we present the interplay between lattice QCD and chiral perturbation theory to systematically study the baryon masses. In the SU(3) sector, we study the lowest-lying octet baryon masses in covariant baryon chiral perturbation theory with the extended-on-mass-shell scheme up to next-to-next-to-next-to-leading order. In order to consider lattice artifacts from finite lattice box sizes, finite-volume corrections to lattice baryon masses are estimated. By constructing chiral perturbation theory for Wilson fermions, we also obtain the discretization effects of finite lattice spacings. We perform a systematic study of all the latest n_f=2+1 lattice data with chiral extrapolation (m_q → m_q^phys.), finite-volume corrections (V→∞), and continuum extrapolation (a→0). We find that finite-volume corrections are important to describe the present lattice baryon masses. On the other hand, the discretization effects of lattice simulations up to O(a²) are of the order 1% when a≈0.1 fm and can be safely ignored. Furthermore, we find that the lattice data from different collaborations are consistent with each other, though their setups are quite different. Using the chiral formulas of octet baryon masses, we accurately predict the octet baryon sigma terms via the Feynman-Hellmann theorem by analyzing the latest high-statistics lattice QCD data. Three key factors --- lattice scale setting effects, chiral expansion truncations and strong-interaction isospin-breaking effects --- are taken into account for the first time. In particular, the predicted pion- and strangeness-nucleon sigma terms, sigma_πN=55(1)(4) MeV and sigma_sN =27(27)(4) MeV, are consistent with the most latest lattice results of nucleon sigma terms. With the success in the study of octet baryon masses, we also present a systematic analysis of the lowest-lying decuplet baryon masses in covariant baryon chiral perturbation theory by simultaneously fitting n_f=2+1 lattice data. A good description for both the lattice and the experimental decuplet baryon masses is achieved. The convergence of covariant baryon chiral perturbation theory in the SU(3) sector is discussed. Furthermore, the pion- and strangeness-sigma terms for decuplet baryons are predicted by the Feynman-Hellmann theorem. In addition, understanding the excitation spectrum of hadrons is still a challenge, especially the first positive-parity nucleon resonance, the Roper(1440). The baryon spectrum shows a very unusual pattern that the Roper state is lower than the negative-parity state N(1535). Most lattice studies suggest that the Roper mass exhibits much larger chiral-log effects than that of the nucleon. Therefore, we calculate the Roper mass in chiral perturbation theory by explicitly including the nucleon/Delta contributions. The mixed contributions between nucleon and Roper to the baryon masses are taken into account for the first time. A first analysis of lattice Roper masses is presented.
59

Étude sur les procédés traductologiques de termes spécialisés dans un document de la police judiciaire dans une perspective fonctionnaliste et stylistique  : Traduction d’un guide de prévention contre les arnaques du français au suédois / Study of the translational processes of specialised terms in a judicial police document from a functionalist and stylistic perspective :  Translation of a scam prevention guide from French into Swedish

Lönn, Eva January 2023 (has links)
The aim of this work was to analyze the technical terms in our translation from French to Swedish of a French national police publication, Guide de prévention contre les arnaques (2022), from a functionalist and stylistic perspective, based on Reiss &amp; Vermeer's (1977/2013) theories of text type and the formulation of the purpose (skopos) of the translation. The technical terms consisted of synonymous terms representing the basic theme of the text, terms of English origin and acronyms. Vinay &amp; Darbelnet's (1977) process was used to evaluate the translation. The admittedly limited material showed that direct processes dominated the translation of topical terms; the direct processes, i.e. direct translation, borrowing and calques. The indirect processes were much less frequent and consisted of a few cases of transposition, equivalence and adaptation.           In the translation process, we have relied on Navarro (2016), according to which the translator must master a documentary sub-competence, that is, two typologies: acquisition of knowledge of the specialized field and consultation of general and specialized lexicographic works. One question addressed was what this documentary sub-competence consists of in the case at hand. The Swedish police documents on the same subject contributed less to the understanding of the technical terms, while the terminology banks supported the translation choices. Additional information from e.g. commercial websites seemed necessary to identify the correct meaning of the technical terms.
60

Étude sur les procédés traductologiques de termes spécialisés dans un document de la police judiciaire dans une perspective fonctionnaliste et stylistique : Traduction d’un guide de prévention contre les arnaques du français au suédois / Study of the translational processes of specialised terms in a judicial police document from a functionalist and stylistic perspective  : Translation of a scam prevention guide from French into Swedish

Lönn, Eva January 2023 (has links)
The aim of this work was to analyze the technical terms in our translation from French to Swedish of a French national police publication, Guide de prévention contre les arnaques (2022), from a functionalist and stylistic perspective, based on Reiss &amp; Vermeer's (1977/2013) theories of text type and the formulation of the purpose (skopos) of the translation. The technical terms consisted of synonymous terms representing the basic theme of the text, terms of English origin and acronyms. Vinay &amp; Darbelnet's (1977) process was used to evaluate the translation. The admittedly limited material showed that direct processes dominated the translation of topical terms; the direct processes, i.e. direct translation, borrowing and calques. The indirect processes were much less frequent and consisted of a few cases of transposition, equivalence and adaptation.           In the translation process, we have relied on Navarro (2016), according to which the translator must master a documentary sub-competence, that is, two typologies: acquisition of knowledge of the specialized field and consultation of general and specialized lexicographic works. One question addressed was what this documentary sub-competence consists of in the case at hand. The Swedish police documents on the same subject contributed less to the understanding of the technical terms, while the terminology banks supported the translation choices. Additional information from e.g. commercial websites seemed necessary to identify the correct meaning of the technical terms. / <p>Zoom-seminarium</p>

Page generated in 0.0336 seconds