Spelling suggestions: "subject:"textométrie"" "subject:"cytometry""
1 |
Représentations romanesques de la modernité parisienne dans le "Grand XIXème siècle", 1830-1913 / Fictionnal representations of parisian modernity during the “Grand XIXème siècle”, 1830-1913Boeglin, Noémie 05 July 2018 (has links)
Dans cette thèse nous étudions les représentations romanesques de la modernité parisienne durant le « Grand XIXème siècle » (1830-1913) à travers un échantillonnage représentatif de 31 romans. Nous entendons la modernité comme une tradition du nouveau, incessamment renouvelée. Les romans sont la principale source de cette recherche, à laquelle nous adjoignons une source que nous avons créée à l’aide de logiciels de textométrie et SIG. Les auteurs décrivent en effet la ville de Paris par les parcours de leurs personnages, que nous pouvons associer à la marche urbaine. En identifiant et en cartographiant ces parcours, par le biais des odonymes mobilisés, nous pouvons créer une représentation cartographique de la ville de Paris dans notre échantillonnage. Textes et cartes sont alors analysés simultanément, car ils nous offrent deux clés d’entrée sur les représentations romanesques de la modernité parisienne. Nous avons étudié la modernité parisienne du micro au macro, c’est-à-dire de l’espace intime des logements jusqu’aux grandes opérations de transformation urbaine. Nous avons identifié quatre incarnations principales de la modernité dans la capitale : l’architecture, le commerce, les réseaux et les transports. La modernité est, effectivement, un assemblage de marqueurs caractéristiques. Or, certains semblent absents des romans de notre échantillonnage. Nous avons ainsi identifié ce que nous avons nommé les contrastes de la modernité entre absences, ambivalences et modernité négative. / In this thesis we study the representations of Parisian modernity during the “Grand XIXème siècle” through representative sampling of 31 novels. Modernity is for us like a tradition of the new incessantly renewed. Novels are the main source of this research, to which we add a source that we have created using textometry and GIS softwares. Authors describe the city of Paris by the walks of their characters. We can associate them with urban walk. We can identify and mapping these walks, by the names of streets which are used. So we can create a cartographic representation of the city of Paris in our sampling. Texts and maps are analyzed in the same time, because they give us two points of view of literary representations of Parisian modernity. We studied the modernity of Paris from the micro to the macro, from the intimate space of the housing to the large urban transformation operations. We identified four incarnations of modernity in the French capital: architecture, business, networks and transport. Modernity is an accumulation of characteristic markers. Some seem absent from the novels in our sampling. We consider them as contrasts of modernity, between absences, ambivalences and negative modernity.
|
2 |
Approche textométrique de l’analyse d’opinion - l’exemple de la crise entre la Chine et Google (2010) / A textometric approach to the analysis of opinions – an example of the crisis between China and Google (2010)Wu, Li-Chi 05 October 2016 (has links)
À l’avènement du Web 2.0, le monde virtuel devient une communauté extrêmement complexe dans laquelle on procède plus ou moins librement à des échanges d’informations et d’avis les plus divers. L’outil de communication, en constante évolution, fait émerger la voix de l’opinion dans le monde virtuel tout en influençant le contenu et la nature mêmes des messages des utilisateurs d’Internet. L’appareil de censure du web chinois, connu sous le nom de Grande Muraille électronique, a souvent fait l’objet de sévères dénonciations. Partant de la controverse, qui a ébranlé le monde politique et commercial, nous avons étudié les comportements linguistiques des acteurs du web chinois et nous avons examiné en profondeur les diverses modalités d’usage de la langue. Sur un corpus établi à partir des sites des médias, des forums, des blogs provenant des différentes communautés sinophones, notre objectif est d’expérimenter l’approche textométrique pour aboutir à une typologie différentielle des opinions. En nous appuyant sur les ressources lexicales, nous proposons divers critères d’analyse comparative pour tenter de dégager les opinions des auteurs à partir des textes qu’ils ont produits. Nous nous intéressons en particulier aux variétés et à la diversité des formes langagières des internautes chinois dont les nouvelles manières d’écrire ne se conforment pas aux règles et aux normes de la langue standard de l’écriture éditoriale. / With the arrival of the Web 2.0, the online world has become an extremely complex community, where information and opinions are more or less freely exchanged on all sides. The communication tools, constantly evolving, bring out public opinion in the online world and simultaneously influence both the content and the nature of Internet messages. Internet censorship in China, known as the Great Firewall, has often received harsh criticism. By the example of the controversy between Google and the Chinese government that shocked the political world and the market in 2010, we study the linguistic behaviour of participants on the Chinese Internet and examine the various forms of the use of language in depth. Based on a corpus established from media websites, forums, blogs in various Chinese-speaking communities, our goal is to apply the textometric approach in order to establish a differential typology of opinions. Building on the lexical resources, we offer various benchmarking criteria to try to extract authors' opinions from the texts that they have produced. We are particularly interested in the varieties and diversities of language forms of Chinese Internet users, where new ways of writing do not comply with the rules and norms of standard language as found in editorial writing.
|
3 |
Analyse textométrique des corpus parallèles francais-coréens / Textometric analysis of French-Korean parallel corporaCho, Joon-Hyung 25 February 2010 (has links)
Les équivalences traductionnelles extraites à partir d’un corpus parallèle deviendraient une ressource précieuse permettant d’étudier différents contextes traductionnels envisagés entre les deux langues distinctes. L’utilisation des textes traductionnels constitue aujourd’hui un thème essentiel en traductologie et en études contrastives des langues. Les méthodes textométriques opèrent une série de calculs statistiques portant sur les unités textuelles dans un corpus parallèle segmenté en occurrences. Elles fournissent les indices quantitatifs permettant de mettre en évidence le lien traductionnel de ces unités. En examinant des formes bilingues issues des corpus parallèles français-coréens, nous avons vérifié l’utilité de cette méthodologie appliquée aux textes traductionnels en français-coréen. Elles ont effectivement donné un résultat positif, d’une part, et un résultat négatif, d’autre part, tout au long de nos travaux. Pourtant, grâce à ces méthodes, nous avons pu étudier divers liens traductionnels entre unités textuelles du français et du coréen. La plupart de méthodes automatisées consacrées au corpus parallèle en langues hétérogènes n’ont pas produit de résultat acceptable. À ce titre, la textométrie, qui vise à l’observation quantitative des éléments lexicaux d’un corpus, serait très intéressante lorsqu’il s’agit notamment d’un corpus parallèle en langues sans parenté. / The translational equivalences extracted from a parallel corpus become a valuable resource enable to study the various translational contexts between the two distinct languages. The use of translational texts is now a principal subject in the translation studies and the contrastive studies of languages. The textometry operate a set of statistical calculations on the textual units in a parallel corpus divided into the tokens. They provide the quantitative evidence that verify the translational relation of the linguistic units. In exploring bilingual words in the French-Korean parallel corpora, we verified the usefulness of this methodology applied to the French-Korean translational texts. They produced actually a positive result, on the one hand, and a negative result, on the other hand, throughout our work. Yet, these methods made also observe the various translational relations of textual units between French and Korean. The most automated methods devoted to the parallel corpora of heterogeneous language pairs have not produced the approvable result. For the reason, the textometry, which aims to observe the lexical elements of a corpus from a statistical point of view, would be very practical method when we deal with a parallel corpus that consists of different language pairs.
|
4 |
L'impact du traumatisme psychique sur la mémoire : une approche transdisciplinaire / Impact of individual and collective traumatic events on memory : a transdisciplinary appoachDégeilh, Fanny 30 June 2016 (has links)
L’objectif de cette thèse était d’étudier l’impact du traumatisme psychique sur la mémoire de façon transdisciplinaire pour mieux appréhender les liens qui associent mémoire, émotion et perception de soi. Premièrement, l’analyse textométrique des témoignages recueillis entre 1 semaine et 10 ans après les attentats du 11 septembre 2001 aux États-Unis, nous a permis de préciser les modifications du contenu des souvenirs émotionnels dans le temps. De plus, nos résultats suggèrent que le contenu des souvenirs et leur évolution temporelle sont modulés par l’intensité du ressenti émotionnel au moment de l’événement. Deuxièmement, nous avons développé et utilisé un nouvel outil de méta-analyse semi-automatique, LinkDisorder, associant analyse lexicale et neuroimagerie pour explorer les corrélats neuropsychologiques du trouble de stress post-traumatique (TSPT) chez l’adulte. Les résultats révèlent que, bien que les altérations du cortex préfrontal, de l’amygdale et de l’hippocampe, qui sous-tendent les déficits mnésiques et émotionnels soient au centre de la pathologie, les altérations du processus de récompense et du striatum pourraient expliquer l’anhédonie des patients. Troisièmement, l’approche en neuropsychologie et neuroimagerie de la perception de soi dans le TSPT pédiatrique nous a permis d’explorer les modifications cérébrales fonctionnelles associées à un stress traumatique survenant à une période essentielle au développement identitaire, l’adolescence. Notre étude suggère que le TSPT pédiatrique serait associé à des anomalies fonctionnelles précoces dans les régions impliquées dans la régulation émotionnelle et la mémoire lors du processus de référence à soi. / The main aim of this thesis was to study the impact of trauma on memory in a transdisciplinary way to better understand the relationships between memory, emotion and Self. Firstly, we used textometry to explore memories from 1 week to 10 years after the 9/11 attacks, and showed the progressive changes of the content of emotional memories over time. In addition, our results revealed that the intensity of the emotional response at the time of the event could modulate the content of memories and their change over time. Secondly, we developed and used a new method of automated meta-analysis, LinkDisorder, which combines lexical analyses and neuroimaging to explore neurocognitive correlates of adult posttraumatic stress disorder (PTSD). Our meta-analysis highlights that while PTSD is characterized by functional alterations in prefrontal, amygdala and hippocampal regions underlying memory and emotional deficits, dysfunction in reward processing and of the striatum may subtend anhedonia in patients. Thirdly, using neuropsychology and neuroimaging examinations of self-perception in pediatric PTSD, we explored brain changes occurring after a traumatic stress in adolescence, a core period of life for the development of identity. Our study suggests that pediatric PTSD is associated with early functional abnormalities in the regions involved in emotion regulation and memory during self-reference processing.
|
5 |
Les thèmes et le temps dans Le Monde diplomatique (1990-2008) / Themes and time in Le Monde diplomatique (1990-2008)Metwally, Heba 11 December 2017 (has links)
La démocratisation des textes numérisés change aujourd’hui nos ambitions scientifiques. Lire les big data n’est plus un idéal auquel on aspire. Dès lors, l’interprétation des gros corpus devient un impératif et se pose en défi. Puisque les textes s’étalent naturellement dans le temps, les gros corpus prennent le plus souvent la forme des corpus chronologiques. Ceux-ci représentent ici un objet de connaissance ordonné qui approfondit notre compréhension des données sérielles et met en question la pertinence du recours à une statistique traditionnelle.Le Monde diplomatique est un mensuel sérieux et reconnu par les instances universitaires comme source de première main. En 2015, il comptait 37 éditions internationales en 20 langues. Journal français engagé à large diffusion internationale, il fait l’objet d’études universitaires nombreuses. Une analyse thématique documentée vise ici l’observation de l’évolution du discours sans complexe du mensuel dans un monde en reconstruction. Comment le MD gère-t-il l’évolution de son discours au lendemain de la chute du mur de Berlin et jusqu’à la fin de la guerre mondiale contre le terrorisme ? La fin du XXe siècle et le début du XXIe siècle est un laps de temps assez court et pourtant foisonnant.Au confluent de ce double intérêt pour les données sérielles chronologiques et l’analyse de l’évolution thématique du MD, une série textuelle chronologique regroupant plus de 5000 articles publiés entre 1990 et 2008 qui comptent plus de 11 millions d’occurrences est réduite à une maquette. Celle-ci devient un prêt-à-monter rapide qui nous assiste dans une lecture qui articule les niveaux descriptifs de la textualité pour aller au fond des moments de sens stabilisé, pour arriver au bout de la marche du temps et pour pratiquer une sémantique appropriée dans toute sa complexité. / Dealing with big data today is becoming a big challenge for scholars who are conducting corpus-based studies. As producing texts spreads normally over time, scholars are interfacing increasingly with chronological corpora. Studying time series deepens our understanding of chronological data and modifies our ideas about the appropriate statistical analysis. The Monde diplomatique is a monthly newspaper distributed worldwide. In 2015, it had 37 editions and was read in 20 languages. As a French international journal offering serious analysis on politics, economics, culture and current affairs, it is an area of interest for several university studies. We aim here to offer a documented analysis of the evolution of its discourse in the aftermath of the Fall of the Berlin Wall and till the end of the Global War on Terror (GWOT).To analyse big corpora that stretch out over time we need to adjust our practices in corpus semantics and statistical data analysis. That is what we propose by using a scale model of a chronological corpus initially composed of more than 5000 articles (ca 11 million text words). A new reduced and authentic model guarantees appropriate approach to different text levels to study meaning over time.
|
6 |
Modélisation informatique de structures dynamiques de segments textuels pour l'analyse de corpus / Data-processing modeling of dynamic structures of textual segments for the analysis of corpusDaoust, François 10 January 2011 (has links)
L'objectif de la thèse est de proposer un modèle informatique pour représenter, construire et exploiterdes structures textuelles. Le modèle proposé s'appuie sur une représentation du texte sous la forme d'unplan lexique/occurrences augmenté de systèmes d'annotations lexicales et contextuelles, modèle dontune implantation a été réalisée dans le logiciel SATO dont on présente les fonctionnalités etl'organisation interne. La présentation d'un certain nombre de travaux rendent compte dudéveloppement et de l'utilisation du logiciel dans divers contextes.La prise en charge formelle des structures textuelles et discursives trouve un allié dans le langage debalisage XML et dans les propositions de la Text Encoding Initiative (TEI). Formellement, lesstructures construites sur les segments textuels correspondent à des graphes. Dans le contexte d'uneanalyse textuelle en élaboration, ces graphes sont multiples et partiellement déployés. La résolution deces graphes, au sens du rattachement des noeuds à des segments textuels ou à des noeuds d'autresgraphes, est un processus dynamique qui peut être soutenu par divers mécanismes informatiques. Desexemples tirés de la linguistique textuelle servent à illustrer les principes de l'annotation structurelle.Des considérations prospectives sur une implantation informatique d'un système de gestion del'annotation structurelle sont aussi exposées. / The objective of the thesis is to propose a data-processing model to represent, build and exploit textualstructures. The suggested model relies on a «type/token» form of text representation extended bysystems of lexical and contextual annotations. This model's establishment was carried out in the SATOsoftware -- of which the functionalities and the internal organization are presented. Reference to anumber of works give an account of the development and use of the software in various contexts.The formal assumption of the textual and discursive structures find an ally in the beaconing XMLlanguage and the proposals of the Text Encoding Initiative (TEI). Formally, the structures built on thetextual segments correspond to graphs. In a development driven textual analysis context, these graphsare multiple and partially deployed. Their resolution, within the fastening of the nodes to textualsegments or that of other graphs, is a dynamic process which can be sustained by various dataprocessingmechanisms. Examples drawn from textual linguistics are used to illustrate the principles ofstructural annotation. Prospective considerations for the data-processing establishment of amanagement system of the structural annotation are also exposed.
|
7 |
Discours de presse et veille stratégique d'évènements. Approche textométrique et extraction d'informations pour la fouille de textes / News Discourse and Strategic Monitoring of Events. Textometry and Information Extraction for Text MiningMacMurray, Erin 02 July 2012 (has links)
Ce travail a pour objet l’étude de deux méthodes de fouille automatique de textes, l’extraction d’informations et la textométrie, toutes deux mises au service de la veille stratégique des événements économiques. Pour l’extraction d’informations, il s’agit d’identifier et d’étiqueter des unités de connaissances, entités nommées — sociétés, lieux, personnes, qui servent de points d’entrée pour les analyses d’activités ou d’événements économiques — fusions, faillites, partenariats, impliquant ces différents acteurs. La méthode textométrique, en revanche, met en œuvre un ensemble de modèles statistiques permettant l’analyse des distributions de mots dans de vastes corpus, afin faire émerger les caractéristiques significatives des données textuelles. Dans cette recherche, la textométrie, traditionnellement considérée comme étant incompatible avec la fouille par l’extraction, est substituée à cette dernière pour obtenir des informations sur des événements économiques dans le discours. Plusieurs analyses textométriques (spécificités et cooccurrences) sont donc menées sur un corpus de flux de presse numérisé. On étudie ensuite les résultats obtenus grâce à la textométrie en vue de les comparer aux connaissances mises en évidence au moyen d’une procédure d’extraction d’informations. On constate que chacune des approches contribuent différemment au traitement des données textuelles, produisant toutes deux des analyses complémentaires. À l’issue de la comparaison est exposé l’apport des deux méthodes de fouille pour la veille d’événements. / This research demonstrates two methods of text mining for strategic monitoring purposes: information extraction and Textometry. In strategic monitoring, text mining is used to automatically obtain information on the activities of corporations. For this objective, information extraction identifies and labels units of information, named entities (companies, places, people), which then constitute entry points for the analysis of economic activities or events. These include mergers, bankruptcies, partnerships, etc., involving corresponding corporations. A Textometric method, however, uses several statistical models to study the distribution of words in large corpora, with the goal of shedding light on significant characteristics of the textual data. In this research, Textometry, an approach traditionally considered incompatible with information extraction methods, is applied to the same corpus as an information extraction procedure in order to obtain information on economic events. Several textometric analyses (characteristic elements, co-occurrences) are examined on a corpus of online news feeds. The results are then compared to those produced by the information extraction procedure. Both approaches contribute differently to processing textual data, producing complementary analyses of the corpus. Following the comparison, this research presents the advantages for these two text mining methods in strategic monitoring of current events.
|
8 |
Du plagiat en littérature : prolégomènes à une étude littéraire pour un usage juridique / Literature and plagiarism : prologue to a literary study for legal useHona, Kisito 09 October 2014 (has links)
Depuis plusieurs années, on assiste à la croissance exponentielle des cas de plagiat non seulement dans les arts, mais aussi dans la recherche scientifique. La réalité veut qu’en l’absence d’un spécialiste de la littérature dans les débats à la barre pour trier le bon grain de l’ivraie, le juge se trouve très souvent obligé de jouer le rôle du spécialiste à la fois du droit et de la littérature. C’est donc dans ce contexte particulier, que se situe ce travail de recherche. L’objectif est de partir de l’analyse de quatre biographies, de deux romans et de trois décisions de justice pour essayer de pallier les insuffisances d’une « approche juridique » de la littérature et proposer une grille d’analyse littéraire systématisée. Cette grille d’analyse résulte de la conjugaison de deux processus : l’analyse manuelle et celle assistée par ordinateur. En effet, avec pour cadre général l’analyse de l’œuvre intégrale, l’analyse manuelle se combine avec la textométrie. faite à l’aide de deux logiciels : TXM conçu par le laboratoire ICAR de l’ENS de Lyon et Hyperbase conçu par le Professeur Étienne Brunet de l’université de Nice. C’est à l’issue de toutes ces investigations que le spécialiste de la littérature devrait émettre un avis motivé dont le tribunal devrait se servir pour dire le droit et... rendre justice / For several years now, there has been an exponential growth in cases of plagiarism not only in the arts, but in scientific research as well. Reality warrants that in the absence of a specialist in literature in court to separate the gold from the dross, the judge is often compelled to play the rote of both a specialist in law and in literature. It is against this backdrop that this research work is inspired. The aim is to analyze four biographies, two novels and three court rulings in an attempt to address the shortcomings of “legal approach” to literature and propose a systematized literary analytical framework. This analytical framework is the result of combining two processes : the manual process and the computer-assisted one. As a matter of fact, against a general framework of analyzing the complete works, manual analysis is combined with textometry, carried out using two softwares: TXM designed by the iCAR laboratory of ENS Lyon and Hyperbase designed by Professor Etienne Brunet of Nice University. It is after all these investigations that the literature specialist may issue a reasoned opinion that the court may use to say what the law is and... mete out justice
|
9 |
Plasticité de l'écriture poétique d'Apollinaire : une articulation du continu et du discontinu / Plasticity of Apollinaire’s poetic writing : articulation of continuity and discontinuityJacquot, Clemence 06 June 2014 (has links)
Cette thèse s’attache à interroger et essaie de définir l’évolution stylistique de l’écriture d’Apollinaire, en l’articulant aux manifestations syntaxiques du continu et du discontinu au sein du discours poétique. Nous y observons comment le discontinu s’inscrit dans la pensée et l’écriture apollinarienne, tant sous la forme d’un motif obsédant, celui du morcellement et de la dissolution du corps, que comme principe de construction du discours, par les figures de juxtaposition et de raccourci syntaxiques. Nous essayons d’étudier les spécificités et l’évolution diachronique de la syntaxe poétique d’Apollinaire, grâce aux apports méthodologique de la textométrie (en particulier du logiciel de statistique textuelle : TXM).Nous analysons plusieurs dispositifs textuels représentatifs de l’articulation apollinarienne du continu et du discontinu : la proposition subordonnée relative, les effets de mise en liste et d’émiettement syntaxique (énumérations, accumulations, juxtapositions), ainsi que le cas particulier que constitue les calligrammes (espace de synthèse poétique, à l’image du renouvellement des régimes de visibilité). Ce type de structures et d’organisations du discours poétique permet en effet d’interroger les enjeux de la plasticité de l’écriture apollinarienne. / This thesis aims to examine and define the stylistic evolution of Apollinaire's writing in light of the syntactic continuity and discontinuity in poetic discourse. It studies the place of discontinuity in his work, both as a haunting motif of the fragmentation and the dissolution of the poet's body through space, as well as a principle of discursive construction, by instances of juxtaposition and shortened syntax. It attempts to study the specificities and the diachronic evolution of Apollinaire by using textometry as a methodological tool (specifically the software for textual statistics: TXM). This thesis analyses several textual structures that represent Apollinaire's articulation of continuity and discontinuity: the relative subordinate clause, the effects of listing and syntactical splitting (enumerations, accumulations, juxtapositions), as well as the particular example of caligramms (a space of poetical synthesis, for instance the extension of regimes of visibility). This type of structure and organization of poetic discourse allows us to analyze the question of the plasticity of Apollinaire's writing.
|
10 |
Approche textométrique et comparative du discours de segmentation du marché automobile : implications pour la traduction publicitaire anglais > français / A statistical, comparative analysis of the automotive industry segmentation discourse : implications for english > french translationRéthoré, Christophe 23 January 2017 (has links)
Cette recherche est ancrée à la fois dans la statistique textuelle, et secondairement dans l’analyse du discours, avec une complémentarité quantitatif-qualitatif. L’état de la question présente une vue d’ensemble des recherches linguistiques sur la publicité – linguistique descriptive, analyse du discours, sémiologie/sémiotique et rhétorique/stylistique, en prenant pour point de départ le travail pionnier en linguistique descriptive de Leech (TheLanguage of Advertising, 1966) – et révèle plusieurs constats :1. les mots de la publicité constituent bien un discours spécialisé 2. la publicité ressemble à la fois à la poésie et à la langue courante 3. l’intertextualité et la participation active d’un récepteur ciblé sont deux données clés de la communication publicitaire 4. la langue publicitaire est émotionnelle, ambiguë, indirecte et implicite 5. de façon simpliste et ludique, la publicité nous dépeint un monde de bonheur parfait 6. simplicité et conventionnalisation du discours publicitaire, et invariants lexicaux. Pour répondre à certaines questions sur le discours, la langue, la communication et la traduction publicitaires, nous avons choisi une approche quantitative et l’approche lexicométrique (ou statistique textuelle, devenue récemment textométrie), développée notamment par le « groupe de Saint-Cloud » et ses collaborateurs, dont André Salem (concepteur de Lexico, le logiciel utilisé pour nos analyses). L'analyse lexicométrique est complétée par l'analyse factorielle des correspondances (AFC) et la méthode de projection géodésique de Viprey (avec le logiciel Astadiag). Grâce à un corpus parallèle (bitexte) d’environ 800 000 occurrences en anglais et un million en français (170 brochures publicitaires compilées à partir de sites Web canadiens de 20 marques, 10 constructeurs, 229 véhicules au total), nous avons réussi à déterminer un profil lexical distinct pour chacun des sept segments du marché automobile : AB, CD, EF, MPV (véhicules multifonctions), PK (pickups/camions), SP (voitures de sport) et SUV (VUS : véhicules utilitaires sports) et montré que dans l’ensemble, les publicités sont traduites assez littéralement. / Our research is quantitative and qualitative, based on textometrics tools and discourse analysis. Our literature review surveyed linguistic studies of advertising, through different schools of thought : descriptive linguistics, discourse analysis, semiology, rhetorics/stylistics, starting with Leech’s founding work (The Language of Advertising, 1966), which led to several highlights : 1. advertising is indeed a specialty discourse, or a language for special purpose (LSP) 2. advertising shares some common features with both poetry and the language we speak everyday 3. intertextuality and active participation of the targeted reader are two key factors of advertising communication 4. the language of advertising is emotional, ambiguous, indirect and implicit 5. in a simple and playful way, advertising depicts a perfect, happy world 6. simplicity and conventionalization of the advertising discourse, with lexical constants.To find answers to some of our questions on the advertising discourse, language, communication and translation, we selected a quantitative approach, i.e., the lexicometric methodology (statistical linguistics, more recently called textometry) developed by the Saint-Cloud (France) group, including André Salem (founder and developer of Lexico,which we used to analyze our corpus). Our lexicometric analysis is complemented by a classic factor analysis (FCA)and Viprey’s geodesical projection method (with the Astadiag software). With our parallel corpus of roughly 800,000 tokens in English and one million in French (170 advertising brochures downloaded from 20 brands/10carmakers’ Canadian websites, for a total of 229 vehicles), we found distinct lexical profiles for each of the seven carmarket segments: AB, CD, EF, MPV, PK (pickup trucks), SP (sports cars) and SUV. We also showed that overall,advertisements are translated rather literally.
|
Page generated in 0.0476 seconds