• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 1
  • 1
  • Tagged with
  • 13
  • 5
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Le faux monnayage dans le Pays de Vaud (1715-1750) : crime et répression /

Dubuis, Olivier F. January 1999 (has links)
Mémoire de licence--Université de Lausanne, 1992. / Bibliogr. p. 195-211.
2

Entre monnayage officiel et faux-monnayage

Arles, Adrien Gratuze, Bernard Téreygeol, Florian January 2009 (has links) (PDF)
Thèse de doctorat : histoire : Orléans : 2009. / Titre provenant de l'écran-titre.
3

Le faux monnayage anglais à l'aube du XVIIIe siècle : une nouvelle donne

Darras, Xavier January 2009 (has links) (PDF)
Ce mémoire a pour but de dégager une image d'ensemble du faux monnayage et de ses artisans, en Angleterre, à l'aube du XVIIIe siècle, c'est-à-dire à une époque caractérisée par des changements économiques et juridiques, mais surtout par un renforcement des mesures de l'État visant à lutter contre ce phénomène. Outre l'analyse du faux monnayage et de ses artisans, cette étude se penche également sur les interactions entre l'État et les faussaires, qui sont souvent amenés à adapter leurs activités en fonction des mesures législatives et répressives. Pour ce faire, nous avons étudié les archives judiciaires du Old Bailey, principal tribunal criminel de Londres, sur une période de quarante ans (de 1697 à 1737). Nous avons également eu recours à diverses autres sources, notamment les comptes rendus relatant les derniers jours des condamnés (les Ordinary's accounts), des recueils de lois ainsi que des recueils portant sur la vie de criminels célèbres. L'analyse de ces documents démontre que les moyens déployés par l'État engendrent des changements graduels dans les pratiques et les techniques des faussaires et que les primes qui sont désormais offertes aux délateurs sont à l'origine de nombreuses accusations. Elle démontre également la panoplie de moyens dont disposaient les faussaires, leur inventivité ainsi que la diversité des réactions de ceux qui doivent faire face à la justice. Bien que l'étude nous donne une idée de l'étendue et de la pérennité de certains réseaux criminels, elle nous apprend aussi qu'un grand nombre de faussaires mènent leurs activités de façon ponctuelle pour obtenir un revenu d'appoint ou pour améliorer leur niveau de vie. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Faux monnayage, Faux-monnayeur, Faussaire, Rognage, Opinion publique, XVIIIe Siècle, Justice, Londres, Old Bailey.
4

Classification de menaces d'erreurs par analyse statique, simplification syntaxique et test structurel de programmes

Chebaro, Omar 13 December 2011 (has links) (PDF)
La validation des logiciels est une partie cruciale dans le cycle de leur développement. Deux techniques de vérification et de validation se sont démarquées au cours de ces dernières années : l'analyse statique et l'analyse dynamique. Les points forts et faibles des deux techniques sont complémentaires. Nous présentons dans cette thèse une combinaison originale de ces deux techniques. Dans cette combinaison, l'analyse statique signale les instructions risquant de provoquer des erreurs à l'exécution, par des alarmes dont certaines peuvent être de fausses alarmes, puis l'analyse dynamique (génération de tests) est utilisée pour confirmer ou rejeter ces alarmes. L'objectif de cette thèse est de rendre la recherche d'erreurs automatique, plus précise, et plus efficace en temps. Appliquée à des programmes de grande taille, la génération de tests, peut manquer de temps ou d'espace mémoire avant de confirmer certaines alarmes comme de vraies erreurs ou conclure qu'aucun chemin d'exécution ne peut atteindre l'état d'erreur de certaines alarmes et donc rejeter ces alarmes. Pour surmonter ce problème, nous proposons de réduire la taille du code source par le slicing avant de lancer la génération de tests. Le slicing transforme un programme en un autre programme plus simple, appelé slice, qui est équivalent au programme initial par rapport à certains critères. Quatre utilisations du slicing sont étudiées. La première utilisation est nommée all. Elle consiste à appliquer le slicing une seule fois, le critère de simplification étant l'ensemble de toutes les alarmes du programme qui ont été détectées par l'analyse statique. L'inconvénient de cette utilisation est que la génération de tests peut manquer de temps ou d'espace et les alarmes les plus faciles à classer sont pénalisées par l'analyse d'autres alarmes plus complexes. Dans la deuxième utilisation, nommée each, le slicing est effectué séparément par rapport à chaque alarme. Cependant, la génération de tests est exécutée pour chaque programme et il y a un risque de redondance d'analyse si des alarmes sont incluses dans d'autres slices. Pour pallier ces inconvénients, nous avons étudié les dépendances entre les alarmes et nous avons introduit deux utilisations avancées du slicing, nommées min et smart, qui exploitent ces dépendances. Dans l'utilisation min, le slicing est effectué par rapport à un ensemble minimal de sous-ensembles d'alarmes. Ces sous-ensembles sont choisis en fonction de dépendances entre les alarmes et l'union de ces sous-ensembles couvre l'ensemble de toutes les alarmes. Avec cette utilisation, on a moins de slices qu'avec each, et des slices plus simples qu'avec all. Cependant, l'analyse dynamique de certaines slices peut manquer de temps ou d'espace avant de classer certaines alarmes, tandis que l'analyse dynamique d'une slice éventuellement plus simple permettrait de les classer. L'utilisation smart consiste à appliquer l'utilisation précédente itérativement en réduisant la taille des sous-ensembles quand c'est nécessaire. Lorsqu'une alarme ne peut pas être classée par l'analyse dynamique d'une slice, des slices plus simples sont calculées. Nous prouvons la correction de la méthode proposée. Ces travaux sont implantés dans sante, notre outil qui relie l'outil de génération de tests PathCrawler et la plate-forme d'analyse statique Frama-C. Des expérimentations ont montré, d'une part, que notre combinaison est plus performante que chaque technique utilisée indépendamment et, d'autre part, que la vérification devient plus rapide avec l'utilisation du slicing. De plus, la simplification du programme par le slicing rend les erreurs détectées et les alarmes restantes plus faciles à analyser
5

Économie de la gratuité / Economics of gratuitousness

Gbedolo, Catherine O. 10 June 2015 (has links)
Cette thèse répond au défi lancé par Benoît XVI (2009), qui avait appelé toutes les personnes de bonne volonté à réfléchir sur le rôle de la gratuité dans l’économie et la société. Nous avons tâché de relever ce défi sur le plan scientifique, avec les outils et les démarches de l’analyse économique. Sur la base d’une revue systématique de la littérature économique portant sur la gratuité, nous avons essayé de rassembler des éléments pour donner un contenu à une « théorie des biens économiques gratuits ». Cette démarche nous a permis de définir ces biens gratuits, leurs formes et manifestations, et de comprendre leurs principales causes et conséquences. Une attention particulière a été accordée à l’étude de la « gratuité non intentionnelle », omniprésente dans la vie économique. Cette forme de gratuité émane, d’un côté, spontanément du processus de production et, d’un autre côté, des activités des entrepreneurs et des génies créatifs. Une implication forte de ce résultat est que la recherche de profit, stimulus de l’entrepreneur, n’est pas en soi opposée à la production de biens économiques gratuits ; bien au contraire, elle en est une cause. Peu d’économistes apprécient la gratuité non intentionnelle à sa juste valeur. En exagérant la portée réelle de conceptions théoriques telle la maximisation du profit et la concurrence atomistique, la plupart des économistes en appellent à l’État pour limiter les activités marchandes et pour assurer la production de biens économiques gratuits. Il est donc vrai, mais dans un sens assez paradoxal, que l’économie de marché pourrait s’ouvrir davantage à la gratuité si les économistes eux-mêmes travaillaient moins à la réduire dans ce champ. / Benedict XVI (2009) has called upon all persons of goodwill to reflect upon the role of gratuitousness in economy and society. The present thesis responds to that challenge on the level of scientific inquiry, with the tools and the methods of economic analysis. Starting from a systematic review of the economic literature dealing with gratuitousness, we have tried to assemble conceptual elements to build a “theory of gratuitous economic goods”. Thus we have defined the nature of such gratuitous goods, their forms and manifestations, and analysed their principal causes and consequences. We have bestowed particular attention to the study of “unintentional gratuitousness” – an omnipresent phenomenon in economic life. This form of gratuitousness emanates, on the one hand, spontaneously from the market process and, on the other hand, from the activities of entrepreneurs and creative geniuses. A strong implication of this finding is that the profit motive, the stimulus of entrepreneurial action, is not per se in opposition to the production of gratuitous economic goods; quite to the contrary, it is one of their causes. Few economists have understood the nature and role of unintentional gratuitousness. Most of them, by exaggerating the scope of theoretical concepts such as the maximization of profits and atomistic competition, call for the government to limit the scope of for-profit activities and to promote the production of gratuitous economic goods. Thus it is true, though in a quite paradoxical sense, that the market economy could allow for much more gratuitousness if only the economists themselves did less to prevent this from happening.
6

Techniques statistiques de détection de cibles dans des images infrarouges inhomogènes en milieu maritime. / Statistical techniques for target detection in inhomogenous infrared images in maritime environment

Vasquez, Emilie 11 January 2011 (has links)
Des techniques statistiques de détection d'objet ponctuel dans le ciel ou résolu dans la mer dans des images infrarouges de veille panoramique sont développées. Ces techniques sont adaptées aux inhomogénéités présentes dans ce type d'image. Elles ne sont fondées que sur l'analyse de l'information spatiale et ont pour objectif de maîtriser le taux de fausse alarme sur chaque image. Pour les zones de ciel, une technique conjointe de segmentation et détection adaptée aux variations spatiales de la luminosité moyenne est mise en œuvre et l'amélioration des performances auxquelles elle conduit est analysée. Pour les zones de mer, un détecteur de bord à taux de fausse alarme constant en présence d'inhomogénéités et de corrélations spatiales des niveaux de gris est développé et caractérisé. Dans chaque cas, la prise en compte des inhomogénéités dans les algorithmes statistiques s'avère essentielle pour maîtriser le taux de fausse alarme et améliorer les performances de détection. / Statistical detection techniques of point target in the sky or resolved target in the sea in infrared surveillance system images are developed. These techniques are adapted to inhomogeneities present in this kind of images. They are based on the spatial information analysis and allow the control of the false alarm rate in each image.For sky areas, a joint segmentation detection technique adapted to spatial variations of the mean luminosity is developed and its performance improvement is analyzed. For sea areas, an edge detector with constant false alarm rate when inhomogeneities and grey level spatial correlations are present is developed and characterized. In each case, taking into account the inhomogeneities in these statistical algorithms is essential to control the false alarm rate and to improve the detection performance.
7

Effet de halo santé : une explication en termes de fausse attribution affective / Health halo effect : an explanation in term of affective misattribution

Bochard, Nicolas 05 December 2018 (has links)
Les labels présents sur les emballages (e.g., « bio », « commerce équitable ») peuvent pousser les individus à sous-évaluer le contenu calorique des aliments, créant ainsi un effet de halo santé. Dans cette thèse, nous défendons l’idée qu’un mécanisme de fausse attribution affective pourrait en partie expliquer cet effet de halo santé. Nous présenterons 11 études ayant pour but de tester empiriquement cette hypothèse. Parmi les principaux résultats, nous avons montré qu’il était possible d’observer cet effet même si les individus ne rapportent pas avoir pris en compte le label dans leur évaluation (Etudes 3) et dans un contexte de double tâche entravant un raisonnement délibéré de leur part (Etudes 4 et 5). Nous avons également pu montrer, par le biais d’une tâche de fausse attribution affective, qu’un stimulus neutre, lorsqu’il est précédé d’un label bio (vs. une image contrôle) est ensuite évalué plus positivement (Etudes 6, 7 et 8). Enfin, nous avons observé une congruence systématique entre la valence de l’amorce (i.e., le label) et la valence de l’évaluation subséquente d’un stimulus neutre (i.e., le contenu calorique d’un produit alimentaire ; Etudes 9, 10 et 11). Ce biais cognitif relatif à nos évaluations caloriques apparaît donc comme un phénomène robuste, ne faisant intervenir que peu d’inférences délibérées de la part des individus et étant guidé par la valence du label (qu’il soit positif ou négatif). / Labels on food products can lead to unwarranted inferences: organic and fair-trade products are perceived as containing fewer calories. This effect is described in the literature as the health halo effect. In this thesis, we argue that an affective misattribution mechanism can partially explain this effect. We present 11 studies testing empirically this hypothesis.Among our main results, we show that this effect still occurs even if participants did not mention that they used the label in their evaluation (Study 3) and when they are under cognitive load, hindering a deliberate reasoning (Studies 4 and 5). By using an affective misattribution procedure, we also show that when a neutral stimulus is preceded by an organic label (vs. a control picture), this stimulus is then evaluated more positively (Studies 6, 7, and 8). Finally, we observed a systematic congruency between the valence of the prime (i.e., the label) and the valence of the evaluation of a neutral stimulus (i.e., the caloric content of a food product; Studies 9, 10, and 11). Taken together, these studies suggest that this cognitive bias is a robust phenomenon, involving a few inferences and mainly driven by the valence of the label (whether positive or negative).
8

Approche psycholinguistique des relations entre le traitement sémantique des mots et la rétention à court terme chez l’individu sain et dans la démence de type Alzheimer

Macé, Anne-Laure 01 1900 (has links)
Depuis ces deux dernières décennies, des efforts considérables en psychologie cognitive et neuropsychologie ont été déployés pour mieux comprendre les dynamiques entre les différents systèmes cognitifs (fonctions exécutives, mémoire, langage, etc.). L’observation d’une co-existence entre des atteintes en rétention à court terme verbale (RCTv) et en langage dans plusieurs pathologies a conduit certains chercheurs à concevoir une alternative à la conceptualisation classique de la RCTv, telle que proposée par le modèle initial de la mémoire de travail de Baddeley (1986). Particulièrement, les travaux sur l’aphasie ont conduit à l’émergence d’une approche psycholinguistique de la RCTv, postulant que le traitement et le maintien des mots font appel à des processus communs. Cette approche, et particulièrement le modèle d’activation interactive (N. Martin & Gupta, 2004; N. Martin & Saffran, 1997), prédit que les capacités en RCTv sont notamment modulées par les caractéristiques linguistiques engagées durant l’épreuve, variant selon la nature des items verbaux et la modalité de rappel, ainsi que par les compétences linguistiques des individus. L’objectif de la présente thèse était de tester ces prédictions à partir d’une exploration des relations entre le traitement sémantique des mots et la RCTv chez l’adulte sain (article 1) et dans la démence de type Alzheimer (DTA) (article 2). Dans le premier article, deux expériences mettent en évidence l’influence des liens associatifs entre les mots sur les capacités à maintenir temporairement des informations verbales. Les participants ont tendance à faussement reconnaître des mots associés aux mots de la liste, reflet d’une activation du réseau sémantique durant la rétention temporaire. Cette contribution sémantique est accentuée en situation de suppression articulatoire, une condition qui empêche le participant de répéter les listes durant la tâche. Les résultats du second article indiquent que la modalité de réponse module différemment la performance en RCTv chez les participants âgés sans atteinte neurologique et ceux atteints de la DTA. Ces données en RCTv sont compatibles avec les atteintes spécifiques du traitement du mot, également trouvées chez le groupe avec DTA. Les implications théoriques et cliniques de ces résultats sont discutées. Les limites et perspectives futures sont également abordées. / For the past two decades, considerable efforts have been made in cognitive psychology and neuropsychology in order to improve our understanding of the interactions between different cognitive systems (executive functions, memory, language etc.). Evidence of short-term memory (STM) and language impairments in many clinical populations has lead some researchers to put forward an alternative to Baddeley’s working memory model (1986). Based on studies of aphasia, the psycholinguistic approach of STM postulated that word processing and maintenance refer to common processes. Specifically, the interactive activation model (N. Marin & Gupta, 2004; N. Martin & Saffran, 1997) predicts that STM capacities are in particular affected by the linguistic characteristics engaged during the test, and vary according to the nature of verbal items and recall modality, as well as word processing ability. The goal of this thesis was to test some of these predictions by investigating the relationship between semantic treatment and STM in healthy adults (article 1) and dementia of Alzheimer Type (DAT) (article 2). In the first article, two experiments underline the influence of the associative links between words on the capacity to temporarily retain verbal information. Participants tend to wrongly recognize words associated with words from the list, reflecting an activation of the semantic network during temporary retention. This semantic contribution increases in a situation of articulatory suppression, a condition that limits the possibility to repeat lists during the task. The results of the second article indicated that recall modality influences differently the performance in STM of the elderly participants and those with DAT. These data in STM are compatible with a specific word processing impairment, also found in the group with DAT. The theoretical and clinical implications of these results are discussed. Limits and future research perspectives are also presented.
9

Classification de menaces d’erreurs par analyse statique, simplification syntaxique et test structurel de programmes / Classification of errors threats by static analysis, program sclicing and structural testing of programs

Chebaro, Omar 13 December 2011 (has links)
La validation des logiciels est une partie cruciale dans le cycle de leur développement. Deux techniques de vérification et de validation se sont démarquées au cours de ces dernières années : l’analyse statique et l’analyse dynamique. Les points forts et faibles des deux techniques sont complémentaires. Nous présentons dans cette thèse une combinaison originale de ces deux techniques. Dans cette combinaison, l’analyse statique signale les instructions risquant de provoquer des erreurs à l’exécution, par des alarmes dont certaines peuvent être de fausses alarmes, puis l’analyse dynamique (génération de tests) est utilisée pour confirmer ou rejeter ces alarmes. L’objectif de cette thèse est de rendre la recherche d’erreurs automatique, plus précise, et plus efficace en temps. Appliquée à des programmes de grande taille, la génération de tests, peut manquer de temps ou d’espace mémoire avant de confirmer certaines alarmes comme de vraies erreurs ou conclure qu’aucun chemin d’exécution ne peut atteindre l’état d’erreur de certaines alarmes et donc rejeter ces alarmes. Pour surmonter ce problème, nous proposons de réduire la taille du code source par le slicing avant de lancer la génération de tests. Le slicing transforme un programme en un autre programme plus simple, appelé slice, qui est équivalent au programme initial par rapport à certains critères. Quatre utilisations du slicing sont étudiées. La première utilisation est nommée all. Elle consiste à appliquer le slicing une seule fois, le critère de simplification étant l’ensemble de toutes les alarmes du programme qui ont été détectées par l’analyse statique. L’inconvénient de cette utilisation est que la génération de tests peut manquer de temps ou d’espace et les alarmes les plus faciles à classer sont pénalisées par l’analyse d’autres alarmes plus complexes. Dans la deuxième utilisation, nommée each, le slicing est effectué séparément par rapport à chaque alarme. Cependant, la génération de tests est exécutée pour chaque programme et il y a un risque de redondance d’analyse si des alarmes sont incluses dans d’autres slices. Pour pallier ces inconvénients, nous avons étudié les dépendances entre les alarmes et nous avons introduit deux utilisations avancées du slicing, nommées min et smart, qui exploitent ces dépendances. Dans l’utilisation min, le slicing est effectué par rapport à un ensemble minimal de sous-ensembles d’alarmes. Ces sous-ensembles sont choisis en fonction de dépendances entre les alarmes et l’union de ces sous-ensembles couvre l’ensemble de toutes les alarmes. Avec cette utilisation, on a moins de slices qu’avec each, et des slices plus simples qu’avec all. Cependant, l’analyse dynamique de certaines slices peut manquer de temps ou d’espace avant de classer certaines alarmes, tandis que l’analyse dynamique d’une slice éventuellement plus simple permettrait de les classer. L’utilisation smart consiste à appliquer l’utilisation précédente itérativement en réduisant la taille des sous-ensembles quand c’est nécessaire. Lorsqu’une alarme ne peut pas être classée par l’analyse dynamique d’une slice, des slices plus simples sont calculées. Nous prouvons la correction de la méthode proposée. Ces travaux sont implantés dans sante, notre outil qui relie l’outil de génération de tests PathCrawler et la plate-forme d’analyse statique Frama-C. Des expérimentations ont montré, d’une part, que notre combinaison est plus performante que chaque technique utilisée indépendamment et, d’autre part, que la vérification devient plus rapide avec l’utilisation du slicing. De plus, la simplification du programme par le slicing rend les erreurs détectées et les alarmes restantes plus faciles à analyser / Software validation remains a crucial part in software development process. Two major techniques have improved in recent years, dynamic and static analysis. They have complementary strengths and weaknesses. We present in this thesis a new original combination of these methods to make the research of runtime errors more accurate, automatic and reduce the number of false alarms. We prove as well the correction of the method. In this combination, static analysis reports alarms of runtime errors some of which may be false alarms, and test generation is used to confirm or reject these alarms. When applied on large programs, test generation may lack time or space before confirming out certain alarms as real bugs or finding that some alarms are unreachable. To overcome this problem, we propose to reduce the source code by program slicing before running test generation. Program slicing transforms a program into another simpler program, which is equivalent to the original program with respect to certain criterion. Four usages of program slicing were studied. The first usage is called all. It applies the slicing only once, the simplification criterion is the set of all alarms in the program. The disadvantage of this usage is that test generation may lack time or space and alarms that are easier to classify are penalized by the analysis of other more complex alarms. In the second usage, called each, program slicing is performed with respect to each alarm separately. However, test generation is executed for each sliced program and there is a risk of redundancy if some alarms are included in many slices. To overcome these drawbacks, we studied dependencies between alarms on which we base to introduce two advanced usages of program slicing : min and smart. In the min usage, the slicing is performed with respect to subsets of alarms. These subsets are selected based on dependencies between alarms and the union of these subsets cover the whole set of alarms. With this usage, we analyze less slices than with each, and simpler slices than with all. However, the dynamic analysis of some slices may lack time or space before classifying some alarms, while the dynamic analysis of a simpler slice could possibly classify some. Usage smart applies previous usage iteratively by reducing the size of the subsets when necessary. When an alarm cannot be classified by the dynamic analysis of a slice, simpler slices are calculated. These works are implemented in sante, our tool that combines the test generation tool PathCrawler and the platform of static analysis Frama-C. Experiments have shown, firstly, that our combination is more effective than each technique used separately and, secondly, that the verification is faster after reducing the code with program slicing. Simplifying the program by program slicing also makes the detected errors and the remaining alarms easier to analyze
10

Approche psycholinguistique des relations entre le traitement sémantique des mots et la rétention à court terme chez l’individu sain et dans la démence de type Alzheimer

Macé, Anne-Laure 01 1900 (has links)
Depuis ces deux dernières décennies, des efforts considérables en psychologie cognitive et neuropsychologie ont été déployés pour mieux comprendre les dynamiques entre les différents systèmes cognitifs (fonctions exécutives, mémoire, langage, etc.). L’observation d’une co-existence entre des atteintes en rétention à court terme verbale (RCTv) et en langage dans plusieurs pathologies a conduit certains chercheurs à concevoir une alternative à la conceptualisation classique de la RCTv, telle que proposée par le modèle initial de la mémoire de travail de Baddeley (1986). Particulièrement, les travaux sur l’aphasie ont conduit à l’émergence d’une approche psycholinguistique de la RCTv, postulant que le traitement et le maintien des mots font appel à des processus communs. Cette approche, et particulièrement le modèle d’activation interactive (N. Martin & Gupta, 2004; N. Martin & Saffran, 1997), prédit que les capacités en RCTv sont notamment modulées par les caractéristiques linguistiques engagées durant l’épreuve, variant selon la nature des items verbaux et la modalité de rappel, ainsi que par les compétences linguistiques des individus. L’objectif de la présente thèse était de tester ces prédictions à partir d’une exploration des relations entre le traitement sémantique des mots et la RCTv chez l’adulte sain (article 1) et dans la démence de type Alzheimer (DTA) (article 2). Dans le premier article, deux expériences mettent en évidence l’influence des liens associatifs entre les mots sur les capacités à maintenir temporairement des informations verbales. Les participants ont tendance à faussement reconnaître des mots associés aux mots de la liste, reflet d’une activation du réseau sémantique durant la rétention temporaire. Cette contribution sémantique est accentuée en situation de suppression articulatoire, une condition qui empêche le participant de répéter les listes durant la tâche. Les résultats du second article indiquent que la modalité de réponse module différemment la performance en RCTv chez les participants âgés sans atteinte neurologique et ceux atteints de la DTA. Ces données en RCTv sont compatibles avec les atteintes spécifiques du traitement du mot, également trouvées chez le groupe avec DTA. Les implications théoriques et cliniques de ces résultats sont discutées. Les limites et perspectives futures sont également abordées. / For the past two decades, considerable efforts have been made in cognitive psychology and neuropsychology in order to improve our understanding of the interactions between different cognitive systems (executive functions, memory, language etc.). Evidence of short-term memory (STM) and language impairments in many clinical populations has lead some researchers to put forward an alternative to Baddeley’s working memory model (1986). Based on studies of aphasia, the psycholinguistic approach of STM postulated that word processing and maintenance refer to common processes. Specifically, the interactive activation model (N. Marin & Gupta, 2004; N. Martin & Saffran, 1997) predicts that STM capacities are in particular affected by the linguistic characteristics engaged during the test, and vary according to the nature of verbal items and recall modality, as well as word processing ability. The goal of this thesis was to test some of these predictions by investigating the relationship between semantic treatment and STM in healthy adults (article 1) and dementia of Alzheimer Type (DAT) (article 2). In the first article, two experiments underline the influence of the associative links between words on the capacity to temporarily retain verbal information. Participants tend to wrongly recognize words associated with words from the list, reflecting an activation of the semantic network during temporary retention. This semantic contribution increases in a situation of articulatory suppression, a condition that limits the possibility to repeat lists during the task. The results of the second article indicated that recall modality influences differently the performance in STM of the elderly participants and those with DAT. These data in STM are compatible with a specific word processing impairment, also found in the group with DAT. The theoretical and clinical implications of these results are discussed. Limits and future research perspectives are also presented.

Page generated in 0.0257 seconds