• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 65
  • 22
  • 1
  • 1
  • Tagged with
  • 223
  • 223
  • 119
  • 56
  • 37
  • 33
  • 20
  • 19
  • 19
  • 17
  • 17
  • 15
  • 14
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Étude comparative du deuil filial et de l'adaptation à long terme de jeunes adultes ayant perdu un parent par mort naturelle/accidentelle ou par suicide

Corbeil, Sylvie January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
42

Mise en place d'un réseau sans fil de capteurs déployés à Salluit

Bouchara, Syryn 21 December 2018 (has links)
Pour suivre les effets du changement climatique et aider à la compréhension et la capacité de prédiction, des capteurs ont été installés dans le nord du Québec. Salluit à Nunavik est parmi les villages où un ensemble de capteurs a été installé. Cependant, la collecte de ces données est manuellement effectuée une fois par an par des scientifiques. Étant donné l’importance de ces informations, le chantier 1.5 du projet Sentinelle Nord vise à mesurer, enregistrer, et envoyer les données en temps réel. Notre projet a d’abord pour but l’installation d’un réseau sans fil permettant aux capteurs de transmettre les données tout au long de l’année, pour anticiper les risques et dommages. La conception du projet a été lancée en 2016 et les premiers travaux ont eu lieu en été 2017. Après une collecte de données réussie pendant les premiers mois suivants l’installation, des problèmes de réseau LTE sont survenus. La connexion LTE n’étant point fiable, les capteurs n’ont été visibles de l’université qu’entre 5 et 9% du temps, avant une perte totale du signal LTE à partir du mois de janvier 2017. Les conditions environnementales et météorologiques de la région ont confirmé les défis rencontrés de tels systèmes de collecte de données sans fil. Dans ce mémoire, nous détaillons les étapes prises pour déployer un tel réseau de capteurs dans des conditions extrêmes et inconnues. Nous expliquons aussi les défis, les problèmes et les limitations rencontrés lors du projet et donnons des recommandations et améliorations pour le futur. / To monitor the effects of climate change and to help the understanding and predictability, sensors have been installed in northern Québec. Salluit in Nunavik is among the villages of which a set of sensors has been installed. However, the collection of this data is manually done once a year by scientists. Given the importance of this information, Sentinel North project site 1.5 aims to measure, record, and send data in real time. Our project is primarily aimed at installing a wireless network that allows sensors to transmit data throughout the year, to anticipate risks and damages. The project design was launched in 2016, and the first work took place in summer 2017. After a successful data collection during the first months after installation, LTE network problems have occurred. Since the LTE connection is not reliable, the sensors were only visible from the university between 5% and 9% of the time, before a total loss of the LTE signal starting in January 2017. Environmental and meteorological conditions of the region have confirmed the challenges faced by such a system of wireless data collection. In this thesis, we detail the steps taken to deploy such a sensor network under extreme and unknown conditions. We also explain the challenges, problems and limitations encountered during the project and give recommendations and improvement for the future.
43

Analyse de la parole continue en vue de la caractérisation des troubles de la voix: traitement du signal, indices acoustiques et évaluation perceptive

Kacha, Abdellah 13 October 2006 (has links)
L’analyse du signal de parole offre un moyen privilégié pour l’évaluation clinique de la qualité de la voix en vue d’un diagnostique et d’une documentation quantitative des pathologies du larynx. Une analyse acoustique présente plusieurs avantages. En plus du coût peu élevé du système d’évaluation, elle est simple à mettre en œuvre, présente un caractère non invasif et documente quantitativement le degré d’enrouement perçu par le clinicien. L’objectif de l’analyse du signal acoustique est d’extraire des indices pertinents permettant de déterminer les caractéristiques de la voix afin de renseigner sur l’état du larynx du locuteur. Dans ce contexte, plusieurs indices acoustiques sont utilisés pour caractériser la parole produite par des locuteurs dysphoniques. Un nombre de ces indices reflète la déviation du signal de parole voisée par rapport à la périodicité parfaite. Les causes de ces dyspériodicités sont diverses : vibrations non modales des cordes vocales, bruit de modulation comprenant les variations cycle à cycle de la durée de cycle (jitter) et de l’amplitude (shimmer) dues aux perturbations externes, bruit additif dû à une turbulence excessive, etc. Les indices acoustiques des dyspériodicités vocales sont souvent obtenus à partir de fragments stationnaires de voyelles soutenues. La raison en est que les voyelles sans attaques et déclins sont faciles à analyser parce que les hypothèses de cyclicité et de stationnarité utilisées par les méthodes d’analyse sont valables pour beaucoup de locuteurs. En effet, les voyelles soutenues peuvent être supposées avec une bonne précision comme produites en maintenant invariant dans le temps les caractéristiques de la source vocale, du conduit vocal et des articulateurs et, donc, les paramètres des perturbations et du bruit sont facilement calculés pour les voyelles soutenues. La plupart des cliniciens considèrent la parole continue plus informative que les voyelles soutenues. Plusieurs arguments en faveur de l’analyse de la parole continue peuvent être avancés. La vibration des cordes vocales doit commuter continuellement pour donner lieu à l’apparition ou l’extinction du voisement, le voisement doit être maintenu alors que l’impédance supra-glottique change constamment, plus particulièrement durant les obstruents, et le larynx doit descendre et monter continuellement. Le larynx fonctionne donc dans des conditions non stationnaires et très variables. La parole continue contient donc les caractéristiques dynamiques de la source de la voix et du conduit vocal tels que l’attaque et le déclin et les variations dans la fréquence fondamentale et l’amplitude. De même, il semble que les locuteurs compensent moins pour leurs problèmes de voix lors de la production de la parole continue que lorsqu’ils produisent des voyelles soutenues. Les méthodes de traitement du signal de parole pour la caractérisation des troubles de la voix sont basées sur les hypothèses de stationnarité et de périodicité locales qui conduisent à des approches heuristiques permettant de détecter et d’isoler les périodes fondamentales ou les harmoniques spectrales. Comme conséquence, des erreurs d’insertion ou d’omission se produisent souvent lors de l’analyse des signaux fortement perturbés. Ces erreurs biaisent numériquement les indices acoustiques. Les mesures objectives ne sont donc fiables que lorsque l’analyse est effectuée sur des voyelles soutenues produites par des locuteurs faiblement ou modérément enroués. La précision des méthodes d’analyse dans le cadre de l’estimation des dyspériodicités vocales est une caractéristique fondamentale. En effet, les perturbations cycle à cycle des durées de cycle peuvent être inférieures à 1 % alors que les perturbations cycle à cycle de l’amplitude peuvent être inférieures à 10 %. Donc, les méthodes de traitement doivent être appliquées avec précaution vis à vis de la précision de mesure pour ne pas biaiser les valeurs numériques. Le bruit de quantification par exemple peut affecter la précision d’estimation s’il n’est pas pris en considération. Cette thèse se focalise sur le développement de méthodes robustes d’analyse acoustiques du signal de parole continue en vue de la caractérisation des troubles de la voix, la définition et l’évaluation d’indices acoustiques pour quantifier les dyspériodicités vocales et le développement d’une méthode d’évaluation perceptive fiable permettant de mesurer et comparer les performances des différentes méthodes d’analyse développées. Les méthodes développées sont de deux types : des méthodes d’analyse par bloc qui opèrent sur des trames de courte durée du signal et des méthodes adaptatives qui permettent d’analyser le signal à chaque échantillon en tenant compte de son caractère non stationnaire. Deux indices acoustiques sont utilisés pour quantifier les dyspériodicités vocales dans le signal de parole. Le premier indice, utilisé conventionnellement dans le cadre de l’évaluation objective de la qualité de la voix, est le rapport signal à dyspériodicité global. La valeur numérique de l’indice global est principalement déterminée par les segments vocaliques et donc il peut masquer certains évènements locaux, notamment dans le cas de l’analyse de la parole continue. Le second indice proposé comme alternative à l’indice global est le rapport signal à dyspériodicité segmental. Il a pour objectif de donner une plus forte pondération aux segments bruités de faibles niveaux qui sont peu pondérés dans le calcul de l’indice global. La méthode d’évaluation perceptive développée est basée sur la comparaison de paires de signaux. Elle permet d’obtenir des résultats fiables même lorsque l’évaluation est réalisée par des auditeurs naïfs n’ayant pas d’expérience dans l’évaluation de la qualité de la voix et permet une grande concordance inter-juges et intra-juges. Les performances de la méthode d’évaluation perceptive basée sur la comparaison de paires de signaux sont comparées à celles de la méthode conventionnelle utilisée en milieu clinique. Les performances des différentes méthodes d’analyse et des indices acoustiques sont mesurées en les testant sur des corpus comprenant des voyelles soutenues et de la parole continue. Les stimuli sont produits par des locuteurs normophoniques et dysphoniques et comprennent une large gamme de pathologies.
44

Analyse communicationnelle des effets cognitifs d'un dispositif éducatif médiatisé : le cas de la médiatisation d'un cours 3D en images virtuelles immersif et interactif et ses impacts sur la mémoire explicite

Lombardo, Evelyne 05 December 2007 (has links) (PDF)
Notre posture épistémologique relève d'une approche « anthropo-socio-sémio-technique », c'est-à-dire que notre objectif est d'étudier les médiations technologiques et éducatives comme des dispositif techno-sémio-pragmatique{Paraya, 1999) dans le paradigme de la complexité (Morin, 1990). Partant de l'idée à la suite de Vygwsky (1985), Nonnan (1993), Lévy (1997) el Peraya (1999) selon laquelle les outils ou artefacts cognitifs participent à l'élaboration de notre pensée et peuvent agir sur notre cognition, nous avons posé comme premières hypothèses qu'un cours au même contenu sémantique, médiatisé de 4 façons différentes avaient des effets différents sur la mémorisation. Pour vérifier cette première hypothèse, nous avons mis En place 4 cours au contenu identique, mais médiatisés de manières différentes : 1) oral 2) Powerpoint sans prise de notes 3) Powerpoint avec prise de notes 4) cours en 3D en imagerie virtuelle immersif et interactif. Noire deuxième hypothèse, étant de savoir si le type de médiatisation changeait la communication, nous avons complété notre première étude par une analyse qualitative par l'attribution d'entretiens eompréhensits en essayant de voir comment nos 90 étudiants avaient vécu la situation communicationneile. Enfin, nous avons mis en place un tableau des différentes composantes des 4 formes de médiatisation (selon le modèle de Peraya). Nous nous situons dans le cadre des études pédagogiques médiatisées (Peraya, 2004) et dans le champ des outils éducatifs de communication (Moeglin, 2005).
45

Apport des modèles géo-métallurgiques et de la catégorisation des ressources à la définition de la fosse ultime d'une mine à ciel ouvert : Application à la mine de cuivre de Mantos de la Luna au Chili

Delgado Vega, José Manuel 20 December 2012 (has links) (PDF)
La nécessité de maximiser la récupération d'une ou plusieurs espèces utiles d'un gisement du cuivre, l'optimisation des consommations d'additifs dans le processus de traitement métallurgique, savoir où laisser les matériaux qui dans le futur pourraient être valorisés par une série de nouvelles opérations etc., conduit à adapter la planification minière aux caractéristiques géologiques et métallurgiques du gisement.Les unités géo-métallurgiques sont déterminées par une combinaison des principaux paramètres géologiques, type de roche, altération, minéralisation, etc. Chaque unité présente un comportement différent au processus de traitement métallurgiques avec des caractéristiques de récupération et de consommation d'acide bien spécifiques.D'une façon générale, on peut définir la planification de la mine comme un outil permettant de faire la liaison entre la géologie et la métallurgie, non seulement selon des paramètres économiques et de teneurs, mais aussi selon des paramètres géologiques et métallurgiques.Pour pouvoir construire le modèle géo-métallurgique ou géo-minier métallurgique (G.M.M) ainsi que mettre en oeuvre la catégorisation des ressources, nous avons utilisé des outils géostatistiquesLe fait de disposer d'un modèle G.M.M est d'une grande aide pour la définition de la fosse finale et la planification à long terme, soit simplement comme une première approche de la réponse du gisement au processus de traitement métallurgique, mais surtout pour optimiser les coûts et définir différentes alternatives pour maximiser la récupération du métal.Cette étude a été appliquée au cas du gisement stratiforme de Cu et Ag de Mantos de la Luna situé dans le Nord du Chili. Il comporte en particulier une comparaison entre l'approche traditionnelle et l'approche qui intègre le concept du modèle G.M.M. qui porte principalement sur les teneurs de coupure. Le concept G.M.M. peut donc influencer les décisions stratégiques comme les décisions opérationnelles.
46

Rôle de l'apprentissage moteur à long terme dans la récupération motrice chez les patients hémiparétiques

Cirstea, Carmen Mihaela January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
47

La couverture des introductions en bourse par les analystes financiers : une comparaison internationale / Financial analyts' coverage of IPOs : some international evidence

Boissin, Romain 10 January 2011 (has links)
Cette thèse s'intéresse au rôle des analystes financiers lors de la couverture des introductions en bourse dans un contexte international. Nous traitons de la valeur informationnelle des couvertures des analystes et de leur conséquence sur la performance à long terme des entreprises nouvellement introduites en bourse. Nous examinons si les recommandations des analystes financiers permettent de réduire le comportement irrationnel des investisseurs en situation de forte incertitude. Nous espérons qu'en réduisant les asymétries d'informations, les analystes financiers aident les investisseurs à mieux cibler la valeur de l'IPO. Cette thèse s'articule autour de deux parties : la première est consacrée au positionnement théorique et à nos hypothèses de recherche ; la seconde se focalise sur la vérification empirique d'un échantillon d'IPOs internationales (Etats-Unis, Angleterre, Allemagne et France) sur la période 1991 à 2005. Les résultats révèlent une sous performance des IPOs plus sévères pour les orphelines (sans couverture des analystes) que pour les non orphelines. Il apparaît que la couverture des analystes est importante pour les IPOs mais que le marché n'en perçoit pas toute la valeur. D'autres analyses soulignent que cette meilleure performance des non orphelines provient du nombre élevé de couvertures. Nous établissons que les recommandations des analystes sont significativement reliées à la performance à long terme des IPOs. Ainsi, nous vérifions le rôle crucial des analystes financiers dans la production et l'interprétation des informations. / This thesis explores the role of financial analysts' coverage on IPOs in an international context. We deal with the informational value of research coverage and the consequence on long run performance of newly public firms. We examine whether financial analyst recommendations allow alleviating the irrational investors' behaviour in the context of strong uncertainty. We expect that by reducing the information asymmetry, financial analyst recommendations help investors to define progressively the true value of the IPO. The thesis is organized in two main parts: the first part presents a survey of literature and define research hypothesis. The second part consists in an empirical validation of an international sample of IPOs (US, United Kingdom, Germany and France) over the 1991-2005 period. The results reveal that long run underperformance is much severe for orphans' IPOs (without financial recommendation) than non orphans' IPOs. The evidence suggests that analyst coverage is indeed important to issuing firm but the market do not fully incorporate the perceived value of this coverage. Further analysis reveals that this outperformance by non orphan stems from high coverage. We establish that analyst recommendations are significantly related to long run performance of IPOs. Hence, we corroborate the crucial role of financial analysts in producing and interpreting IPOs' financial releases.
48

Effets à long terme de l'atorvastatine à faible dose sur l'athérosclérose : une étude pluridisciplinaire chez un modèle animal, le lapin Watanabe / Long-term effect of atorvastatin at low-dose concentration on atherosclerosis : a multidisciplinary study on an animal model, the Watanabe rabbit

Tissier, Florine 03 December 2015 (has links)
Les maladies cardiovasculaires sont la première cause de mortalité dans le monde, en lien notamment avec la présence et la rupture de plaques d’athérome. Afin d’éviter la survenue d’évènements aigus, un traitement par statines peut être proposé. Cependant, leur utilisation engendre un risque d’effets délétères. Afin de réduire ce risque, une réduction des doses utilisées pourrait être envisagée. Ce travail de thèse étudie les effets potentiels d’un traitement à très faible dose d’atorvastatine et à long terme sur un modèle animal : le lapin Watanabe. Des mesures ont été menées sur des individus contrôles et traités de 3 à 12 mois. Le suivi de la lipidémie et des principaux facteurs biochimiques, de l’adhésion et de l’inflammation a été fait au niveau sanguin. Le développement de l’athérosclérose a été évalué en tomographie par cohérence optique (OCT). Des mesures en histologie ont permis de valider un classement proposé avec l’OCT et de quantifier les macrophages intra plaques. L’élasticité artérielle a été testée in vivo par la mesure de la vitesse de l’onde de pouls et in vitro par un test de traction statique. La fonction vasculaire a été appréhendée en vasoréactivité sur différents territoires (aorte, carotide, mésentérique). Le contenu en élastine et collagène de la paroi des vaisseaux a été effectué en microscopie à deux photons et génération de seconde harmonique. Enfin la respiration mitochondriale du myocarde et sa susceptibilité aux ROS a été évaluée sur fibres cardiaques perméabilisées, l’activité de systèmes antioxydants enzymatiques mesuré, ainsi que la peroxydation lipidique. Les résultats montrent des effets bénéfiques de ce traitement à très faible dose d’atorvastatine sur la fonction cardiovasculaire indépendamment d’un effet hypolipidémiant. / Cardiovascular diseases are the first worldwide causes of death, associated to the presence and rupture of atherosclerotic plaques. To limit acute events, statins may be prescribed. However, its use leads to deleterious effects risk. To reduce this risk, a dose reduction could be considered. The work of this thesis is to study potential effects of a very low dose of atorvastatin, taken in the long term, in an animal model: the Watanabe rabbit. Measurements are made on control and treated animals from the age of 3 to 12 months. Circulating lipids, biochemical parameters and parameters of adhesion and inflammation were studied. Atherosclerosis evolution was evaluated by optical coherence tomography (OCT). Histological measurements allowed to validate a ranking proposed with OCT observations and to quantify intra-plaque macrophage content. Arterial stiffness was tested in vivo with pulse wave velocity and in vitro with a static tensile test. Vascular function was approached with vasoreactivity in different territories (aorta, carotid, mesenteric). Elastin and collagen contents of the artery wall were determined with two-photon and second harmonic generation microscopy. Finally, mitochondrial respiration and its susceptibility to ROS were evaluated in permeabilized cardiac fibers, any enzymatic antioxidant systems and lipid peroxidation were measured. Results show beneficial effects of this very low dose atorvastatin treatment in cardiovascular function, independently of a lipid-lowering effect.Keywords: atherosclerosis,
49

Analysis of non-stationary (seasonal/cyclical) long memory processes / L'analyse de processus non-stationnaire long mémoire saisonnier et cyclique

Zhu, Beijia 20 May 2013 (has links)
La mémoire longue, aussi appelée la dépendance à long terme (LRD), est couramment détectée dans l’analyse de séries chronologiques dans de nombreux domaines, par exemple,en finance, en économétrie, en hydrologie, etc. Donc l’étude des séries temporelles à mémoire longue est d’une grande valeur. L’introduction du processus ARFIMA (fractionally autoregressive integrated moving average) établit une relation entre l’intégration fractionnaire et la mémoire longue, et ce modèle a trouvé son pouvoir de prévision à long terme, d’où il est devenu l’un des modèles à mémoire longue plus populaires dans la littérature statistique. Précisément, un processus à longue mémoire ARFIMA (p, d, q) est défini comme suit : Φ(B)(I − B)d (Xt − µ) = Θ(B)εt, t ∈ Z, où Φ(z) = 1 − ϕ1z − · · · − ϕpzp et Θ(z) = 1 + · · · + θ1zθpzq sont des polynômes d’ordre p et q, respectivement, avec des racines en dehors du cercle unité; εt est un bruit blanc Gaussien avec une variance constante σ2ε. Lorsque d ∈ (−1/2,1/2), {Xt} est stationnaire et inversible. Cependant, l’hypothèse a priori de la stationnarité des données réelles n’est pas raisonnable. Par conséquent, de nombreux auteurs ont fait leurs efforts pour proposer des estimateurs applicables au cas non-stationnaire. Ensuite, quelques questions se lèvent : quel estimateurs doit être choisi pour applications, et à quoi on doit faire attention lors de l’utilisation de ces estimateurs. Donc à l’aide de la simulation de Monte Carlo à échantillon fini, nous effectuons une comparaison complète des estimateurs semi-paramétriques, y compris les estimateurs de Fourier et les estimateurs d’ondelettes, dans le cadre des séries non-stationnaires. À la suite de cette étude comparative, nous avons que (i) sans bonnes échelles taillées, les estimateurs d’ondelettes sont fortement biaisés et ils ont généralement une performance inférieure à ceux de Fourier; (ii) tous les estimateurs étudiés sont robustes à la présence d’une tendance linéaire en temps dans le niveau de {Xt} et des effets GARCH dans la variance de {Xt}; (iii) dans une situation où le probabilité de transition est bas, la consistance des estimateurs quand même tient aux changements de régime dans le niveau de {Xt}, mais les changements ont une contamination au résultat d’estimation; encore, l’estimateur d’ondelettes de log-regression fonctionne mal dans ce cas; et (iv) en général, l’estimateur complètement étendu de Whittle avec un polynôme locale (fully-extended local polynomial Whittle Fourier estimator) est préféré pour une utilisation pratique, et cet estimateur nécessite une bande (i.e. un nombre de fréquences utilisés dans l’estimation) plus grande que les autres estimateurs de Fourier considérés dans ces travaux. / Long memory, also called long range dependence (LRD), is commonly detected in the analysis of real-life time series data in many areas; for example, in finance, in econometrics, in hydrology, etc. Therefore the study of long-memory time series is of great value. The introduction of ARFIMA (fractionally autoregressive integrated moving average) process established a relationship between the fractional integration and long memory, and this model has found its power in long-term forecasting, hence it has become one of the most popular long-memory models in the statistical literature. Specifically, an ARFIMA(p,d,q) process X, is defined as follows: cD(B)(I - B)d X, = 8(B)c, , where cD(z)=l-~lz-•••-~pzP and 8(z)=1-B1z- .. •-Bqzq are polynomials of order $p$ and $q$, respectively, with roots outside the unit circle; and c, is Gaussian white noise with a constant variance a2 . When c" X, is stationary and invertible. However, the a priori assumption on stationarity of real-life data is not reasonable. Therefore many statisticians have made their efforts to propose estimators applicable to the non-stationary case. Then questions arise that which estimator should be chosen for applications; and what we should pay attention to when using these estimators. Therefore we make a comprehensive finite sample comparison of semi-parametric Fourier and wavelet estimators under the non-stationary ARFIMA setting. ln light of this comparison study, we have that (i) without proper scale trimming the wavelet estimators are heavily biased and the y generally have an inferior performance to the Fourier ones; (ii) ail the estimators under investigation are robust to the presence of a linear time trend in levels of XI and the GARCH effects in variance of XI; (iii) the consistency of the estimators still holds in the presence of regime switches in levels of XI , however, it tangibly contaminates the estimation results. Moreover, the log-regression wavelet estimator works badly in this situation with small and medium sample sizes; and (iv) fully-extended local polynomial Whittle Fourier (fextLPWF) estimator is preferred for a practical utilization, and the fextLPWF estimator requires a wider bandwidth than the other Fourier estimators.
50

Les stratégies de résolution d'opérations arithmétiques simples : un nouveau paradigme / Strategies for solving simple arithmetic operations : a new paradigm

Fanget, Muriel 29 September 2010 (has links)
De nombreuses recherches montrent que les adultes résolvent de simples problèmes arithmétiques plus ou moins exclusivement par récupération de la réponse dans un réseau d’associations stockées en mémoire à long terme (Ashcraft, 1992 ; 1995 ; Campbell, 1995). Il est admis que les performances arithmétiques des jeunes enfants sont basées sur le comptage ou d’autres stratégies procédurales qui sont peu à peu remplacées par la récupération directe en mémoire (Barrouillet & Fayol, 1998). Ces premiers résultats ont été rapportés par Groen et Parkman (1972) en étudiant les temps de résolution. Mais moyenner des temps de latence d’essais impliquant différentes procédures peut conduire à des conclusions erronées sur la façon dont les problèmes sont résolus. D’autres auteurs ont préféré la méthode des protocoles verbaux. Cependant Kirk et Ashcraft (2001) remettent en question ce protocole. Nous proposons un nouveau paradigme pour faire la lumière sur la façon dont des problèmes additifs, soustractifs et multiplicatifs sont résolus par les adultes et les enfants. Ce paradigme tire avantage du fait que les procédures de calcul dégradent les traces en mémoire des opérandes impliquées dans les calculs (Thevenot, Barrouillet & Fayol, 2001). Le temps nécessaire à l’algorithme pour parvenir à la réponse et son coût cognitif entraînent une réduction du niveau d’activation des opérandes. Cette baisse d’activation résulte d’un phénomène de déclin mémoriel qui entraîne une détérioration des traces en mémoire (Towse & Hitch, 1995 ; Towse, Hitch & Hutton, 1998) et de l’activation concurrente de résultats transitoires provoquant un partage attentionnel entre les opérandes, leurs composantes et les résultats intermédiaires nécessaires pour arriver à la solution (Anderson, 1993). Par conséquent, lorsque l’algorithme aboutit à la réponse les traces des opérandes sont dégradées et la récupération en mémoire est difficile. Ce phénomène devrait être plus prononcé pour les grands nombres car parvenir au résultat nécessite plus d’étapes et plus de temps. En contrastant la difficulté rencontrée par des adultes pour reconnaître des opérandes après leur implication soit dans une opération arithmétique (addition, soustraction ou multiplication) soit dans une comparaison (qui ne nécessite aucune décomposition) avec un troisième nombre, nous pourrons déterminer si l’opération a été résolue par procédure algorithmique. Si la difficulté est la même dans les deux conditions, l’opération aura été résolue par récupération, une telle activité ne nécessite pas la décomposition des opérandes / Numerous studies show that adults solve simple arithmetic problems more or less exclusively by retrieval the response in a network of associations stored in long-term memory (Ashcraft, 1992, 1995 and Campbell, 1995). It is recognized that the arithmetic performance of young children are based on counting or other procedural strategies that are gradually replaced by direct memory retrieval (Barrouillet & Fayol, 1998). These first results were reported by Groen and Parkman (1972) by studying the resolution time. But average latency of trials involving different procedures can lead to erroneous conclusions about how problems are solved. Other authors have preferred the method of verbal reports. But Kirk and Ashcraft (2001) question this paradigm. We propose a new paradigm to shed light on how the addition problems, subtraction and multiplication are resolved by adults and children. This paradigm takes advantage of the fact that algorithmic computation degrades the memory traces of the operands involved in the calculation (Thevenot, Barrouillet, & Fayol, 2001). The time needed by the algorithm to reach the answer and its cognitive cost lead to a reduction in the level of activation of the operands. This decrease in activation would result both from a memory decay phenomenon, which damages memory traces (Towse & Hitch, 1995; Towse, Hitch & Hutton, 1998) and from the necessary concurrent activation of transitory results, which induces a sharing of the attentional resources between the operands, their components and the intermediate results necessary to be reached to solve the problem (Anderson, 1993). Therefore, when the algorithm leads to the response, traces of the operands are degraded and retrieval the operand in memory is more difficult. This phenomenon should be more pronounced for large numbers since arriving at the result requires more steps and more time. Thus, contrasting the relative difficulty that adults or children encounter in recognizing operands after either their involvement in an arithmetic problem or their simple comparison with a third number can allow us to determine if the arithmetic problem has been solved by an algorithmic procedure or by retrieval of the result from memory: If operands are more difficult to recognize after the operation than after their comparison, we can assume that an algorithmic procedure has been used. On the contrary, if the difficulty is the same in both conditions, then the operation has most probably been solved by retrieval, a fast activity that does not imply the decomposition of the operands

Page generated in 0.0632 seconds