• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 251
  • 123
  • 30
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 410
  • 224
  • 218
  • 94
  • 77
  • 74
  • 70
  • 65
  • 53
  • 31
  • 29
  • 27
  • 26
  • 26
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

La couverture des introductions en bourse par les analystes financiers : une comparaison internationale / Financial analyts' coverage of IPOs : some international evidence

Boissin, Romain 10 January 2011 (has links)
Cette thèse s'intéresse au rôle des analystes financiers lors de la couverture des introductions en bourse dans un contexte international. Nous traitons de la valeur informationnelle des couvertures des analystes et de leur conséquence sur la performance à long terme des entreprises nouvellement introduites en bourse. Nous examinons si les recommandations des analystes financiers permettent de réduire le comportement irrationnel des investisseurs en situation de forte incertitude. Nous espérons qu'en réduisant les asymétries d'informations, les analystes financiers aident les investisseurs à mieux cibler la valeur de l'IPO. Cette thèse s'articule autour de deux parties : la première est consacrée au positionnement théorique et à nos hypothèses de recherche ; la seconde se focalise sur la vérification empirique d'un échantillon d'IPOs internationales (Etats-Unis, Angleterre, Allemagne et France) sur la période 1991 à 2005. Les résultats révèlent une sous performance des IPOs plus sévères pour les orphelines (sans couverture des analystes) que pour les non orphelines. Il apparaît que la couverture des analystes est importante pour les IPOs mais que le marché n'en perçoit pas toute la valeur. D'autres analyses soulignent que cette meilleure performance des non orphelines provient du nombre élevé de couvertures. Nous établissons que les recommandations des analystes sont significativement reliées à la performance à long terme des IPOs. Ainsi, nous vérifions le rôle crucial des analystes financiers dans la production et l'interprétation des informations. / This thesis explores the role of financial analysts' coverage on IPOs in an international context. We deal with the informational value of research coverage and the consequence on long run performance of newly public firms. We examine whether financial analyst recommendations allow alleviating the irrational investors' behaviour in the context of strong uncertainty. We expect that by reducing the information asymmetry, financial analyst recommendations help investors to define progressively the true value of the IPO. The thesis is organized in two main parts: the first part presents a survey of literature and define research hypothesis. The second part consists in an empirical validation of an international sample of IPOs (US, United Kingdom, Germany and France) over the 1991-2005 period. The results reveal that long run underperformance is much severe for orphans' IPOs (without financial recommendation) than non orphans' IPOs. The evidence suggests that analyst coverage is indeed important to issuing firm but the market do not fully incorporate the perceived value of this coverage. Further analysis reveals that this outperformance by non orphan stems from high coverage. We establish that analyst recommendations are significantly related to long run performance of IPOs. Hence, we corroborate the crucial role of financial analysts in producing and interpreting IPOs' financial releases.
92

Évaluation du prix et de la variance de produits dérivés de taux d'intérêt dans un modèle de Vasiček

Ramdenee, Vinal Shamal January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
93

Caractéristiques statistiques et dynamique de prix des produits dérivés immobiliers / Property derivative price dynamic and statistical features

Drouhin, Pierre-Arnaud 16 November 2012 (has links)
Si l’immobilier est de loin la plus importante classe d’actifs de notre économie, elle est également l’une des dernières à ne pas disposer d’un marché de dérivés mature. Des études académiques récentes ont montré que le manque de compréhension de leurs prix en est la principale raison. Ce travail doctoral cherche à y remédier. Par la conduite d’études à la fois théoriques et empiriques, nous sommes parvenus à déterminer leurs caractéristiques statistiques, leurs facteurs de risque mais aussi à appréhender l’intérêt de ces produits en terme de fonction de découverte des prix. Si les dérivés immobiliers constituent un outil de paramétrisation du risque immobilier essentiel, ils offrent également la possibilité aux investisseurs comme aux pouvoirs publics de disposer d’informations qui ne seraient pas disponibles autrement / Despite the fact that real estate is the largest asset class in our economy, it is one of the few that do not have a mature derivatives market. Recent academic studies have shown that the lack of understanding of real estate derivatives’ prices is the main reason for the absence of a market. This dissertation aims to change this. By conducting theoretical and empirical studies we describe their statistical characteristics, their risk factors, and we highlight their importance in terms of price discovery function. Property derivatives are an essential tool for risk management, but they also offer for investors and regulators a source of information that would otherwise not be available
94

Simulations expérimentale et numérique des effets retardés d'une explosion en milieu clos et en présence de produits liquides

Munier, Laurent 12 October 2011 (has links)
Peut-on modéliser de manière fiable les effets collatéraux (en termes de quantité ou concentration de produits éjectés) et les conséquences d’une explosion en milieu clos, et en présence de produits chimiques liquides ? Pour répondre à cette vaste question, qui soulève spontanément de nombreux sous-problèmes, les travaux de thèse se sont déroulés en trois temps : 1/une étude qualitative et semi-quantitative du scénario général, afin de comprendre le déroulement chronologique des évènements, et d’émettre les hypothèses nécessaires à une modélisation, 2 /L’étude systématique des effets d’une explosion en milieu clos, en présence ou non de produits liquides. Avant de modéliser la dégradation du produit liquide soumis à une température et à une pression élevées, les expérimentations préliminaires ont en effet fait apparaître la nécessité de quantifier dans le temps et dans l’espace, les effets thermiques et mécaniques d’une explosion à volume constant, 3/L’élaboration de modèles 0D(t) à partir des conclusions précédentes afin, d’une part, d’estimer la durée de vie d’une phase liquide dans un environnement thermodynamique contraint et, d’autre part, de démontrer la possibilité de modéliser le problème global de manière réduite. En effet, le terme source d’un tel évènement ne peut être modélisé par une libération ponctuelle de produit : il s’agit d’une libération étendue dans le temps, par le biais d’un écoulement chaud a priori diphasique et de débit variable. Les couplages des phénomènes, observés expérimentalement, rendent nécessaires : 1 - Une modélisation instationnaire de l’évolution de la pression et une estimation du niveau de température atteint dans le volume d’étude, après détonation d’une charge explosive, 2 - Une modélisation de la libération de la phase liquide dans l’enceinte, sous forme de gouttes millimétriques ou de gouttelettes microniques 3 - Une modélisation instationnaire des transferts couplés de masse et d’énergie entre la phase liquide et la phase gazeuse en présence et prise en compte d’éventuelles réactions chimiques à haute pression et haute température 4 - Et enfin, une modélisation instationnaire des rejets à la brèche. L’étude d’une explosion à volume constant a montré qu’il est possible de modéliser de manière simple la montée continue en pression de l’enceinte par une fonction exponentielle croissante. Pour une configuration de référence donnée – explosion d’une sphère d’explosif dans un parallélépipède – la valeur maximale de pression est directement proportionnelle au taux de chargement en explosif, sur l’intervalle [0,01 – 0,6] kg/m3. Le passage à une géométrie différente ou plus complexe demande l’introduction d’un coefficient correctif pour traduire l’amplification (ou l’atténuation) de la combustion turbulente des produits de détonation avec l’air ambiant. En ce qui concerne le champ de température par contre, notre analyse a montré qu’il coexiste des zones chaudes et des zones dites « froides » et que la valeur de température homogène finale calculée à partir d’un code thermochimique ne peut constituer qu’une simple indication. Seule une estimation du volume respectif de ces zones a été proposée ici. Nous avons établi que les propriétés physico-chimiques des produits stockés sont un point clef du problème et on suppose ces données connues pour une gamme de produits chimiques liquides à pression ambiante, communément utilisés dans l’industrie. Seul le phénomène d’évaporation a été développé dans ce mémoire. L’introduction de réactions chimiques entre constituants se traduirait dans les modèles par des termes sources supplémentaires liés à l’apparition ou la disparition d’espèces. / Is it possible to model collateral effects due to an explosion (on a chemical facility for instance) occuring in a closed volume containing liquid chemical products storage units ?This thesis deals with a zerodimensionnal modelisation of such a 3D complex problem to asses the final thermodynamic state of chemical products released in the atmosphere. Developped sub-models take into account:- the unsteady time histories of the internal overpressure and temperature,- the unsteady liquid ejection (droplets sizes)- the unsteady modelisation of the local heat and mass transfers between the gas phase and the liquid phase- the unsteady ejection process of the resulting multiphase mixture in the environment.Models and sub-models are validated thanks to many experimental results.
95

Dynamique spatiotemporelle de la production de mots / Spatiotemporal dynamics of words production

Llorens, Anaïs 06 June 2014 (has links)
La production de mots intéresse un vaste réseau cérébral principalement localisé dans l'hémisphère gauche, synthétisé dans une revue de littérature traitant des études de production de mots en enregistrements intracérébraux. Nous nous sommes principalement focalisés sur l'implication du réseau cérébral lors de l'accès lexical en utilisant deux protocoles de dénomination d'images manipulant l'interférence sémantique, connue pour moduler les liens entre les étapes sémantiques et lexicales. Nous avons comparé la dynamique spatiotemporelle de ces protocoles utilisés de façon interchangeable dans la littérature, mais qui diffèrent dans l'implication de paramètres méthodologiques pouvant faire intervenir des mécanismes mnésiques tels que la familiarisation et la répétition. Notre hypothèse étant que ces paramètres étant si divergents, le réseau neuronal sous-jacent devrait au moins être modulé selon le protocole étudié. Notre étude EEG révèle deux patterns d'activité électrophysiologique distincts entre les protocoles attribuables à l'effet de familiarisation. Nous avons étudié l'implication de la structure hippocampique dans la production de mot via des enregistrements intracérébraux. Les analyses en temps-fréquence et en champs locaux montrent que l'hippocampe est impliqué dans l'apprentissage progressif des liens sémantico-lexicaux, mais aussi dans leur maintien en mémoire durant une courte période et dans leur récupération. Ce travail de thèse a permis de révéler que la dynamique spatiotemporelle de la dénomination d'images est modulée par différents facteurs, ce qui va à l'encontre de l'implication d'un réseau partagé par ces deux protocoles de dénomination d'images. / Words production involves a vast brain network mainly localized in the left hemisphere, summarized in a review of literature based on studies of word production in intracranial recordings.We focused principally on the involvement of the cerebral network during lexical access by using two picture naming protocols manipulating the semantic interference effect, known to modulate the links between semantic and lexical processes. We compare the spatiotemporal dynamics of these protocols interchangeably used in the literature, but which differ in the involvement of methodological parameters that may involve mnemonic mechanisms such as familiarity and repetition. Our hypothesis was that these parameters are so divergent that the underlying neural network should at least be modulated by the protocol investigated. Our EEG study reveals two distinct patterns of electrophysiological activity between the protocols due to the familiarization effect. We studied the involvement of the hippocampal structure in the production of word through intracranial recordings. The time-frequency and the local field analyses show that the hippocampus is involved in the progressive learning links between semantic and lexicon, but also in keeping them in memory for a short period and in their recovery. This work revealed that the spatiotemporal dynamics of picture naming is modulated by various factors, which goes against the involvement of a common network shared by these two picture naming protocols.
96

Traffic state estimation and prediction in freeways and urban networks / Estimation et prédiction de l'état du trafic dans les autoroutes et les réseaux urbains

Ladino lopez, Andrés 08 March 2018 (has links)
La centralisations du travail, la croissance économique et celle de la population autant que l’urbanisation continue sont les causes principales de la congestion. Lors que les villes s’efforcent pour mettre à jour leurs infrastructures du trafic, l’utilisation de nouvelles techniques pour la modélisation, l’analyse de ces systèmes ainsi que l’intégration des mega données aux algorithmes aident à mieux comprendre et combattre les congestions, un aspect crucial pour le bon développement de nos villes intelligentes du XXIe siècle. Les outilsd’assistance de trafic spécialement conçus pour détecter, prévoir et alerter des conditions particulières sont très demandés dans nos jours.Cette recherche est consacrée au développement des algorithmes pour l’estimation et la prédiction sur des réseaux de trafic routier. Tout d’abord, nous considérons le problème de prévision à court terme du temps de trajet dynamique basé sur des méthodes pilotées par les données. Nous proposons deux techniques de fusion pour calculer les prévisions à court terme. Dans un première temps, nous considérons la matrice de covariance d’erreur et nous utilisons ses informations pour fusionner les prévisions individuelles créées á partir de clusters. Dans un deuxième temps, nous exploitons les mesures de similarité parmi le signal á prédire et des clusters dans l’histoire et on propose une fusion en tant que moyenne pondérée des sorties des prédicteurs de chaque cluster. Les résultats des deux méthodes on été validés dans le Grenoble Traffic Lab, un outil en temps réel qui permet la récupération de données d’une autoroute d’environ (10.5Km) qui couvre le sud de Grenoble.Postérieurement nous considérons le problème de reconstruction de la densité / et le débit de façon simultanée à partir de sources d’information hétérogènes. Le réseau de trafic est modélisé dans le cadre de modèles de trafic macroscopique, où nous adoptons l’équation de conservation Lighthill-Whitham-Richards avec un diagramme fondamental linaire par morceaux. Le problème d’estimation repose sur deux principes clés. Dans un premier temps, nous considérons la minimisation des erreurs entre les débits et les densités mesurés et reconstruits. Finalement, nous considérons l’état d’équilibre du réseau qui établit la loi de propagation des flux entrants et sortants dans le réseau. Tous les principes sont intégrés et le problème est présenté comme une optimisation quadratique avec des contraintes d’égalité a fin de réduire l’espace de solution des variables à estimer. Des scénarios de simulation basés sur des données synthétiques pour un réseau de manhattan sont fournis avec l’objectif de valider les performances de l’algorithme proposé. / Centralization of work, population and economic growth alongside continued urbanization are the main causes of congestion. As cities strive to update or expand aging infrastructure, the application of big data, new models and analytics to better understand and help to combat traffic congestion is crucial to the health and development of our smart cities of XXI century. Traffic support tools specifically designed to detect, forecast and alert these conditions are highly requested nowadays.This dissertation is dedicated to study techniques that may help to estimate and forecast conditions about a traffic network. First, we consider the problem Dynamic Travel Time (DTT) short-term forecast based on data driven methods. We propose two fusion techniques to compute short-term forecasts from clustered time series. The first technique considers the error covariance matrix and uses its information to fuse individual forecasts based on best linear unbiased estimation principles. The second technique exploits similarity measurements between the signal to be predicted and clusters detected in historical data and it performs afusion as a weighted average of individual forecasts. Tests over real data were implemented in the study case of the Grenoble South Ring, it comprises a highway of 10.5Km monitored through the Grenoble Traffic Lab (GTL) a real time application was implemented and open to the public.Based on the previous study we consider then the problem of simultaneous density/flow reconstruction in urban networks based on heterogeneous sources of information. The traffic network is modeled within the framework of macroscopic traffic models, where we adopt Lighthill-Whitham-Richards (LWR) conservation equation and a piecewise linear fundamental diagram. The estimation problem considers two key principles. First, the error minimization between the measured and reconstructed flows and densities, and second the equilibrium state of the network which establishes flow propagation within the network. Both principles are integrated together with the traffic model constraints established by the supply/demand paradigm. Finally the problem is casted as a constrained quadratic optimization with equality constraints in order to shrink the feasible region of estimated variables. Some simulation scenarios based on synthetic data for a manhattan grid network are provided in order to validate the performance of the proposed algorithm.
97

Effets à long terme de l'atorvastatine à faible dose sur l'athérosclérose : une étude pluridisciplinaire chez un modèle animal, le lapin Watanabe / Long-term effect of atorvastatin at low-dose concentration on atherosclerosis : a multidisciplinary study on an animal model, the Watanabe rabbit

Tissier, Florine 03 December 2015 (has links)
Les maladies cardiovasculaires sont la première cause de mortalité dans le monde, en lien notamment avec la présence et la rupture de plaques d’athérome. Afin d’éviter la survenue d’évènements aigus, un traitement par statines peut être proposé. Cependant, leur utilisation engendre un risque d’effets délétères. Afin de réduire ce risque, une réduction des doses utilisées pourrait être envisagée. Ce travail de thèse étudie les effets potentiels d’un traitement à très faible dose d’atorvastatine et à long terme sur un modèle animal : le lapin Watanabe. Des mesures ont été menées sur des individus contrôles et traités de 3 à 12 mois. Le suivi de la lipidémie et des principaux facteurs biochimiques, de l’adhésion et de l’inflammation a été fait au niveau sanguin. Le développement de l’athérosclérose a été évalué en tomographie par cohérence optique (OCT). Des mesures en histologie ont permis de valider un classement proposé avec l’OCT et de quantifier les macrophages intra plaques. L’élasticité artérielle a été testée in vivo par la mesure de la vitesse de l’onde de pouls et in vitro par un test de traction statique. La fonction vasculaire a été appréhendée en vasoréactivité sur différents territoires (aorte, carotide, mésentérique). Le contenu en élastine et collagène de la paroi des vaisseaux a été effectué en microscopie à deux photons et génération de seconde harmonique. Enfin la respiration mitochondriale du myocarde et sa susceptibilité aux ROS a été évaluée sur fibres cardiaques perméabilisées, l’activité de systèmes antioxydants enzymatiques mesuré, ainsi que la peroxydation lipidique. Les résultats montrent des effets bénéfiques de ce traitement à très faible dose d’atorvastatine sur la fonction cardiovasculaire indépendamment d’un effet hypolipidémiant. / Cardiovascular diseases are the first worldwide causes of death, associated to the presence and rupture of atherosclerotic plaques. To limit acute events, statins may be prescribed. However, its use leads to deleterious effects risk. To reduce this risk, a dose reduction could be considered. The work of this thesis is to study potential effects of a very low dose of atorvastatin, taken in the long term, in an animal model: the Watanabe rabbit. Measurements are made on control and treated animals from the age of 3 to 12 months. Circulating lipids, biochemical parameters and parameters of adhesion and inflammation were studied. Atherosclerosis evolution was evaluated by optical coherence tomography (OCT). Histological measurements allowed to validate a ranking proposed with OCT observations and to quantify intra-plaque macrophage content. Arterial stiffness was tested in vivo with pulse wave velocity and in vitro with a static tensile test. Vascular function was approached with vasoreactivity in different territories (aorta, carotid, mesenteric). Elastin and collagen contents of the artery wall were determined with two-photon and second harmonic generation microscopy. Finally, mitochondrial respiration and its susceptibility to ROS were evaluated in permeabilized cardiac fibers, any enzymatic antioxidant systems and lipid peroxidation were measured. Results show beneficial effects of this very low dose atorvastatin treatment in cardiovascular function, independently of a lipid-lowering effect.Keywords: atherosclerosis,
98

Analysis of non-stationary (seasonal/cyclical) long memory processes / L'analyse de processus non-stationnaire long mémoire saisonnier et cyclique

Zhu, Beijia 20 May 2013 (has links)
La mémoire longue, aussi appelée la dépendance à long terme (LRD), est couramment détectée dans l’analyse de séries chronologiques dans de nombreux domaines, par exemple,en finance, en économétrie, en hydrologie, etc. Donc l’étude des séries temporelles à mémoire longue est d’une grande valeur. L’introduction du processus ARFIMA (fractionally autoregressive integrated moving average) établit une relation entre l’intégration fractionnaire et la mémoire longue, et ce modèle a trouvé son pouvoir de prévision à long terme, d’où il est devenu l’un des modèles à mémoire longue plus populaires dans la littérature statistique. Précisément, un processus à longue mémoire ARFIMA (p, d, q) est défini comme suit : Φ(B)(I − B)d (Xt − µ) = Θ(B)εt, t ∈ Z, où Φ(z) = 1 − ϕ1z − · · · − ϕpzp et Θ(z) = 1 + · · · + θ1zθpzq sont des polynômes d’ordre p et q, respectivement, avec des racines en dehors du cercle unité; εt est un bruit blanc Gaussien avec une variance constante σ2ε. Lorsque d ∈ (−1/2,1/2), {Xt} est stationnaire et inversible. Cependant, l’hypothèse a priori de la stationnarité des données réelles n’est pas raisonnable. Par conséquent, de nombreux auteurs ont fait leurs efforts pour proposer des estimateurs applicables au cas non-stationnaire. Ensuite, quelques questions se lèvent : quel estimateurs doit être choisi pour applications, et à quoi on doit faire attention lors de l’utilisation de ces estimateurs. Donc à l’aide de la simulation de Monte Carlo à échantillon fini, nous effectuons une comparaison complète des estimateurs semi-paramétriques, y compris les estimateurs de Fourier et les estimateurs d’ondelettes, dans le cadre des séries non-stationnaires. À la suite de cette étude comparative, nous avons que (i) sans bonnes échelles taillées, les estimateurs d’ondelettes sont fortement biaisés et ils ont généralement une performance inférieure à ceux de Fourier; (ii) tous les estimateurs étudiés sont robustes à la présence d’une tendance linéaire en temps dans le niveau de {Xt} et des effets GARCH dans la variance de {Xt}; (iii) dans une situation où le probabilité de transition est bas, la consistance des estimateurs quand même tient aux changements de régime dans le niveau de {Xt}, mais les changements ont une contamination au résultat d’estimation; encore, l’estimateur d’ondelettes de log-regression fonctionne mal dans ce cas; et (iv) en général, l’estimateur complètement étendu de Whittle avec un polynôme locale (fully-extended local polynomial Whittle Fourier estimator) est préféré pour une utilisation pratique, et cet estimateur nécessite une bande (i.e. un nombre de fréquences utilisés dans l’estimation) plus grande que les autres estimateurs de Fourier considérés dans ces travaux. / Long memory, also called long range dependence (LRD), is commonly detected in the analysis of real-life time series data in many areas; for example, in finance, in econometrics, in hydrology, etc. Therefore the study of long-memory time series is of great value. The introduction of ARFIMA (fractionally autoregressive integrated moving average) process established a relationship between the fractional integration and long memory, and this model has found its power in long-term forecasting, hence it has become one of the most popular long-memory models in the statistical literature. Specifically, an ARFIMA(p,d,q) process X, is defined as follows: cD(B)(I - B)d X, = 8(B)c, , where cD(z)=l-~lz-•••-~pzP and 8(z)=1-B1z- .. •-Bqzq are polynomials of order $p$ and $q$, respectively, with roots outside the unit circle; and c, is Gaussian white noise with a constant variance a2 . When c" X, is stationary and invertible. However, the a priori assumption on stationarity of real-life data is not reasonable. Therefore many statisticians have made their efforts to propose estimators applicable to the non-stationary case. Then questions arise that which estimator should be chosen for applications; and what we should pay attention to when using these estimators. Therefore we make a comprehensive finite sample comparison of semi-parametric Fourier and wavelet estimators under the non-stationary ARFIMA setting. ln light of this comparison study, we have that (i) without proper scale trimming the wavelet estimators are heavily biased and the y generally have an inferior performance to the Fourier ones; (ii) ail the estimators under investigation are robust to the presence of a linear time trend in levels of XI and the GARCH effects in variance of XI; (iii) the consistency of the estimators still holds in the presence of regime switches in levels of XI , however, it tangibly contaminates the estimation results. Moreover, the log-regression wavelet estimator works badly in this situation with small and medium sample sizes; and (iv) fully-extended local polynomial Whittle Fourier (fextLPWF) estimator is preferred for a practical utilization, and the fextLPWF estimator requires a wider bandwidth than the other Fourier estimators.
99

Short-term memory of temporal aspects of noxious and innocuous thermal sensation : psychophysical and fMRI studies

Khoshnejad, Mina 09 1900 (has links)
No description available.
100

Les stratégies de résolution d'opérations arithmétiques simples : un nouveau paradigme / Strategies for solving simple arithmetic operations : a new paradigm

Fanget, Muriel 29 September 2010 (has links)
De nombreuses recherches montrent que les adultes résolvent de simples problèmes arithmétiques plus ou moins exclusivement par récupération de la réponse dans un réseau d’associations stockées en mémoire à long terme (Ashcraft, 1992 ; 1995 ; Campbell, 1995). Il est admis que les performances arithmétiques des jeunes enfants sont basées sur le comptage ou d’autres stratégies procédurales qui sont peu à peu remplacées par la récupération directe en mémoire (Barrouillet & Fayol, 1998). Ces premiers résultats ont été rapportés par Groen et Parkman (1972) en étudiant les temps de résolution. Mais moyenner des temps de latence d’essais impliquant différentes procédures peut conduire à des conclusions erronées sur la façon dont les problèmes sont résolus. D’autres auteurs ont préféré la méthode des protocoles verbaux. Cependant Kirk et Ashcraft (2001) remettent en question ce protocole. Nous proposons un nouveau paradigme pour faire la lumière sur la façon dont des problèmes additifs, soustractifs et multiplicatifs sont résolus par les adultes et les enfants. Ce paradigme tire avantage du fait que les procédures de calcul dégradent les traces en mémoire des opérandes impliquées dans les calculs (Thevenot, Barrouillet & Fayol, 2001). Le temps nécessaire à l’algorithme pour parvenir à la réponse et son coût cognitif entraînent une réduction du niveau d’activation des opérandes. Cette baisse d’activation résulte d’un phénomène de déclin mémoriel qui entraîne une détérioration des traces en mémoire (Towse & Hitch, 1995 ; Towse, Hitch & Hutton, 1998) et de l’activation concurrente de résultats transitoires provoquant un partage attentionnel entre les opérandes, leurs composantes et les résultats intermédiaires nécessaires pour arriver à la solution (Anderson, 1993). Par conséquent, lorsque l’algorithme aboutit à la réponse les traces des opérandes sont dégradées et la récupération en mémoire est difficile. Ce phénomène devrait être plus prononcé pour les grands nombres car parvenir au résultat nécessite plus d’étapes et plus de temps. En contrastant la difficulté rencontrée par des adultes pour reconnaître des opérandes après leur implication soit dans une opération arithmétique (addition, soustraction ou multiplication) soit dans une comparaison (qui ne nécessite aucune décomposition) avec un troisième nombre, nous pourrons déterminer si l’opération a été résolue par procédure algorithmique. Si la difficulté est la même dans les deux conditions, l’opération aura été résolue par récupération, une telle activité ne nécessite pas la décomposition des opérandes / Numerous studies show that adults solve simple arithmetic problems more or less exclusively by retrieval the response in a network of associations stored in long-term memory (Ashcraft, 1992, 1995 and Campbell, 1995). It is recognized that the arithmetic performance of young children are based on counting or other procedural strategies that are gradually replaced by direct memory retrieval (Barrouillet & Fayol, 1998). These first results were reported by Groen and Parkman (1972) by studying the resolution time. But average latency of trials involving different procedures can lead to erroneous conclusions about how problems are solved. Other authors have preferred the method of verbal reports. But Kirk and Ashcraft (2001) question this paradigm. We propose a new paradigm to shed light on how the addition problems, subtraction and multiplication are resolved by adults and children. This paradigm takes advantage of the fact that algorithmic computation degrades the memory traces of the operands involved in the calculation (Thevenot, Barrouillet, & Fayol, 2001). The time needed by the algorithm to reach the answer and its cognitive cost lead to a reduction in the level of activation of the operands. This decrease in activation would result both from a memory decay phenomenon, which damages memory traces (Towse & Hitch, 1995; Towse, Hitch & Hutton, 1998) and from the necessary concurrent activation of transitory results, which induces a sharing of the attentional resources between the operands, their components and the intermediate results necessary to be reached to solve the problem (Anderson, 1993). Therefore, when the algorithm leads to the response, traces of the operands are degraded and retrieval the operand in memory is more difficult. This phenomenon should be more pronounced for large numbers since arriving at the result requires more steps and more time. Thus, contrasting the relative difficulty that adults or children encounter in recognizing operands after either their involvement in an arithmetic problem or their simple comparison with a third number can allow us to determine if the arithmetic problem has been solved by an algorithmic procedure or by retrieval of the result from memory: If operands are more difficult to recognize after the operation than after their comparison, we can assume that an algorithmic procedure has been used. On the contrary, if the difficulty is the same in both conditions, then the operation has most probably been solved by retrieval, a fast activity that does not imply the decomposition of the operands

Page generated in 0.0668 seconds