Spelling suggestions: "subject:"algorithmic""
111 |
Analyse de structures répétitives dans les séquences musicales / Repetitive structure analysis in music sequencesMartin, Benjamin 12 December 2012 (has links)
Cette thèse rend compte de travaux portant sur l’inférence de structures répétitives à partir du signal audio à l’aide d’algorithmes du texte. Son objectif principal est de proposer et d’évaluer des algorithmes d’inférence à partir d’une étude formelle des notions de similarité et de répétition musicale.Nous présentons d’abord une méthode permettant d’obtenir une représentation séquentielle à partir du signal audio. Nous introduisons des outils d’alignement permettant d’estimer la similarité entre de telles séquences musicales, et évaluons l’application de ces outils pour l’identification automatique de reprises. Nous adaptons alors une technique d’indexation de séquences biologiques permettant une estimation efficace de la similarité musicale au sein de bases de données conséquentes.Nous introduisons ensuite plusieurs répétitions musicales caractéristiques et employons les outils d’alignement pour identifier ces répétitions. Une première structure, la répétition d’un segment choisi, est analysée et évaluée dans le cadre dela reconstruction de données manquantes. Une deuxième structure, la répétition majeure, est définie, analysée et évaluée par rapport à un ensemble d’annotations d’experts, puis en tant qu’alternative d’indexation pour l’identification de reprises.Nous présentons enfin la problématique d’inférence de structures répétitives telle qu’elle est traitée dans la littérature, et proposons notre propre formalisation du problème. Nous exposons alors notre modélisation et proposons un algorithme permettant d’identifier une hiérarchie de répétitions. Nous montrons la pertinence de notre méthode à travers plusieurs exemples et en l’évaluant par rapport à l’état de l’art. / The work presented in this thesis deals with repetitive structure inference from audio signal using string matching techniques. It aims at proposing and evaluating inference algorithms from a formal study of notions of similarity and repetition in music.We first present a method for representing audio signals by symbolic strings. We introduce alignment tools enabling similarity estimation between such musical strings, and evaluate the application of these tools for automatic cover song identification. We further adapt a bioinformatics indexing technique to allow efficient assessments of music similarity in large-scale datasets. We then introduce several specific repetitive structures and use alignment tools to analyse these repetitions. A first structure, namely the repetition of a chosen segment, is retrieved and evaluated in the context of automatic assignment of missingaudio data. A second structure, namely the major repetition, is defined, retrieved and evaluated regarding expert annotations, and as an alternative indexing method for cover song identification.We finally present the problem of repetitive structure inference as addressed in literature, and propose our own problem statement. We further describe our model and propose an algorithm enabling the identification of a hierarchical music structure. We emphasize the relevance of our method through several examples and by comparing it to the state of the art.
|
112 |
Algorithme des complexes CAT (0) planaires et rectangulairesMaftuleac, Daniela 28 June 2012 (has links)
Dans cette thèse, nous étudions des problèmes algorithmiques dans les complexes CAT(0) planaires et rectangulaires munis d'une m ́etrique intrinsèque l_2. Nous proposons des algorithmes de calcul du plus court chemin dans les complexes CAT(0) planaires et rectangulaires et de construction de l'enveloppe convexe d'un ensemble fini de points dans les complexes CAT(0) planaires. E ́tant donné un complexe CAT(0) rectangulaire 2-dimensionnel K à n sommets, nous proposons un algorithme qui, pour toute paire de points calcule la distance et le plus court chemin en temps sous-lin ́eaire en nombre de sommets de K, en utilisant une structure de données de taille O(n^2). Le deuxième problème étudié est celui du plus court chemin entre un point-source donné et tout autre point dans un complexe CAT(0) planaire K a n sommets. Pour cela, nous proposons un algorithme qui, pour tout point y de K, étant donnée le point source x et la carte géodésique SPM(x), construit le plus court chemin γ(x,y) en temps O(n), en utilisant une structure de données de taille O(n^2). Enfin, nous nous intéressons au calcul de l'enveloppe convexe d'un ensemble de k points dans un complexe CAT(0) planaire à n sommets. Nous proposons un algorithme qui construit l'enveloppe convexe en temps O(n^2 + nk log k) en utilisant une structure de données de taille O(n^2 + k). / In this thesis, we study algorithmic problems in CAT(0) planar and rectangular complexes with an intrinsic l_2−metric. We present algorithms for some algorithmic problems, such as computing the shortest path and the convex hull of a finite set of points in CAT(0) planar and rectangular complexes. We present an efficient algorithm for answering two-point distance queries in a given CAT(0) rectangular complex K with n vertices. Namely, we show that for a CAT(0) rectangular complex K with n vertices, one can construct a data structure of size O(n^2) so that, given any two points in K, the shortest path can be computed in subliniar time of n. The second problem presented is computing shortest path from a single-source to the query point in a CAT(0) planar complex. We propose an algorithm which computes in O(n) time the shortest path between a given point and the query point in a CAT(0) planar complex with n vertices, using a given shortest path map and data structure of size O(n^2). Finally, we study the problem of computing the convex hull of a set of k points in a CAT(0) planar complex with n vertices. We describe an algorithm which computes the convex hull in O(n^2 + nk log k) time, using a data structure of size O(n^2 + k).
|
113 |
Aspects algorithmiques de la comparaison d'éléments biologiques / Algorithmics aspects of biological entities comparisonSikora, Florian 30 September 2011 (has links)
Pour mieux saisir les liens complexes entre génotype et phénotype, une méthode utilisée consiste à étudier les relations entre différents éléments biologiques (entre les protéines, entre les métabolites...). Celles-ci forment ce qui est appelé un réseau biologique, que l'on représente algorithmiquement par un graphe. Nous nous intéressons principalement dans cette thèse au problème de la recherche d'un motif (multi-ensemble de couleurs) dans un graphe coloré, représentant un réseau biologique. De tels motifs correspondent généralement à un ensemble d'éléments conservés au cours de l'évolution et participant à une même fonction biologique. Nous continuons l'étude algorithmique de ce problème et de ses variantes (qui admettent plus de souplesse biologique), en distinguant les instances difficiles algorithmiquement et en étudiant différentes possibilités pour contourner cette difficulté (complexité paramétrée, réduction d'instance, approximation...). Nous proposons également un greffon intégré au logiciel Cytoscape pour résoudre efficacement ce problème, que nous testons sur des données réelles.Nous nous intéressons également à différents problèmes de génomique comparative. La démarche scientifique adoptée reste la même: depuis une formalisation d'un problème biologique, déterminer ses instances difficiles algorithmiquement et proposer des solutions pour contourner cette difficulté (ou prouver que de telles solutions sont impossibles à trouver sous des hypothèses fortes) / To investigate the complex links between genotype and phenotype, one can study the relations between different biological entities. It forms a biological network, represented by a graph. In this thesis, we are interested in the occurrence of a motif (a multi-set of colors) in a vertex-colored graph, representing a biological network. Such motifs usually correspond to a set of elements realizing a same function, and which may have been evolutionarily preserved. We follow the algorithmic study of this problem, by establishing hard instances and studying possibilities to cope with the hardness (parameterized complexity, preprocessing, approximation...). We also develop a plugin for Cytoscape, in order to solve efficiently this problem and to test it on real data.We are also interested in different problems related to comparative genomics. The scientific method is the same: studying problems arising from biology, specifying the hard instances and giving solutions to cope with the hardness (or proving such solutions are unlikely)
|
114 |
Combinatoire algébrique des arbres / Algebraic combinatorics on treesGiraudo, Samuele 08 December 2011 (has links)
Cette thèse se situe dans le domaine de la combinatoire algébrique et porte sur la construction de plusieurs structures combinatoires et algébriques sur différentes espèces d'arbres. Après avoir défini un analogue du monoïde plaxique dont les classes d'équivalence sont indexées par les couples d'arbres binaires jumeaux, nous proposons un analogue de la correspondance de Robinson-Schensted dans ce contexte. À partir de ce monoïde, nous construisons une sous-algèbre de Hopf de l'algèbre de Hopf des fonctions quasi-symétriques libres dont les bases sont indexées par les couples d'arbres binaires jumeaux. Ensuite, nous proposons un foncteur combinatoire de la catégorie des monoïdes vers la catégorie des opérades ensemblistes. En utilisant ce foncteur, nous construisons plusieurs opérades qui mettent en jeu divers objets combinatoires. Par le biais d'une construction qui à une opérade associe une algèbre de Hopf non commutative, nous obtenons à partir de l'une des opérades obtenue par notre construction, une algèbre de Hopf basée sur les forêts ordonnées d'arbres plans enracinés. Nous proposons une réalisation polynomiale de cette dernière. Finalement, nous établissons certaines propriétés vérifiées par les arbres binaires équilibrés dans le treillis de Tamari. Nous montrons que l'ensemble des arbres binaires équilibrés y est clos par intervalle et que les intervalles d'arbres binaires équilibrés ont la forme d'hypercubes. Dans l'objectif de dénombrer ces intervalles, nous introduisons une nouvelle sorte de grammaires d'arbres, les grammaires synchrones. Celles-ci permettent d'obtenir une équation fonctionnelle de point fixe pour la série génératrice des arbres qu'elles engendrent / This thesis comes within the scope of algebraic combinatorics and deals with the construction of several combinatorial and algebraic structures on different tree species. After defining an analogue of the plactic monoid whose equivalence classes are indexed by pairs of twin binary trees, we propose in this context an analogue of the Robinson-Schensted correspondence. From this monoid, we construct a Hopf subalgebra of the Hopf algebra of free quasi-symmetric functions whose bases are indexed by pairs of twin binary trees.Then, we propose a combinatorial functor from the category of monoids to the category of set-operads. Using this functor, we construct several operads that involve various combinatorial objects. Through a construction that brings a noncommutative Hopf algebra from an operad, we obtain from one of the operads obtained by our construction, a Hopf algebra based on ordered forests of planar rooted trees. We propose a polynomial realization of the latter.Finally, we establish some properties satisfied by balanced binary trees in the Tamari lattice. We show that the set of balanced binary trees is closed by interval and that the intervals of balanced binary trees have the shape of hypercubes. To enumerate these intervals, we introduce a new kind of tree grammars, namely the synchronous grammars. They allow to obtain a fixed-point functional equation for the generating series of the generated trees
|
115 |
Modélisation de la variabilité des temps de parcours et son intégration dans des algorithmes de recherche du plus court chemin stochastique / Travel time variability modeling and integration into stochastic shortest path problem algorithmsDelhome, Raphaël 01 December 2016 (has links)
La représentation des temps de parcours est un enjeu influençant la qualité de l’information transmise aux usagers des réseaux de transport. En particulier, la congestion constitue un inconvénient majeur dont la prise en compte n’est pas toujours maîtrisée au sein des calculateurs d’itinéraires. De même, les évènements comme les réductions de capacité, les perturbations climatiques, ou encore les pics de fréquentation incitent à dépasser la définition statique des temps de parcours. Des travaux antérieurs se sont focalisés sur des temps dynamiques, i.e. dépendants de la date de départ, de manière à affiner le détail de la représentation, et à prendre notamment en compte le caractère périodique des congestions. La considération d’informations en temps réel est aussi une amélioration indéniable, que ce soit lors de la préparation du trajet, ou lorsqu’il s’agit de s’adapter à des perturbations rencontrées en cours de route. Ceci dit, aussi fines qu’elles soient dans les calculateurs disponibles, ces modélisations présentent un inconvénient majeur : elles ne prennent pas en compte toutes les facettes de la variabilité des temps de parcours. Cette variabilité est très importante, en particulier si l’on considère le niveau d’aversion au risque des usagers. En outre, dans un réseau multimodal, les correspondances éventuelles rendent encore plus critique l’incertitude associée aux temps de parcours. En réponse à ces enjeux, les présents travaux de thèse ont ainsi été consacrés à l’étude de temps de parcours stochastiques, i.e. vus comme des variables aléatoires distribuées.Dans une première étape, nous nous intéressons à la modélisation statistique des temps de parcours et à la quantification de leur variabilité. Nous proposons l’utilisation d’un système de lois développé dans le domaine de l’hydrologie, la famille des lois de Halphen. Ces lois présentent les caractéristiques typiques des distributions de temps de parcours, elles vérifient par ailleurs la propriété de fermeture par l’addition sous certaines hypothèses afférentes à leurs paramètres. En exploitant les ratios de moments associés aux définitions de ces lois de probabilité, nous mettons également au point de nouveaux indicateurs de fiabilité, que nous confrontons avec la palette d’indicateurs classiquement utilisés. Cette approche holistique de la variabilité des temps de parcours nous semble ainsi ouvrir de nouvelles perspectives quant au niveau de détail de l’information, notamment à destination des gestionnaires de réseaux.Par la suite, nous étendons le cadre d’analyse aux réseaux, en utilisant les résultats obtenus à l’étape précédente. Différentes lois de probabilité sont ainsi testées dans le cadre de la recherche du plus court chemin stochastique. Cette première étude nous permet de dresser un panorama des chemins identifiés en fonction du choix de modélisation. S’il est montré que le choix du modèle est important, il s’agit surtout d’affirmer que le cadre stochastique est pertinent. Ensuite, nous soulevons la relative inefficacité des algorithmes de recherche du plus court chemin stochastique, ceux-ci nécessitant des temps de calcul incompatibles avec un passage à l’échelle industrielle. Pour pallier cette difficulté, un nouvel algorithme mettant en oeuvre une technique d’accélération tirée du cadre déterministe est développé dans la dernière partie de la thèse. Les résultats obtenus soulignent la pertinence de l’intégration de modèles stochastiques au sein des calculateurs d’itinéraires. / The travel time representation has a major impact on user-oriented routing information. In particular, congestion detection is not perfect in current route planners. Moreover, the travel times cannot be considered as static because of events such as capacity drops, weather disturbances, or demand peaks. Former researches focused on dynamic travel times, i.e. that depend on departure times, in order to improve the representation details, for example concerning the periodicity of congestions. Real-time information is also a significant improvement for users aiming to prepare their travel or aiming to react to on-line events. However these kinds of model still have an important drawback : they do not take into account all the aspects of travel time variability. This dimension is of huge importance, in particular if the user risk aversion is considered. Additionally in a multimodal network, the eventual connections make the travel time uncertainty critical. In this way the current PhD thesis has been dedicated to the study of stochastic travel times, seen as distributed random variables.In a first step, we are interested in the travel time statistical modeling as well as in the travel time variability. In this goal, we propose to use the Halphen family, a probability law system previously developed in hydrology. The Halphen laws show the typical characteristics of travel time distributions, plus they are closed under addition under some parameter hypothesis. By using the distribution moment ratios, we design innovative reliability indexes, that we compare with classical metrics. This holistic approach appears to us as a promising way to produce travel time information, especially for infrastructure managers.Then we extend the analysis to transportation networks, by considering previous results. A set of probability laws is tested during the resolution of the stochastic shortest path problem. This research effort helps us to describe paths according to the different statistical models. We show that the model choice has an impact on the identified paths, and above all, that the stochastic framework is crucial. Furthermore we highlight the inefficiency of algorithms designed for the stochastic shortest path problem. They need long computation times and are consequently incompatible with industrial applications. An accelerated algorithm based on a deterministic state-of-the-art is provided to overcome this problem in the last part of this document. The obtained results let us think that route planners might include travel time stochastic models in a near future.
|
116 |
Transport optimal semi-discret et applications en optique anidolique / Semi-discrete optimal transport and applications in non-imaging opticsMeyron, Jocelyn 16 October 2018 (has links)
Dans cette thèse, nous nous intéressons à la résolution de nombreux problèmes d’optique anidolique. Plus précisément, il s’agit de construire des composants optiques qui satisfont des contraintes d’illumination à savoir que l’on veut que la lumière réfléchie(ou réfractée) par ce composant corresponde à une distribution fixée en avance. Comme applications, nous pouvons citer la conception de phares de voitures ou de caustiques. Nous montrons que ces problèmes de conception de composants optiques peuvent être vus comme des problèmes de transport optimal et nous expliquons en quoi cette formulation permet d’étudier l’existence et la régularité des solutions. Nous montrons aussi comment, en utilisant des outils de géométrie algorithmique, nous pouvons utiliser une méthode numérique efficace, la méthode de Newton amortie, pour résoudre tous ces problèmes. Nous obtenons un algorithme générique capable de construire efficacement un composant optique qui réfléchit (ou réfracte)une distribution de lumière prescrite. Nous montrons aussi la convergence de l’algorithme de Newton pour résoudre le problème de transport optimal dans le cas où le support de la mesure source est une union finie de simplexes. Nous décrivons également la relation commune qui existe entre huit différents problèmes de conception de composants optiques et montrons qu’ils peuvent tous être vus comme des équations de Monge-Ampère discrètes. Nous appliquons aussi la méthode de Newton à de nombreux problèmes de conception de composants optiques sur différents exemples simulés ainsi que sur des prototypes physiques. Enfin, nous nous intéressons à un problème apparaissant en transport optimal numérique à savoir le choix du point initial. Nous développons trois méthodes simples pour trouver de “bons” points initiaux qui peuvent être ensuite utilisés comme point de départ dans des algorithmes de résolution de transport optimal. / In this thesis, we are interested in solving many inverse problems arising inoptics. More precisely, we are interested in designing optical components such as mirrors andlenses that satisfy some light conservation constraints meaning that we want to control thereflected (or refracted) light in order match a prescribed intensity. This has applications incar headlight design or caustic design for example. We show that optical component designproblems can be recast as optimal transport ones for different cost functions and we explainhow this allows to study the existence and the regularity of the solutions of such problems. Wealso show how, using computational geometry, we can use an efficient numerical method namelythe damped Newton’s algorithm to solve all these problems. We will end up with a singlegeneric algorithm able to efficiently build an optical component with a prescribed reflected(or refracted) illumination. We show the convergence of the Newton’s algorithm to solve theoptimal transport problem when the source measure is supported on a finite union of simplices.We then describe the common relation between eight optical component design problemsand show that they can all be seen as discrete Monge-Ampère equations. We also apply theNewton’s method to optical component design and show numerous simulated and fabricatedexamples. Finally, we look at a problem arising in computational optimal transport namelythe choice of the initial weights. We develop three simple procedures to find “good” initialweights which can be used as a starting point in computational optimal transport algorithms.
|
117 |
A l'intersection de la combinatoire des mots et de la géométrie discrète : palindromes, symétries et pavages / At the intersection of combinatorics on words and discrete geometry : palindromes, symmetries and tilingsBlondin Massé, Alexandre 02 December 2011 (has links)
Dans cette thèse, différents problèmes de la combinatoire des mots et de géométrie discrète sont considérés. Nous étudions d'abord l'occurrence des palindromes dans les codages de rotations, une famille de mots incluant entre autres les mots sturmiens et les suites de Rote. En particulier, nous démontrons que ces mots sont pleins, c'est-à-dire qu'ils réalisent la complexité palindromique maximale. Ensuite, nous étudions une nouvelle famille de mots, appelés mots pseudostandards généralisés, qui sont générés à l'aide d'un opérateur appelé clôture pseudopalindromique itérée. Nous présentons entre autres une généralisation d'une formule décrite par Justin qui permet de générer de façon linéaire et optimale un mot pseudostandard généralisé. L'objet central, le f-palindrome ou pseudopalindrome est un indicateur des symétries présentes dans les objets géométriques. Dans les derniers chapitres, nous nous concentrons davantage sur des problèmes de nature géométrique. Plus précisément, nous don-nons la solution à deux conjectures de Provençal concernant les pavages par translation, en exploitant la présence de palindromes et de périodicité locale dans les mots de contour. À la fin de plusieurs chapitres, différents problèmes ouverts et conjectures sont brièvement présentés. / In this thesis, we explore different problems at the intersection of combinatorics on words and discrete geometry. First, we study the occurrences of palindromes in codings of rotations, a family of words including the famous Sturmian words and Rote sequences. In particular, we show that these words are full, i.e. they realize the maximal palindromic complexity. Next, we consider a new family of words called generalized pseudostandard words, which are generated by an operator called iterated pseudopalindromic closure. We present a generalization of a formula described by Justin which allows one to generate in linear (thus optimal) time a generalized pseudostandard word. The central object, the f-palindrome or pseudopalindrome, is an indicator of the symmetries in geometric objects. In the last chapters, we focus on geometric problems. More precisely, we solve two conjectures of Provençal about tilings by translation, by exploiting the presence of palindromes and local periodicity in boundary words. At the end of many chapters, different open problems and conjectures are briefly presented.
|
118 |
Reconstruction Volumique de Résultats de Simulation à Base Chimère / Volumetric Reconstruction of Chimera Simulation ResultsHuynh, Minh Duc 09 July 2012 (has links)
La simulation numérique des écoulements est une étape essentielle de la conception des turbines à gaz équipant les hélicoptères. La recherche permanente de la performance a conduit à des géométries de turbines très complexes et il devient de plus en plus difficile de modéliser des grilles de simulation qui épousent parfaitement la CAO des moteurs. La technique chimère permet de s’affranchir des contraintes de recollement parfait des différentes grilles en autorisant leur chevauchement. Cependant elle soulève de nouveaux problèmes lors de la phase de post-traitement, lorsqu’il s’agit d’exploiter les résultats de simulation afin de faire de nouveaux calculs ou de les visualiser, parce que les outils usuels ne sont pas adaptés à ces configurations particulières. Dans le cadre des deux premiers projets du programme MOSART du pôle de compétitivité Aerospace Valley, respectivement MACAO et OSMOSES, nous avons travaillé en collaboration avec l’entreprise Turbomeca à la conception d’une méthode de reconstruction volumique afin de traiter les résultats de simulations à base chimère. Nous avons ainsi proposé une méthode innovante permettant de reconstruire une partition de l’espace de simulation exempte de chevauchement entre grilles. La nouvelle partition conserve le maximum de propriétés des grilles d’origine et assure en tout point la conformité aux bords. La complexité théorique est linéaire avec la taille des grilles d’origine et nous permet d’obtenir des temps de traitement de l’ordre de la seconde pour des grilles de plusieurs centaines de milliers de mailles. Le principal intérêt de ce travail est de rendre exploitables les résultats de simulations à base chimère par les outils de post-traitement, qu’il s’agisse d’outils maison ou des nombreux logiciels commerciaux ou OpenSource disponibles, condition indispensable pour l’adoption de la méthode chimère par les bureaux d’études. / Computationnal fluid dynamics is an essential step in gas turbine modelling. Continuous optimization of turbines has led to sophisticated geometries, which raises severe issues for the design of adapted simulation grids. The chimera technique aims at relaxing geometry matching constraints by allowing grids overlap. However, post-processing of simulation results performed over chimera grids raises new issues because usual tools are not tuned for this particular geometricconfigurations. In the framework of the MOSART programme of the world competitiveness cluster Aerospace Valley, we have been working in collaboration with Turbomeca in order to develop a technique for the volumetric reconstruction of chimerasimulation results. We propose an innovative method that allows us to build a collection of non-overlapping grids while preserving the main properties of the former simulation grids and featuring boundary conforming property everywhere.The theorical complexity of our algorithms has proved to be linear in the size of the former grids and leads to computation times of a few seconds for grids of hundreds of thousands of cells. The main impact of this work leads in the possibility of using any post-processing tool, including a large number of OpenSource solutions, for post-processing chimera simulation results, which is a mandatory condition for the wide acceptance of this method by industry actors.
|
119 |
Calculs explicites en théorie d'Iwasawa / Explicit computing in Iwasawa theoryVarescon, Firmin 11 June 2014 (has links)
Dans le premier chapitre de cette thèse on rappelle l'énoncé ainsi que des équivalents de la conjecture de Leopoldt puis l'on donne un algorithme permettant de vérifier cette conjecture pour un corps de nombre et premier donnés. Pour la suite on suppose cette conjecture vraie pour le premier p fixé Et on étudie la torsion du groupe de Galois de l'extension abélienne maximale p-ramifiée. On présente une méthode qui détermine effectivement les facteurs invariants de ce groupe fini. Dans le troisième chapitre on donne des résultats numériques que l'on interpréte via des heuristiques à la Cohen-Lenstra. Dans le quatrième chapitre, à l'aide de l'algorithme qui permet le calcul de ce module, on donne des exemples de corps et de premiers vérifiant la conjecture de Greenberg. / In the first chapter of this thesis we explain Leopoldt's conjecture and some equivalent formulations. Then we give an algorithm that checks this conjecture for a given prime p and a number field. Next we assume that this conjecture is true, and we study the torsion part of the Galois group of the maximal abelian p-ramified p-extension of a given number field. We present a method to compute the invariant factors of this finite group. In the third chapter we give an interpretation of our numrical result by heuristics “à la” Cohen-Lenstra. In the fourth and last chapter, using our algorithm which computes this torsion submodule, we give new examples of numbers fields which satisfy Greenberg's conjecture.
|
120 |
Les stratégies de résolution d'opérations arithmétiques simples : un nouveau paradigme / Strategies for solving simple arithmetic operations : a new paradigmFanget, Muriel 29 September 2010 (has links)
De nombreuses recherches montrent que les adultes résolvent de simples problèmes arithmétiques plus ou moins exclusivement par récupération de la réponse dans un réseau d’associations stockées en mémoire à long terme (Ashcraft, 1992 ; 1995 ; Campbell, 1995). Il est admis que les performances arithmétiques des jeunes enfants sont basées sur le comptage ou d’autres stratégies procédurales qui sont peu à peu remplacées par la récupération directe en mémoire (Barrouillet & Fayol, 1998). Ces premiers résultats ont été rapportés par Groen et Parkman (1972) en étudiant les temps de résolution. Mais moyenner des temps de latence d’essais impliquant différentes procédures peut conduire à des conclusions erronées sur la façon dont les problèmes sont résolus. D’autres auteurs ont préféré la méthode des protocoles verbaux. Cependant Kirk et Ashcraft (2001) remettent en question ce protocole. Nous proposons un nouveau paradigme pour faire la lumière sur la façon dont des problèmes additifs, soustractifs et multiplicatifs sont résolus par les adultes et les enfants. Ce paradigme tire avantage du fait que les procédures de calcul dégradent les traces en mémoire des opérandes impliquées dans les calculs (Thevenot, Barrouillet & Fayol, 2001). Le temps nécessaire à l’algorithme pour parvenir à la réponse et son coût cognitif entraînent une réduction du niveau d’activation des opérandes. Cette baisse d’activation résulte d’un phénomène de déclin mémoriel qui entraîne une détérioration des traces en mémoire (Towse & Hitch, 1995 ; Towse, Hitch & Hutton, 1998) et de l’activation concurrente de résultats transitoires provoquant un partage attentionnel entre les opérandes, leurs composantes et les résultats intermédiaires nécessaires pour arriver à la solution (Anderson, 1993). Par conséquent, lorsque l’algorithme aboutit à la réponse les traces des opérandes sont dégradées et la récupération en mémoire est difficile. Ce phénomène devrait être plus prononcé pour les grands nombres car parvenir au résultat nécessite plus d’étapes et plus de temps. En contrastant la difficulté rencontrée par des adultes pour reconnaître des opérandes après leur implication soit dans une opération arithmétique (addition, soustraction ou multiplication) soit dans une comparaison (qui ne nécessite aucune décomposition) avec un troisième nombre, nous pourrons déterminer si l’opération a été résolue par procédure algorithmique. Si la difficulté est la même dans les deux conditions, l’opération aura été résolue par récupération, une telle activité ne nécessite pas la décomposition des opérandes / Numerous studies show that adults solve simple arithmetic problems more or less exclusively by retrieval the response in a network of associations stored in long-term memory (Ashcraft, 1992, 1995 and Campbell, 1995). It is recognized that the arithmetic performance of young children are based on counting or other procedural strategies that are gradually replaced by direct memory retrieval (Barrouillet & Fayol, 1998). These first results were reported by Groen and Parkman (1972) by studying the resolution time. But average latency of trials involving different procedures can lead to erroneous conclusions about how problems are solved. Other authors have preferred the method of verbal reports. But Kirk and Ashcraft (2001) question this paradigm. We propose a new paradigm to shed light on how the addition problems, subtraction and multiplication are resolved by adults and children. This paradigm takes advantage of the fact that algorithmic computation degrades the memory traces of the operands involved in the calculation (Thevenot, Barrouillet, & Fayol, 2001). The time needed by the algorithm to reach the answer and its cognitive cost lead to a reduction in the level of activation of the operands. This decrease in activation would result both from a memory decay phenomenon, which damages memory traces (Towse & Hitch, 1995; Towse, Hitch & Hutton, 1998) and from the necessary concurrent activation of transitory results, which induces a sharing of the attentional resources between the operands, their components and the intermediate results necessary to be reached to solve the problem (Anderson, 1993). Therefore, when the algorithm leads to the response, traces of the operands are degraded and retrieval the operand in memory is more difficult. This phenomenon should be more pronounced for large numbers since arriving at the result requires more steps and more time. Thus, contrasting the relative difficulty that adults or children encounter in recognizing operands after either their involvement in an arithmetic problem or their simple comparison with a third number can allow us to determine if the arithmetic problem has been solved by an algorithmic procedure or by retrieval of the result from memory: If operands are more difficult to recognize after the operation than after their comparison, we can assume that an algorithmic procedure has been used. On the contrary, if the difficulty is the same in both conditions, then the operation has most probably been solved by retrieval, a fast activity that does not imply the decomposition of the operands
|
Page generated in 0.06 seconds