• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 125
  • 75
  • 28
  • 14
  • 13
  • 10
  • 10
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 604
  • 266
  • 129
  • 116
  • 87
  • 63
  • 44
  • 38
  • 38
  • 30
  • 28
  • 25
  • 25
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Repetitive subwords

Fazekas, Szilard Zsolt 12 February 2010 (has links)
The central notionof thisthesisis repetitionsin words. We studyproblemsrelated to contiguous repetitions. More specifically we will consider repeating scattered subwords of non-primitive words, i.e. words which are complete repetitions of other words. We will present inequalities concerning these occurrences as well as giving apartial solutionto an openproblemposedby Salomaaet al. We will characterize languages, whichare closed under the operation ofduplication, thatis repeating any factor of a word. We alsogive newbounds onthe number of occurrencesof certain types of repetitions of words. We give a solution to an open problem posed by Calbrix and Nivat concerning regular languages consisting of non-primitive words. We alsopresentsomeresultsregarding theduplication closureoflanguages,among which a new proof to a problem of Bovet and Varricchio.
52

On the intelligent management of sepsis in the intensive care unit

Ribas Ripoll, Vicent Jordi 29 January 2013 (has links)
The management of the Intensive Care Unit (ICU) in a hospital has its own, very specific requirements that involve, amongst others, issues of risk-adjusted mortality and average length of stay; nurse turnover and communication with physicians; technical quality of care; the ability to meet patient's family needs; and avoid medical error due rapidly changing circumstances and work overload. In the end, good ICU management should lead to an improvement in patient outcomes. Decision making at the ICU environment is a real-time challenge that works according to very tight guidelines, which relate to often complex and sensitive research ethics issues. Clinicians in this context must act upon as much available information as possible, and could therefore, in general, benefit from at least partially automated computer-based decision support based on qualitative and quantitative information. Those taking executive decisions at ICUs will require methods that are not only reliable, but also, and this is a key issue, readily interpretable. Otherwise, any decision tool, regardless its sophistication and accuracy, risks being rendered useless. This thesis addresses this through the design and development of computer based decision making tools to assist clinicians at the ICU. It focuses on one of the main problems that they must face: the management of the Sepsis pathology. Sepsis is one of the main causes of death for non-coronary ICU patients. Its mortality rate can reach almost up to one out of two patients for septic shock, its most acute manifestation. It is a transversal condition affecting people of all ages. Surprisingly, its definition has only been standardized two decades ago as a systemic inflammatory response syndrome with confirmed infection. The research reported in this document deals with the problem of Sepsis data analysis in general and, more specifically, with the problem of survival prediction for patients affected with Severe Sepsis. The tools at the core of the investigated data analysis procedures stem from the fields of multivariate and algebraic statistics, algebraic geometry, machine learning and computational intelligence. Beyond data analysis itself, the current thesis makes contributions from a clinical point of view, as it provides substantial evidence to the debate about the impact of the preadmission use of statin drugs in the ICU outcome. It also sheds light into the dependence between Septic Shock and Multi Organic Dysfunction Syndrome. Moreover, it defines a latent set of Sepsis descriptors to be used as prognostic factors for the prediction of mortality and achieves an improvement on predictive capability over indicators currently in use. / La gestió d'una Unitat de Cures Intensives (UCI) hospitalària presenta uns requisits força específics incloent, entre altres, la disminució de la taxa de mortalitat, la durada de l'ingrès, la rotació d'infermeres i la comunicació entre metges amb al finalitad de donar una atenció de qualitat atenent als requisits tant dels malalts com dels familiars. També és força important controlar i minimitzar els error mèdics deguts a canvis sobtats i a la presa ràpida de deicisions assistencials. Al cap i a la fi, la bona gestió de la UCI hauria de resultar en una reducció de la mortalitat i durada d'estada. La presa de decisions en un entorn de crítics suposa un repte de presa de decisions en temps real d'acord a unes guies clíniques molt restrictives i que, pel que fa a la recerca, poden resultar en problemes ètics força sensibles i complexos. Per tant, el personal sanitari que ha de prendre decisions sobre la gestió de malalts crítics no només requereix eines de suport a la decisió que siguin fiables sinó que, a més a més, han de ser interpretables. Altrament qualsevol eina de decisió que no presenti aquests trets no és considerarà d'utilitat clínica. Aquesta tesi doctoral adreça aquests requisits mitjançant el desenvolupament d'eines de suport a la decisió per als intensivistes i es focalitza en un dels principals problemes als que s'han denfrontar: el maneig del malalt sèptic. La Sèpsia és una de les principals causes de mortalitats a les UCIS no-coronàries i la seva taxa de mortalitat pot arribar fins a la meitat dels malalts amb xoc sèptic, la seva manifestació més severa. La Sèpsia és un síndrome transversal, que afecta a persones de totes les edats. Sorprenentment, la seva definició ha estat estandaritzada, fa només vint anys, com a la resposta inflamatòria sistèmica a una infecció corfimada. La recerca presentada en aquest document fa referència a l'anàlisi de dades de la Sèpsia en general i, de forma més específica, al problema de la predicció de la supervivència de malalts afectats amb Sèpsia Greu. Les eines i mètodes que formen la clau de bòveda d'aquest treball provenen de diversos camps com l'estadística multivariant i algebràica, geometria algebraica, aprenentatge automàtic i inteligència computacional. Més enllà de l'anàlisi per-se, aquesta tesi també presenta una contribució des de el punt de vista clínic atès que presenta evidència substancial en el debat sobre l'impacte de l'administració d'estatines previ a l'ingrès a la UCI en els malalts sèptics. També s'aclareix la forta dependència entre el xoc sèptic i el Síndrome de Disfunció Multiorgànica. Finalment, també es defineix un conjunt de descriptors latents de la Sèpsia com a factors de pronòstic per a la predicció de la mortalitat, que millora sobre els mètodes actualment més utilitzats en la UCI.
53

Análisis de los problemas ternarios de probabilidad condicional de enunciado verbal y de sus procesos de resolución.

Lonjedo Vicent, Mª Ángeles 05 November 2007 (has links)
En este trabajo se presenta una investigación, en el mundo de la resolución deproblemas, de los problemas escolares de probabilidad que en ella se definen comoproblemas ternarios de probabilidad condicional.Las preguntas que inicialmente se plantean y se quieren resolver con lainvestigación, tienen que ver con los problemas: ¿cómo son los problemas ternariosde probabilidad condicional de enunciado verbal (PTPCEV) en cuanto a la estructurade cantidades y relaciones entre éstas?; ¿cómo pueden ser clasificados?; y con laenseñanza: ¿puede adelantarse su enseñanza a la secundaria obligatoria? En casoafirmativo, ¿qué tipología de problemas de probabilidad condicional pueden serresueltos en las secuencias didácticas?, ¿qué características deberán tener estosproblemas?Estas preguntas responden a tres objetivos generales de este trabajo:1. Estudiar los problemas ternarios de probabilidad condicional de enunciadoverbal2. Estudiar la resolución de una clase de estos problemas3. Proponer un proceso de enseñanza de los problemas de probabilidadcondicionalEn la investigación desarrollada se estudian los problemas ternarios de probabilidadcondicional de enunciado verbal teniendo en cuenta dos de los mundos posibles enlos que estos estudios pueden realizarse: el mundo de las matemáticas, es decir laestructura formal de los PTPCEV, y el mundo de las matemáticas escolares, en el quela información nos la proporciona los currículos oficiales y los libros de texto.Un resultado del estudio inicial sobre los problemas ternarios de probabilidadcondicional de enunciado verbal permite mostrar una clasificación de éstosatendiendo a tres características definidas para ellos: Niveles, Categorías y Tipos.Esta clasificación tiene en cuenta los datos y la pregunta del problema. Atendiendo aestas tres características los problemas se han clasificado en tres niveles y dentro decada nivel en tres categorías y tres tipos.El producto de la clasificación en Niveles, Categorías y Tipos, permite como se haceen esta, seleccionar una determinada tipología de problemas con el fin de poderabordar el estudio de los modos de resolver por los estudiantes. También se dacuenta del uso que pueden darse a esos componentes de clasificación para elanálisis de textos escolares, tanto si se piensa en la investigación sobre la resoluciónde esos problemas como para la su enseñanza.En el proceso de resolución de los problemas de probabilidad condicional, existendiferentes factores que influyen en las conductas de los estudiantes a la hora deestablecer una correcta correlación entre los datos y los sucesos. En estainvestigación nos ocupamos de identificar esos factores y determinar qué influenciatienen en el proceso de resolución del problema, desarrollando para ello un sistemade análisis de las respuestas de los estudiantes.Se analiza la resolución de problemas ternarios escolares de probabilidad condicionalde enunciado verbal por estudiantes de Secundaria Obligatoria, Bachillerato yFacultad de Matemáticas. En este análisis se describen procesos de resolución,modos de resolución y estrategias de resolución de los problemas, identificandodificultades y describiendo y clasificando errores.Finalmente, fruto de este análisis mostramos la influencia, tanto en el éxito como enel proceso de resolución de estos problemas, de los factores que hemos identificado.Estos factores tienen que ver con la naturaleza de las cantidades presentes en elenunciado del problema, con la expresión gramatical con la que se expresa lacondicionalidad en el texto del problema, con la utilización de términos que producenambigüedad sobre la probabilidad condicional en el texto del problema y con elorden en la expresión de los datos en el texto del problema. / This word introduces a research, within the world of problem solving, onproblems of probability in school education, defined as ternary problems ofconditional probability.The three general goals of this work are:1- To study word ternary problems of conditional probability.2- To study students' resolutions of one type of these problems.3- To propose a learning process of the conditional probability via problemsolving.In the developed research, we study the word ternary problems of conditionalprobability taking into account both of the possible worlds in which thesestudies could be carried out: maths Mathematics world, that is to say the formalstructure of the PTPCEV, and the school world, where information is providedby official curricula and textbooks.A result of the initial study on the word ternary problems of conditionalprobability shows their classification regarding three of their features: Levels,Categories and Types. This classification takes into account the data and thequestion of the problem.This classification allows selecting a specific typology of problems for thestudents to be capable of solving them. At the same time, it shows the use ofthese classifying components for the analysis of textbooks, both for researchingmatters as well as for educational purpose.During the process of solving problems of conditional probability, there areseveral issues that influence the way students correlate properly the data andthe events. In this research, we want to identify these factors and state whatinfluence they have in the process of solving a problem, developing for that ananalysis system for the students' answers.It is studied the resolution of word ternary problems of conditional probabilityby students of different school levels. In this research we describe solvingmethods, ways and strategies of solving those problems, identifying obstaclesand describing and classifying mistakes.Finally, as a result of this analysis we show the influence, both in the success aswell as in the process of resolution of these problems, of these factors that wehave identified. These factors are related to the nature of the quantities presentin the text of problem, to the grammar expression with which it is stated thecondition, to the use of terms that make us students confused about theconditional probability in the problem text and to the order in which the data isexpressed.
54

Un modelo sistémico de evolución social dual.

Nemiche, Mohamed 28 October 2002 (has links)
En previos Modelos de Evolución Social desarrollados en la unidad de investigación de Teoría de Sistemas del Departamento de Matemática Aplicada de la Universitat de València se generaba una evolución uniforme, en la que los sistemas sociales pasaban por una serie unívoca de fases, pero no diferentes caminos de la misma. Éramos conscientes de que dichos modelos no describían satisfactoriamente la Evolución real de la humanidad sobre el planeta tierra, donde se han desarrollado líneas de evolución diferenciadas. Siguiendo a Maurice Godelier podríamos describir dos líneas de evolución: una de ellas que podríamos llamar occidental, habría pasado por las fases de esclavitud, feudalismo y capitalismo. En la segunda línea evolutiva (oriental) el sentido de la colectividad ha primado en las distintas fases comenzando por lo que se llamó modo de producción asiático y posteriormente un tipo de feudalismo diferenciado, y más tarde lo que se ha llamado socialismo real o socialismo de estado. Solamente a finales del siglo pasado las dos líneas abarcaron lo que se ha llamado Globalización capitalista. En la primera parte de la memoria hemos desarrollado un modelo matemático construido a partir de una Teoría de Aprendizaje y formulado en términos de la Teoría General de Sistemas. Hemos conseguido una representación satisfactoria de la evolución dual entre occidente y oriente introduciendo la oposición Gregarismo/Individualismo en los distintos comportamientos sociales y cambiando la modelación de algunos componentes de los modelos anteriores (sistema natural, sistema de represión, sistema impacto, y la posibilidad técnica de satisfacción). En la segunda parte hemos realizado un estudio estadístico cualitativo y cuantitativo mediante métodos estocásticos para analizar la sensibilidad del modelo; también hemos estudiado el fenómeno del "efecto revuelta" en otro capítulo así como la evolución del consuno en satisfacción y represión de algunos comportamientos sociales. La memoria se cierra con un capítulo que apunta nuevas direcciones de trabajo. / With previos Model Rafael Pla-López and Vicent Castellar-Busó have studied: the processes that produce repressive social behaviors in the real world, the relationships that provoke these social behaviors among the population's elements, their influence on the environment and the necessary conditions to be able to overcome the repression with less repressive and more satisfactory social behaviors. This model showed a general social evolution through one only way: in each set of all possible state (dimension) there were an only ideal behavior, which tended univocally to predominate. Thus, there were a correspondence between the successive dimensions and the successive predominant behaviors. Perhaps a dimension were overcome before its ideal behavior arrived to predominate, but it did not alter the linearity of the social evolution. Nevertheless, in the real history of the humanity a clear dualism between Orient and Occident appears. If Godelier (Godelier 1970) already showed that the occidental evolution from slavery to capitalism were singular and not general, the experience of the bureaucratic regimens of Orient shows other singularity which cannot be embedded in the Engels' scheme (Engels 1884), but it have not either been a such ephemeral phenomenon to be explained by our Revolt Effect (Pla-López 1996b). In this work we modelize, with an abstract mathematical model by computer simulation, the processes that have made to appear in the world a strong duality between orient and occident, by combining changes in conditions of initialisation, natural system and the opposition gregarious/individualism of the social behaviors.Finally we present a statistical study of the influence of the repression adaptability, resignation and recycling on the ecological destruction and social evolution.This model can help us to analyze if the current capitalist globalization can be stopped, changed or regulated, and if it is possible to overcome it toward a Free Scientific Society.
55

La ecuación de Ince-Hill

Sastre Sendra, Joaquin 21 June 2004 (has links)
No description available.
56

High order accurate shock capturing schemes for hyperbolic conservation laws based on a new class of limiters.

Serna Salichs, Susana 15 February 2005 (has links)
No description available.
57

High Resolution Schemes for Conservation Laws With Source Terms.

Martínez i Gavara, Anna 24 October 2008 (has links)
This memoir is devoted to the study of the numerical treatment ofsource terms in hyperbolic conservation laws and systems. In particular,we study two types of situations that are particularly delicate fromthe point of view of their numerical approximation: The case of balancelaws, with the shallow water system as the main example, and the case ofhyperbolic equations with stiff source terms.In this work, we concentrate on the theoretical foundations of highresolutiontotal variation diminishing (TVD) schemes for homogeneousscalar conservation laws, firmly established. We analyze the propertiesof a second order, flux-limited version of the Lax-Wendroff scheme whichavoids oscillations around discontinuities, while preserving steady states.When applied to homogeneous conservation laws, TVD schemes preventan increase in the total variation of the numerical solution, hence guaranteeingthe absence of numerically generated oscillations. They are successfullyimplemented in the form of flux-limiters or slope limiters forscalar conservation laws and systems. Our technique is based on a fluxlimiting procedure applied only to those terms related to the physicalflow derivative/Jacobian. We also extend the technique developed by Chiavassaand Donat to hyperbolic conservation laws with source terms andapply the multilevel technique to the shallow water system.With respect to the numerical treatment of stiff source terms, we takethe simple model problem considered by LeVeque and Yee. We studythe properties of the numerical solution obtained with different numericaltechniques. We are able to identify the delay factor, which is responsiblefor the anomalous speed of propagation of the numerical solutionon coarse grids. The delay is due to the introduction of non equilibrium values through numerical dissipation, and can only be controlledby adequately reducing the spatial resolution of the simulation.Explicit schemes suffer from the same numerical pathology, even after reducingthe time step so that the stability requirements imposed by thefastest scales are satisfied. We study the behavior of Implicit-Explicit(IMEX) numerical techniques, as a tool to obtain high resolution simulationsthat incorporate the stiff source term in an implicit, systematic,manner.
58

Modelos de deconvolución ciega fraccionaria. Aplicaciones a la restauración de obras pictóricas.

Romero Sánchez, Pantaleón David 30 March 2009 (has links)
No description available.
59

Técnicas de interpolación weno y su aplicación al procesamiento de imágenes

Belda García, Ana María 01 March 2010 (has links)
Un problema común en la teoría de aproximación es la reconstrucción de una función a partir de un conjunto de valores discretos de datos que dan información sobre la función misma. Esta información por lo general viene dada como valores puntuales o medias en celda de la función sobre un conjunto finito de puntos o celdas, respectivamente. La función es aproximada por un interpolante, es decir, por otra función cuyos valores puntuales o medias en celda coinciden con los de la función original. Este interpolante puede ser construido por interpolación lineal. En este caso la exactitud de la aproximación cerca de una singularidad está limitada y depende del orden de la singularidad, de modo que si construimos el polinomio interpolador basándonos en un stencil que cruza la singularidad obtendremos una aproximación insatisfactoria. Esto significa que aumentar el grado del polinomio producirá regiones más grandes de mala aproximación alrededor de las singularidades. Para aumentar la exactitud la solución es escoger los puntos de forma que el stencil quede dentro de la parte suave de la función, siempre que esto sea posible. Esta es la idea que hay detrás de la técnica de interpolación ENO (Esencialmente No Oscilatoria), introducida por Harten et al., que es un procedimiento no lineal con el que la región de poca exactitud queda reducida al intervalo que contiene la singularidad, siempre y cuando las singularidades estén suficientemente bien separadas. Liu et al. introdujeron una mejora sobre la técnica ENO, llamada weighted ENO (ENO ponderado), que consiste en reconstruir un polinomio que interpola los valores puntuales de la solución de una ley de conservación hiperbólica a partir de las medias en celda de la solución débil. En la interpolación WENO se asignan a cada celda todos los stencils que la contienen, y el polinomio interpolador se calcula como combinación lineal convexa de todos los polinomios correspondientes a estos stencils. La clave es asignar los pesos más convenientes a la combinación. Estos pesos deben ser elegidos de forma que en la combinación los polinomios interpoladores en los stencils que cruzan una singularidad tengan una contribución casi nula. En las regiones suaves se utiliza la información proporcionada por todas las celdas contenidas en los stencils del proceso de selección ENO, y el resultado es un mayor orden de exactitud. En este trabajo se ha integrado la técnica WENO en el entorno de multirresolución de Harten, y se ha adaptado a los contextos de medias en celda y valores puntuales. En ambos casos se proponen nuevas medidas para la suavidad de una función. Además, en el contexto de valores puntuales se propone una modificación en la definición de los pesos WENO, que mejora el orden de la aproximación en presencia de singularidades. En la definición de los pesos WENO se introduce un ε positivo para evitar que el denominador se anule y se suele tomar ε constante. En esta tesis se propone tomar ε=h2, lo que permite demostrar que si la función es suave en al menos r+1 puntos y tiene una discontinuidad dentro del stencil de 2r puntos, entonces obtenemos al menos una aproximación de orden r+1, es decir, como mínimo obtenemos el mismo orden que el interpolante ENO, y en las zonas suaves de la función el orden de la aproximación es óptimo incluso en presencia de puntos críticos en los que se anulen las dos primeras derivadas. Las técnicas de interpolación WENO se comparan, mediante diferentes experimentos numéricos, con las técnicas de interpolación lineal, ENO y ENO-SR, para poder concluir qué método proporciona la mayor exactitud en cada caso. / A common problem in approximation theory is to reconstruct a function from a discrete set of data which gives information on the function itself. This information will usually come in the form of point-values or cell-averages of the function, which is then approximated by an interpolant, that is, another function whose values at a given set of points or cell-averages are equal to those of the original one. This interpolant can be built through linear interpolation, but in this case the accuracy of the approximation in the presence of a singularity is limited by the order of the singularity, so that any stencil crossing it will result in a poor approximation. In order to improve the accuracy of the approximation we need to choose stencils that avoid crossing singularities, whenever this is possible. That is the idea behind the ENO (essentially non-oscillatory) technique, introduced by Harten et al. WENO (weighted ENO) was introduced by Liu et al. as an improvement upon ENO. The idea is to assign to each subinterval all the stencils containing it, and construct the interpolating polynomial as a linear convex combination of the corresponding polynomials. In this way we use all the information provided by the nodes contained in the candidate stencils in the ENO selection process, and this should give a higher order of accuracy in smooth regions of the function. The key point is the assignment of weights to the convex combination. In this work we have incorporated WENO to Harten's multiresolution framework, and adapted it to the context of cell-averages and point-values. Moreover, for point-values we propose a modification in the definition of the weights, producing a higher order of accuracy in the presence of singularities. We also compare the WENO technique with other interpolation techniques through numerical experimentation.
60

La enseñanza de la resolución algebraica de problemas en el entorno de la hoja de cálculo

Arnau Vera, David 23 June 2010 (has links)
Nuestra investigación pretendía dar respuesta a: 1) ¿Cuáles son las actuaciones de los estudiantes cuando resuelven problemas en la hoja de cálculo después de haber sido instruidos en la resolución algebraica de problemas en dicho entorno? 2) ¿Cómo influye la enseñanza de la resolución algebraica de problemas en la hoja de cálculo en la competencia de los estudiantes cuando resuelven problemas verbales con lápiz y papel y, en especial, mediante el método cartesiano? Sobre el armazón de los Modelos Teóricos Locales construimos un marco teórico y metodológico que tenía por intención: A) Describir las características de la hoja de cálculo prestando especial atención a la sintaxis y la semántica de su lenguaje para poder compararlo con el lenguaje del álgebra. B) Determinar qué se considera una resolución algebraica competente en la hoja de cálculo (en adelante, MHC) y establecer similitudes y diferencias con la resolución mediante el método cartesiano (en adelante, MC). C) Diseñar una secuencia de enseñanza sobre la resolución algebraica de problemas verbales en la hoja de cálculo. D) Establecer un método que nos permitiera determinar lo próxima que una resolución se hallaba de la que realizaría un sujeto competente. La población de nuestro estudio experimental estaba formada por un grupo natural de 24 estudiantes de segundo curso de ESO. Para dar respuesta a la primera pregunta de investigación, analizamos la actuación de cinco parejas de estudiantes resolviendo seis problemas típicamente algebraicos tras haber sido instruidos en la resolución de problemas mediante el MHC. Las actuaciones observadas se puede pueden agrupar en: la tendencia a evitar el uso del MHC y en las dificultades y errores a la hora de usarlo. Dentro de la tendencia a evitar el uso del MHC podemos distinguir: 1) El uso de cantidades variables en lugar de cantidades determinadas que se manifiesta en el uso de lo que hemos llamado líneas de vida (donde se sustituye la operación con la cantidad desconocida tiempo transcurrido por el cálculo de la edad el año siguiente de manera recursiva) cuando se resuelven los problemas de edades y en la modelización de un posible proceso que une la situación descrita en el enunciado con otra situación hipotética en la que todas las cantidades son conocidas o se pueden calcular a partir de éstas. 2) El recurso a la aritmética. 3) El recurso al MC de manera verbal. Entre el catálogo de dificultades y errores al usar el MHC destacamos: la dificultad para operar con lo desconocido; la dificultad para invertir las relaciones obtenidas tras la lectura analítica; la falta de atención a las restricciones del problema para centrarse en la verificación de la ecuación; la tendencia a seguir calculando hasta "cerrar los cálculos" y la necesidad de que la igualdad se construya sobre dos expresiones de una cantidad conocida. Para dar respuesta a la segunda pregunta de investigación, comparamos las actuaciones de los estudiantes al resolver dos cuestionarios formados por ocho problemas isomorfos típicamente algebraicos: uno administrado previamente a la instrucción y el otro, al acabarla. El análisis de los resultados nos lleva a concluir que tras la enseñanza del MHC se incrementa el número de lecturas algebraicas, pero disminuye el uso del lenguaje del álgebra, produciéndose un aumento significativo del uso de valores provisionales para las cantidades desconocidas. También se observa que disminuye significativamente la competencia de los estudiantes al afrontar de manera algebraica problemas de la subfamilia edades, pero que aumenta en el resto de problemas; lo que parece plausible atribuir a las estrategias espontáneas, correctas o incorrectas, que usan los estudiantes en la hoja de cálculo cuando resuelven los problemas de edades. / Our research aimed to give an answer to: 1) Which are the student performances when trying to solve word problems on the spreadsheet after having been instructed in an algebraic problem solving method we call Spreadsheet Method (SM)? 2) How teaching SM has influence on student competence when they solve problems on paper and pencil, and, especially when they use the Cartesian Method (CM)? Our experimental study population consisted of a natural group of twenty-four secondary students (13-14 years old). The observed performances when trying to solve a problem on the spreadsheet are classified either according to the tendency to avoid using the SM or according to the difficulties and mistakes when using it. Regarding the tendency to avoid using the SM we can distinguish: 1) Using variable quantities instead of determined quantities. 2) Resorting to an arithmetical solving procedure. 3) Resorting to CM in a verbal way. Regarding the difficulties and mistakes we can distinguish: difficulties dealing with the unknown; difficulties reversing the connections obtained after an analytical reading; lack of attention to the problem restrictions in order to focus on the equation verification; the tendency to go on calculating until “closing the calculation”, and the need to build the equation using two expressions of a known quantity. Analysis findings lead us to conclude that after teaching SM, when students solve word problems using paper and pencil, the number of algebraic readings increases, but the use of algebraic language decreases, and a significant rise in the use of provisional values for the unknown quantities occurs. It is also worthwhile to notice that the student competence to face age problems in an algebraic way decreases significantly, but this algebraic competence increases when dealing with problems from other problem types.

Page generated in 0.0195 seconds