• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 335
  • 71
  • 2
  • Tagged with
  • 1113
  • 511
  • 292
  • 197
  • 166
  • 141
  • 121
  • 111
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 76
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
741

Assimilation de données et recalage rapide de modèles mécaniques complexes / Data assimilation and fast model-updating of complex mechanicalmodels

Marchand, Basile 29 November 2017 (has links)
Depuis plusieurs années, les évolutions considérables survenues au niveau des moyens de calcul à disposition ont entraîné de nouvelles pratiques de simulation des structures mécaniques. Parmi ces nouvelles pratiques celle qui motive ces travaux de thèse est le paradigme Dynamic Data Driven Application Systems (DDDAS). L’idée fondatrice de cette approche est de mettre en place un dialogue entre un système physique et son modèle numérique. L’objectif est alors de (i) permettre un recalage du modèle numérique à l’aide de mesures faites sur le système physique ; (ii) contrôler l’évolution du système physique à l’aide de la prédiction faite par la simulation numérique. La difficulté majeure est de réaliser ce dialogue en temps réel. Ces travaux de thèse se focalisent sur l’étape de recalage de modèle du paradigme DDDAS. La problématique est alors de développer des méthodes et outils de résolution de problèmes inverses prenant en compte diverses contraintes à savoir : (i) une robustesse vis-à-vis des données corrompues ; (ii) une généricité permettant de considérer une grande variété de problèmes et de modèles mécaniques ; (iii) un temps de calcul réduit afin de tendre vers un recalage de modèle en temps réel. Le point de départ de ces travaux est l’Erreur en Relation de Comportement modifiée, approche énergétique dédiée à la résolution des problèmes inverses en mécanique, s’étant notamment illustrée par sa grande robustesse vis-à-vis des bruits de mesure. Dans un premier temps, afin de garantir un processus d’identification rapide, nous avons couplé l’Erreur en Relation de Comportement modifiée avec la réduction de modèle PGD dans le cadre de modèle linéaire, permettant ainsi de mettre en place un processus d’identification rapide et automatique. Ensuite, dans le but d’être appliquée au paradigme DDDAS, nous avons développé une démarche d’identification reposant sur un processus d’assimilation de données (le filtre de Kalman) et utilisant l’Erreur en Relation de Comportement modifiée comme opérateur d’observation toujours dans le cadre de problèmes linéaires. Nous avons ensuite étendu cette méthode d’assimilation de données à la problématique de l’identification de champs de paramètres en introduisant une séparation des discrétisations spatiales et des outils provenant de l’adaptation de maillage. Nous avons ensuite abordé la problématique des modèles mécaniques non-linéaires, au travers de modèles d’endommagement et de visco-plasticité. Pour cela nous avons dans un premier temps reformulé et étendu le concept d’Erreur en Relation de Comportement modifiée à ce cadre non-linéaire matériau et nous avons mis en place un processus de résolution dédié, s’inspirant de la méthode LaTIn. Pour finir nous avons introduit cette reformulation de l’Erreur en Relation de Comportement modifiée au sein de la méthode d’assimilation de données développée précédemment afin de traiter le recalage dynamique de modèles non-linéaires. / For several years, the considerable changes that have occurredin computing tools have led to new practices in the simulation of mechanical structures. Among them, the motivation for this work is the Dynamic Data Driven Application Systems paradigm (DDDAS). The founding idea of this approach is to establish a dialogue between a physical system and its numericalmodel. The objective is then to (i) allow a calibration of the numerical model by means of measurements performed on the physical system; (ii) control the evolution of the physical system using theprediction given by numerical simulation. The major difficulty is to realize this dialogue in real time. This work focuses on the model updating step of the DDDAS paradigm. The problem is then to develop methods and tools to solve inverse problems taking into account various constraints, namely: (i) robustness with respect to corrupted data; (ii) genericity for considering a wide variety of problems and mechanical models; (iii) a reduced computation time in order to tend towards a real-time model updating.The starting point of this work is the modified Constitutive Relation Error, an energetic approach dedicated to the solution of inverse problems in mechanics, notably illustrated by its robustness with respect to measurement noises. First, in order to guarantee a fast identification process, we have coupled the modified Constitutive Relation Error with the PGD model reduction in the linear model framework, thus enabling a fast and automatic identification process. Then, in order to be applied to the DDDAS paradigm, we have developed an identification method based on a data assimilation process (the Kalman filter) and using the modified Constitutive Relation Error as an observer alwayswithin the framework of linear problems. We have then extended this data assimilation approach to the problem of the identification of parameter fields by introducing a separation of the spatial discretizations and by introducing tools resulting from the mesh adaptation framework. We have then addressed the problem of non-linear mechanical models, through damage and visco-plasticitymodels. To this end, we have first recast and extended the concept of the modified Constitutive Relation Error to this nonlinear material framework and we have implemented a dedicated resolution process, based on the LaTIn method. Finally, we have introduced this reformulation of the modified Constitutive Relation Error in the previously data assimilation method in order to process the model updating of nonlinear models.
742

Corrélations, intrication et dynamique des systèmes quantiques à N Corps : une étude variationnelle / Correlations, Entanglement and Time Evolution of Quantum many Body Systems : a variational study

Thibaut, Jérôme 09 July 2019 (has links)
Cette thèse porte sur l'étude de systèmes quantiques à N-corps à température nulle, où le comportement du système n'est alors soumis qu'aux effets quantiques. Je vais présenter ici une approche variationnelle développée avec Tommaso Roscilde, mon directeur de thèse, et Fabio Mezzacapo, mon co-encadrant de thèse, pour étudier ces systèmes.Cette approche se base sur une parametrisation de l’état quantique (dit Ansatz) à laquelle on applique une procédure d’optimisation variationnelle lui permettant de reproduire l'évolution d'un système soumis à l'équation de Schrödinger, tout en limitant le nombre de variables considérées. En considérant une évolution en temps imaginaire, il est possible d'étudier l'état fondamental d'un système. Je me suis ainsi intéressé à un modèle de chaîne XX de spins 1/2, dont les corrélations à longue portée rendent l'étude difficile, et adapté ainsi notre approche pour reproduire au mieux les corrélations et l'intrication du système. Je me suis ensuite intéressé au modèle J1-J2 dont la structure de signe non positive des coefficients de l’état quantique pose un défi important pour les approches Monte Carlo; et dans laquelle la frustration magnétique induit une transition de phase quantique (d’un état aux corrélations à longue porté vers un état non magnétique avec formation d’un cristal de lien de valence). Je me suis enfin intéressé à l'évolution temporelle d'un système à N-corps à partir d'un état non stationnaire. J'ai pu étudier la capacité de notre approche à reproduire la croissance linéaire de l’intrication dans le temps, ce qui est un obstacle fondamental pour les approches alternatives telles que le groupe de renormalisation de la matrice densité. / This thesis presents a study of quantum many-body systems at zero temperature, where the behavior of the system is purely driven by the quantum effects. I will introduce a variationnal approach developped with Tommaso Roscilde, my PhD supervisor, and Fabio Mezzacapo, my co-supervisor, in order to study these systems.This approach is based on a parametrisation of the quantum state (named Ansatz) on which we apply a variational optimisation, allowing us reproduce the system's evolution under Schrödinger's equation with a limited number of variables.By considering an imaginary-time evolution, it is possible to reconstruct the system's ground state. I focused on S=1/2 XX spin chain, where the long-range quantum correlations complicate a variational study; and I have specifically targeted our Ansatz in order to reproduce the correlations and the entanglement of the ground state. Moreover I considered the antiferromagnetic S=1/2 J1-J2 spin chain, where the non-trivial sign structure of the coefficients of the quantum state introduces an important challenge for the quantum Monte Carlo approach; and where the magnetic frustration induces a quantum phase transition (from a state with long range correlations to a non-magnetic state in the form of a valence-bond crystal).Finally I focused on the time evolution of a quantum many-body system starting from a non-stationary state. I studied the ability of our approach to reproduce the linear increase of the entanglement during time, which is a fondamental obstacle for other approaches such as the density-matrix renormalization group.
743

A multi-objective optimization framework for an inspection planning problem under uncertainty and breakdown / Un cadre d'optimisation multi-objectif pour les problèmes de planification des inspections avec prise en compte des incertitudes et défaillances

Mohammadi, Mehrdad 10 December 2015 (has links)
Dans les systèmes manufacturiers de plus en plus complexes, les variations du processus de fabrication et de ses paramètres opératoires ainsi que leurs effets sur l’ensemble du système doivent être maîtrisés, mesurés et contrôlés. Cette thèse propose un cadre d’optimisation pour l’élaboration d’un plan d’inspection optimal qui permet une prise de décision opérationnelle afin d’assurer la satisfaction des objectifs stratégiques (réduction des coûts, amélioration de la qualité, augmentation de la productivité, …). La prise de décision se divise en trois questions : Quoi contrôler ? Comment contrôler ? Quand contrôler ? Le manque d'informations fiables sur les processus de production et plusieurs facteurs environnementaux est devenu un problème important qui impose la prise en compte de certaines incertitudes lors de la planification des inspections. Cette thèse propose plusieurs formulations du problème d’optimisation de la planification du processus d'inspection, dans lesquelles, les paramètres sont incertains et les machines de production sont sujettes aux défaillances. Ce problème est formulé par des modèles de programmation mathématique avec les objectifs : minimiser le coût total de fabrication, maximiser la satisfaction du client, et minimiser le temps de la production totale. En outre, les méthodes Taguchi et Monte Carlo sont appliquées pour faire face aux incertitudes. En raison de la complexité des modèles proposés, les algorithmes de méta-heuristiques sont utilisés pour trouver les solutions optimales. / Quality inspection in multistage production systems (MPSs) has become an issue and this is because the MPS presents various possibilities for inspection. The problem of finding the best inspection plan is an “inspection planning problem”. The main simultaneous decisions in an inspection planning problem in a MPS are: 1) which quality characteristics need to be inspected, 2) what type of inspection should be performed for the selected quality characteristics, 3) where these inspections should be performed, and 4) how the inspections should be performed. In addition, lack of information about production processes and several environmental factors has become an important issue that imposes a degree of uncertainty to the inspection planning problem. This research provides an optimization framework to plan an inspection process in a MPS, wherein, input parameters are uncertain and inspection tools and production machines are subject to breakdown. This problem is formulated through several mixed-integer mathematical programming models with the objectives of minimizing total manufacturing cost, maximizing customer satisfaction, and minimizing total production time. Furthermore, Taguchi and Monte Carlo methods are applied to cope with the uncertainties. Due to the complexity of the proposed models, meta-heuristic algorithms are employed to find optimal or near-optimal solutions. Finally, this research implements the findings and methods of the inspection planning problem in another application as hub location problem. General and detail concluding remarks are provided for both inspection and hub location problems.
744

control theory for computing systems : application to big-data cloud services & location privacy protection / Contrôle des systèmes informatiques : application aux services clouds et à la protection de vie privée

Cerf, Sophie 16 May 2019 (has links)
Cette thèse présente une application de la théorie du contrôle pour les systèmes informatiques. Un algorithme de contrôle peut gérer des systèmes plus grands et plus complexes, même lorsqu'ils sont particulièrement sensibles aux variations de leur environnement. Cependant, l'application du contrôle aux systèmes informatiques soulève plusieurs défis, par exemple dû au fait qu'aucune physique ne les régisse. D'une part, le cadre mathématique fourni par la théorie du contrôle peut être utilisé pour améliorer l'automatisation, la robustesse et la fiabilité des systèmes informatiques. D'autre part, les défis spécifiques de ces cas d'étude permettent d'élargir la théorie du contrôle elle-même. L'approche adoptée dans ce travail consiste à utiliser deux systèmes informatiques d'application: la protection de vie privée liée à la mobilité et les performances des services clouds. Ces deux cas d'utilisation sont complémentaires par la nature de leurs technologies, par leur échelle et par leurs utilisateurs finaux.La popularité des appareils mobiles a favorisé la diffusion et la collecte des données de localisation, que ce soit pour que l'utilisateur bénéficie d'un service personnalisé (e.g. une planification d'itinéraire) ou pour que le prestataire de services tire des informations utiles des bases de données de mobilité (e.g. la popularité de lieux). En effet, de nombreuses informations peuvent être extraites de données de localisation, y compris des données personnelles très sensibles. Pour remédier à cette atteinte à la vie privée, des mécanismes de protection spécifiques aux données de mobilité (LPPM) ont été élaborés. Ce sont des algorithmes qui modifient les données de localisation de l'utilisateur, dans le but de cacher des informations sensibles. Cependant, ces outils ne sont pas facilement configurables par des non experts et sont des processus statiques qui ne s'adaptent pas à la mobilité de l'utilisateur. Dans cette thèse, nous développons deux outils, l'un pour les bases de données déjà collectées et l'autre pour l'utilisation en ligne, qui garantissent aux utilisateurs des niveaux de protection de la vie privée et de préservation de la qualité des services en configurant les LPPMs. Nous présentons la première formulation du problème en termes de théorie du contrôle (système et contrôleur, signaux d’entrée et de sortie), et un contrôleur PI pour servir de démonstration d’applicabilité. Dans les deux cas, la conception, la mise en œuvre et la validation ont été effectuées par le biais d'expériences utilisant des données d'utilisateurs réels recueillies sur le terrain.L'essor récent des bigdata a conduit au développement de programmes capables de les analyser, tel que MapReduce. Les progrès des pratiques informatiques ont également permis d'établir le modèle du cloud (où il est possible de louer des ressources de bas niveau pour permettre le développement d'applications de niveau supérieur sans se préoccuper d'investissement ou de maintenance) comme une solution incontournable pour tous types d'utilisateurs. Garantir les performances des tâches MapReduce exécutées sur les clouds est donc une préoccupation majeure pour les grandes entreprises informatiques et leurs clients. Dans ce travail, nous développons des techniques avancées de contrôle du temps d'exécution des tâches et de la disponibilité de la plate-forme en ajustant la taille du cluster de ressources et en réalisant un contrôle d'admission, fonctionnant quelle que soit la charge des clients. Afin de traiter les non linéarités de MapReduce, un contrôleur adaptatif a été conçu. Pour réduire l'utilisation du cluster (qui entraîne des coûts financiers et énergétiques considérables), nous présentons une nouvelle formulation du mécanisme de déclenchement du contrôle événementiel, combiné à un contrôleur prédictif optimal. L'évaluation est effectuée sur un benchmark s'exécutant en temps réel sur un cluster, et en utilisant des charges de travail industrielles. / This thesis presents an application of Control Theory for Computing Systems. It aims at investigating techniques to build and control efficient, dependable and privacy-preserving computing systems. Ad-hoc service configuration require a high level of expertise which could benefit from automation in many ways. A control algorithm can handle bigger and more complex systems, even when they are extremely sensitive to variations in their environment. However, applying control to computing systems raises several challenges, e.g. no physics governs the applications. On one hand, the mathematical framework provided by control theory can be used to improve automation and robustness of computing systems. Moreover, the control theory provides by definition mathematical guarantees that its objectives will be fulfilled. On the other hand, the specific challenges of such use cases enable to expand the control theory itself. The approach taken in this work is to use two application computing systems: location privacy and cloud control. Those two use-cases are complementary in the nature of their technologies and softwares, their scale and in their end-users.The widespread of mobile devices has fostered the broadcasting and collection of users’ location data. It could be for the user to benefit from a personalized service (e.g. weather forecast or route planning) or for the service provider or any other third party to derive useful information from the mobility databases (e.g. road usage frequency or popularity of places). Indeed, many information can be retrieved from location data, including highly sensitive personal data. To overcome this privacy breach, Location Privacy Protection Mechanisms (LPPMs) have been developed. They are algorithm that modify the user’s mobility data, hopefully to hide some sensitive information. However, those tools are not easily configurable by non experts and are static processes that do not adapt to the user’s mobility. We develop two tools, one for already collected databases and one for online usage, that, by tuning the LPPMs, guarantee to the users objective-driven levels of privacy protection and of service utility preservation. First, we present an automated tool able to choose and configure LPPMs to protect already collected databases while ensuring a trade-off between privacy protection and database processing quality. Second, we present the first formulation of the location privacy challenge in control theory terms (plant and control, disturbance and performance signals), and a feedback controller to serve as a proof of concept. In both cases, design, implementation and validation has been done through experiments using data of real users collected on the field.The surge in data generation of the last decades, the so-called bigdata, has lead to the development of frameworks able to analyze them, such as the well known MapReduce. Advances in computing practices has also settled the cloud paradigms (where low-level resources can be rented to allow the development of higher level application without dealing with consideration such as investment in hardware or maintenance) as premium solution for all kind of users. Ensuring the performances of MapReduce jobs running on clouds is thus a major concern for the big IT companies and their clients. In this work, we develop advanced monitoring techniques of the jobs execution time and the platform availability by tuning the resource cluster size and realizing admission control, in spite of the unpredictable client workload. In order to deal with the non linearities of the MapReduce system, a robust adaptive feedback controller has been designed. To reduce the cluster utilization (leading to massive financial and energetic costs), we present a new event-based triggering mechanism formulation combined with an optimal predictive controller. Evaluation is done on a MapReduce benchmark suite running on a large-scale cluster, and using real jobs workloads.
745

Quatre réponses au problème de la combinaison pour le monisme russellien

Tremblay-Baillargeon, Victor 08 1900 (has links)
Le « problème difficile de la conscience » consiste à comprendre pourquoi certains processus physiques, comme ceux ayant lieu dans le cerveau humain, donnent lieu à de la conscience, c’est-à-dire à de l’expérience subjective. Ce mémoire se penche sur une théorie cherchant à répondre au problème difficile de la conscience : le monisme russellien. Cette théorie affirme en bref que la conscience est la nature intrinsèque de la matière. Le monisme russellien espère pouvoir expliquer l’existence de la conscience humaine en posant la conscience au niveau fondamental de la réalité. Toutefois, des critiques affirment que cette théorie est incapable d’expliquer comment la conscience présente dans la matière pourrait se combiner pour former la conscience humaine. Une telle objection se nomme le « problème de la combinaison ». Après une présentation du monisme russellien et du problème du la combinaison, la plausibilité de quatre différentes réponses au problème de la combinaison sera évaluée. Ces quatre réponses tâchent de rendre intelligible la manière dont la conscience présente dans la matière pourrait se combiner pour constituer la conscience humaine. / The "hard problem of consciousness" is the problem of understanding why certain physical processes, such as those taking place in the human brain, give rise to consciousness, or subjective experience. This thesis examines a theory that seeks to answer the hard problem of consciousness: Russellian monism. In short, this theory asserts that consciousness is the intrinsic nature of matter. Russellian monism hopes to explain the existence of human consciousness by positing consciousness at the fundamental level of reality. However, critics claim that this theory is unable to explain how consciousness present in matter could combine to form human consciousness. Such an objection is called the "problem of combination". After a presentation of Russellian monism and the combination problem, I critically evaluate the plausibility of four different answers to the combination problem. These four different answers try to make intelligible the way in which consciousness present in matter could combine to constitute human consciousness.
746

«Qu’est-ce que ça peut bien être?» : ethnographie d’une communauté dédiée au paranormal sur Reddit

Walle, Léa 12 1900 (has links)
Les échanges au sujet de phénomènes paranormaux sont présents et bien installés sur le web. Le choix de plateformes qui s’offre aux utilisateurs est vaste pour partager son expérience avec les autres. Certains choisissent Reddit et particulièrement des subreddits dédiés au paranormal. Ce mémoire analyse une communauté en ligne, active sur le subreddit r/Ghosts, constituée de fans des phénomènes paranormaux. Je m’interroge sur les moyens mis en œuvre par cette communauté pour interagir dans le but de faire sens de la question de la potentielle existence des fantômes. À l’aide de concepts comme l’interactionnisme symbolique, la culture participative et l’intelligence collective, j’ai analysé une quarantaine d’interactions textuelles issues d’un partage de contenu médiatique. Les membres de la communauté, appelés redditors, interagissent pour trouver des solutions à des énigmes perçues comme étant de nature paranormale, mais aussi pour discuter et se divertir. Ces redditors interagissent avec différentes valeurs et croyances, parfois partagées. / The web is awash with conversations about paranormal activity. There are a lot of platforms on which users can share their experience. Some choose to pick Reddit and particularly subreddits dedicated to the paranormal. This master’s thesis studies the subreddit r/Ghosts, an online community (OC) dedicated to ghosts. Here, I question the means used by this OC to make sense of the possible existence of ghosts via interaction. Using theories and concepts such as symbolic interactionism, participatory culture, and collective intelligence, I studied over forty textual interactions initiated by a post including a media (picture, video, or audio). The redditors of r/Ghosts interact with each other to figure out paranormal enigmas but also to simply discuss or for entertainment purposes. They interact with different values and beliefs that they sometimes share.
747

Étude sur l’épistémologie naturalisée de Hermann von Helmholtz et Friedrich-Albert Lange dans la seconde moitié du XIXe siècle et ses analogies argumentaires avec l’épistémologie naturalisée de W.V.O. Quine au XXe siècle.

Descarreaux, Samuel 19 January 2024 (has links)
Cet ouvrage est consacré au kantisme non orthodoxe de Friedrich-Albert Lange (1828-1875) et Hermann von Helmholtz (1821-1894) développé dans la seconde moitié du XIXe qui propose une révision psychophysique de l’épistémologie kantienne. On affirme que ce procédé n’aboutit pas à une réduction psychologique de la connaissance qui aurait pour conséquence d’éliminer une objectivité judicative (contrairement à ce que prétendent plusieurs commentateurs) ; en revanche, ce procédé apporte des modifications significatives aux conditions de possibilité nécessaires et universelles de l’expérience qui légitiment chez Kant une objectivité judicative. On démontre que l’épistémologie développée par ces deux auteurs peut être qualifiée de « naturalisme méthodologique » et partage avec l’épistémologie naturalisée développée au XXe siècle par Willard von Orman Quine (1908-2000) une série de stratégies argumentaires analogues qui expliquent essentiellement « how evidence relates to theory, and in what ways one's theory of nature transcends any available evidence. » (Quine, 1969, 83) Ainsi afin de soutenir qu’il existe une telle épistémologie naturalisée au XIXe siècle, on divise l’ouvrage en trois parties. La première section (chapitres premier et deuxième) introduit le concept de « naturalisme épistémologique » et étudie ses conséquences doctrinales et conceptuelles. La seconde section (chapitres troisième, quatrième et cinquième) argumente que l’inscription de l’épistémologie kantienne dans un cadre conceptuel naturalisé n’implique pas l’élimination d’une réflexion de second ordre sur les raisons qui légitiment une objectivité judicative au profit d’une simple étude des causes psychophysiques de la perception et des jugements qui s’y rapporte. La troisième section (chapitres sixième et septième) est consacrée à la question de l’objectivité des jugements logico-mathématiques et plus particulièrement à leur signification intuitive dans le cadre de l’expérience psychophysique. À partir de ces trois sections, on prétend pouvoir démontrer que l’épistémologie naturalisée de Helmholtz, Lange et Quine mobilise des stratégies argumentaires structurellement analogues malgré des contextes historiques et conceptuels radicalement différents. On retrouve à la fin de chaque section des remarques conclusives comparatives qui mettent en valeur (autant que faire se peut) ces stratégies argumentaires analogues utilisées au XIXe et au XXe siècle.
748

Évaluations cognitives des embêtements quotidiens et stratégies d'adaptation de femmes âgées cliniquement déprimées et non déprimées

Gerbaux, Sylvie 03 December 2021 (has links)
Cette étude a comparé les évaluations cognitives et les stratégies d'adaptation de 93 femmes âgées non déprimées et 38 femmes âgées cliniquement déprimées face à un embêtement quotidien. Les évaluations cognitives ont été définies en demandant aux sujets d'identifier les intérêts qui étaient impliqués - dans la situation et les options disponibles pour la résoudre. Les stratégies ont été mesurées en déterminant les actions et pensées émises pour résoudre le problème. Les sujets déprimés ont rapporté significativement plus d'intérêts reliés au bien-être personnel et à l'estime de soi et ont eu moins tendance à accepter la situation que les non déprimés. Les déprimés ont utilisé significativement plus de stratégies d'échappement-évitement et de responsabilisation que les non déprimés tandis que ces derniers ont eu plus recours à des stratégies de distanciation, d'auto-contrôle, de solution de problème et de réévaluation positive. Ces résultats sont discutés à la lumière du modèle transactionnel du stress de Lazarus.
749

Stabilité des notions cinématiques et métacognition

Huot, Alain 23 March 2022 (has links)
La théorie piagétienne permet d'évaluer les structures cognitives sollicitées lors de la présentation de situations à résolution de problèmes comme celles de mise en relation du temps, de l'espace et de la vitesse (les notions cinématiques). On observe, en cours de développement de ces notions, l'application d'algorithmes de raisonnement associés à des réponses caractéristiques. Le modèle de Crépault identifie certains de ces algorithmes. Des réponses conformes aux prédictions du modèle ont été observées lors de l'administration de problèmes de physique cinématique à des sujets adultes. Deux variantes d'une méthode métacognitive, introduites pour maximiser les performances des sujets expérimentaux, en facilitant leur représentation des problèmes, ont été testées. Contrairement à ce qui était attendu, elles ont été associées à une chute des performances et semblent avoir généré de la confusion.
750

Les pratiques d'enseignement en mathématiques : une analyse de l'enseignement de la résolution de problèmes ayant une structure additive chez les élèves du primaire

Oval-Soto, Carmen Paz 19 April 2018 (has links)
Dans cette étude, nous avons cherché à mieux comprendre la pratique enseignante lors de l'enseignement de la résolution de problèmes mathématiques pour les élèves du premier cycle du primaire. La compréhension de ces pratiques passe par une prise en compte de différentes composantes, allant de la planification à l’action réelle en classe et à ce qui guide l’enseignant. Pour atteindre notre objectif, nous avons analysé l’activité de quatre enseignants de deuxième année du primaire et leur classe pendant les séances d’enseignement de la résolution de problèmes ayant une structure additive. Nous avons observé deux séances qui ont été complétées par des entrevues avec chacun des enseignants (avant et après enseignement). Dans chacun des cas, une analyse en profondeur des séances en classe et des entrevues a permis de faire ressortir différentes caractéristiques des pratiques d’enseignement de la résolution de problèmes considérées, notamment sur le plan de ce qui sous-tend celles-ci (ce qui guide la planification et la pratique en classe), faisant ressortir la cohérence de cette pratique. L’analyse des séances en classe a par ailleurs permis de mettre en évidence le fait que, même si les conceptions éducatives des enseignants ne sont pas tout à fait les mêmes, nous avons pu noter que les stratégies d’enseignement considérées sont semblables dans l’action réelle en classe, autour de différentes tâches. Finalement, les caractéristiques qui se dégagent de l’analyse de ces quatre pratiques différentes de l’enseignement de la résolution de problèmes éclairent le rôle de l’enseignant dans l’apprentissage de la résolution de problèmes par les élèves et renseignent sur ce que ces enseignants considèrent qu’il est important d’apprendre. / In this study, we sought to better understand the way that problem solving practices must be taught during math class in primary school. The understanding of this issue comes from the need for consideration of the various components that are involved in this practice, and from the planning of the effective actions that the teacher guides must take into account in class. To achieve this goal, we analyzed the activity of four teachers of second grade classes during two sessions concerning the teaching problem solving with an additive structure. The observations were supplemented by interviews with each teacher (before and after teaching). In-depth analysis, for each case, classroom sessions and interviews helped to highlight the different characteristics of teaching problem solving when considering practices that underlay them (which guide the planning and classroom practice), showing the consistency of this practice. Analysis of class sessions also allowed highlighting the fact that although education teachers' conceptions are not quite the same, we noted that teaching strategies are considered similar in real action in the classroom, around different tasks. Finally, the characteristics that emerge from the analysis of these four different practices around the teaching of problem solving come to illuminate the role of the teacher in learning problem solving by students and that those teachers consider being important to learn.

Page generated in 0.0724 seconds