1 |
Projet de réflexionGrove, Erin Lynne. Pinto, Christine. Minvielle, Alix. Noël, Elisabeth January 2007 (has links)
Mémoire de master en sciences de l'information et des bibliothèques : Services documentaires numériques : Villeurbanne, ENSSIB : 2007. / Texte intégral. Résumé en français et en anglais. Bibliogr. f. 83-86. Sitographie f. 87.
|
2 |
Média de source : un nouvel acteur sur la scène journalistique brésilienne : un regard sur l'action médiatique du Sénat fédéral du Brésil /Sant'Anna, Francisco Cláudio Corrêa Meyer. January 2009 (has links)
Thèse de doctorat--Information-communication--Rennes 1, 2007. / Thèse honorée d'une mention spéciale par le jury du Prix de thèse du Sénat pour 2008. Bibliogr. p. 529-568. Webliogr. p. 567.
|
3 |
Déterminants de l'information reçue chez les femmes enceintes défavorisées au QuébecSogbohossou, Codjo Paulin January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
4 |
Détection de doublons parmi des informations non structurées provenant de sources de données différentesBeauchemin, David 02 February 2024 (has links)
Ce mémoire rend compte de l’exploration de deux approches de détection des doublons entre les descriptions d’entreprises d’une base de données interne et celles d’une source externe non structurée en assurance commerciale. Puisqu’il est coûteux et fastidieux pour un assureur de recueillir les informations nécessaires au calcul d’une prime d’assurance, notre motivation est de les aider à minimiser la quantité de ressources nécessaires à leur acquisition en leur permettant d’utiliser des sources de données externes. Dans ce mémoire, nous avons d’abord observé que l’utilisation d’algorithmes de similarité permet de détecter la majorité des doublons entre les sources de données à partir du nom. Nos expérimentations indiquent que lorsqu’on utilise le nom comme source de comparaison entre les entités, une très grande majorité de ces doublons peut être identifiée. Des expérimentations similaires, mais avec l’adresse, nous ont permis d’observer qu’il était aussi possible d’identifier les doublons d’entreprises par cet attribut, mais dans une moins grande proportion. Par la suite, nous avons entraîné des modèles d’apprentissage automatique afin de coupler les entreprises en double par le nom et l’adresse conjointement. C’est avec ces modèles que nous avons observé les meilleurs résultats. Dans une tentative finale d’améliorer davantage nos résultats, nous avons assoupli notre hypothèse initiale, qui impliquait d’utiliser l’entité la plus probable d’être le doublon d’une entreprise, pour utiliser les N entités les plus probables, ce qui a permis de maximiser le rappel à 91,07 %. / This thesis reports the exploration of two approaches to detecting duplicates between the companies descriptions in an internal database and those in an unstructured external source in commercial insurance. Since it is costly and tedious for an insurer to collect the information required to calculate an insurance premium, our motivation is to help them minimize the amount of resources necessary by extracting that information directly from external databases. In this thesis, we first observed that the use of similarity algorithms allows us to detect most of the duplicates between databases using the name. Our experiments indicate that when the name is used as a source of comparison between the entities, a vast majority of these duplicates can be identified. Similar experiments, but using the address this time, allowed us to observe that it was also possible to identify duplicate companies by this feature, but to a lesser extent. Subsequently, we trained machine learning models to match duplicate companies using the name and the address at the same time. It is with these models that we observed the best results. In a final attempt to further improve our results, we used the N most likely entities to be a duplicate of a company, instead of only the first one, thus maximizing the recall to 91.07%.
|
5 |
Expérience d'utilisation de deux outils de consultation des méthodes de soins informatisées (MSI) chez des infirmières en chirurgieLambert, Audrey 27 January 2024 (has links)
La Direction des soins infirmiers (DSI) du CHU de Québec-Université Laval (CHU de QC-UL) et celle de l’Institut Universitaire de cardiologie et de pneumologie de Québec (IUCPQ) se sont investies dans l’élaboration des méthodes de soins interactives (MSI). Les MSI représentent une source d’information destinée au personnel infirmier. Il s’agit d’un ensemble de documentation clinique qui permet de guider la pratique des infirmières afin qu’elles prodiguent des soins selon les meilleures pratiques cliniques harmonisées avec l’établissement de santé. Deux types de plateformes informatisées sont utilisées dans ces deux milieux hospitaliers : l’une d’entre elles est intégrée au dossier clinique informatisée (DCI) alors que pour l’autre, les infirmières doivent quitter leur interface de travail et ouvrir une nouvelle interface pour chercher la MSI dont elles ont besoin. Le but de cette étude exploratoire était de comprendre et de comparer l’expérience d’utilisation des MSI chez les infirmières qui travaillent en chirurgie au CHU de QC-UL et à l’IUCPQ. La MSI reliée à l’insertion, l’entretien et le retrait d’une sonde urinaire était la MSI d’intérêt pour cette étude étant donné que c’est une méthode de soins courante chez les infirmières. Les résultats de l’étude ont montré que les infirmières consultent les deux différentes plateformes des MSI, tant au CHU de QC-UL qu’à l’IUCPQ, et que chacun des moteurs de recherche nécessite des modifications importantes quant à la qualité de leur système ainsi qu’à la qualité des informations que l’on y retrouve pour que leur implantation dans les unités de soins soit optimale. La convivialité des deux interfaces devrait être améliorée afin que les utilisateurs soient satisfaits d’utiliser le service, ce qui les inciterait à consulter davantage les MSI. Une consultation optimale des MSI permettrait aux infirmières de les intégrer davantage à leurs pratiques courantes afin de guider leur pratique clinique selon les meilleures données probantes et entrainerait ainsi des retombées positives pour les patients (qualité des soins et sécurité des patients). / The Nursing Director of the CHU de Québec-Université Laval (CHU de QC-UL) and that of the Institut Universitaire de cardiologie et de pneumologie de Québec (IUCPQ) have been involved in the development of nurse-driven procedures. Nurse-driven protocols are a source of information for nurses. They provide a set of clinical documents that guides the practice of nurses to provide care according to best clinical practices harmonized with the health institution. Two types of computerized platforms are used in these hospitals. One of them is integrated into the hospital Clinical Information System (CIS), while for the other, nurses have to leave their work interface and open a new interface to look for the nurse-driven protocols. The purpose of this exploratory study was to understand and compare the experience of using nurse-driven protocols among nurses working in surgery units at the CHU de QC-UL and the IUCPQ. The nurse-driven protocols related to the insertion, maintenance and removal of a urinary catheter was of interest for this study since it is a common care method among nurses. The results of the study showed that nurses consult nurse-driven protocols platforms at both CHU de QC-UL and IUCPQ, and that both computerized platforms require significant changes in the quality of their system and the quality of the information to be optimally implemented in the care units. The usability of both interfaces needs to be improved so that users are satisfied with the service, which will encourage them to consult the nurse-driven protocols. Optimal consultation of nurse-driven protocols would allow nurses to integrate them more into their current practices, which would guide their clinical practice according to the best evidence and could thus have a positive impact on patients (quality of care and patient safety)
|
6 |
L'offre de services en ligne d'un Système d'Information Documentaire besoins et usages dans le contexte universitaire du SCD Lyon 1 /Gramondi, Laurence Roux-Fouillet, Jean-Paul. January 2005 (has links) (PDF)
Mémoire d'étude diplôme de conservateur des bibliothèques : Bibliothéconomie : Villeurbanne, ENSSIB : 2004.
|
7 |
Bayesian data fusion in environmental sciences : theory and applicationsFasbender, Dominique 17 November 2008 (has links)
During the last thirty years, new technologies have contributed to a
drastic increase of the amount of data in environmental sciences.
Monitoring networks, remote sensors, archived maps and large databases are
just few examples of the possible information sources responsible for this
growing amount of information. For obvious reasons, it might be
interesting to account for all these information when dealing with a
space-time prediction/estimation context.
In environmental sciences, measurements are very often sampled scarcely
over space and time. Geostatistics is the field that investigates
variables in a space-time context. It includes a large number of methods
and approaches that all aim at providing space-time predictions (or
interpolations) for variables scarcely known in space and in time by
accounting for space-time dependance between these variables. As a
consequence, geostatistics methods are relevant when dealing with the
processing and the analysis of environmental variables in which space and
time play an important role.
As direct consequence of the increasing amount of data, there is an
important diversity in the information (e.g. different nature, different
uncertainty). These issues have recently motivated the emergence of the
concept of data fusion. Broadly speaking, the main objective of data
fusion methods is to deal with various information sources in such a way
that the final result is a single prediction that accounts for all the
sources at once. This enables thus to conciliate several and potentially
contradictory sources instead of having to select only one of them because
of a lack of appropriate methodology.
For most of existing geostatistics methods, it is quite difficult to
account for a potentially large number of different information sources at
once. As a consequence, one has often to opt for only one information
source among all the available sources. This of course leads to a
dramatic loss of information. In order to avoid such choices, it is thus
relevant to get together the concepts of both data fusion and
geostatistics in the context of environmental sciences.
The objectives of this thesis are (i) to develop the theory of a Bayesian
data fusion (BDF) framework in a space-time prediction context and (ii) to
illustrate how the proposed BDF framework can account for a diversity of
information sources in a space-time context. The method will thus be
applied to a few environmental sciences applications for which (i) crucial
available information sources are typically difficult to account for or
(ii) the number of secondary information sources is a limitation when
using existing methods.
Reproduced by permission of Springer. P. Bogaert and D. Fasbender (2007). Bayesian data fusion in a spatial prediction context: a general formulation. Stoch. Env. Res. Risk. A., vol. 21, 695-709. (Chap. 1).
© 2008 IEEE. Reprinted, with permission, from D. Fasbender, J. Radoux and P. Bogaert (2008). Bayesian data fusion for adaptable image pansharpening. IEEE Trans. Geosci. Rem. Sens., vol. 46, 1847-1857. (Chap. 3).
© 2008 IEEE. Reprinted, with permission, from D. Fasbender, D. Tuia, P. Bogaert and M. Kanevski (2008). Support-based implementation of Bayesian data fusion for spatial enhancement: applications to ASTER thermal images. IEEE Geosci. Rem. Sens. Letters, vol. 6, 598-602. (Chap. 4).
Reproduced by permission of American Geophysical Union. D. Fasbender, L. Peeters, P. Bogaert and A. Dassargues (2008). Bayesian data fusion applied to water table spatial mapping. Accepted for publication in Water Resour. Res. (Chap. 5).
|
8 |
Contrôle du flot d'information par des techniques basées sur le langage de programmationSimo, Jean Claude 23 April 2018 (has links)
Un programme est dit non interférent si les valeurs de ses sorties publiques ne dépendent pas des valeurs de ses entrées secrètes. Des études ont montré que par l'analyse du flot d'information, on peut établir et contrôler cette propriété ou des propriétés qui lui sont étroitement liées. Dans ce travail, nous examinons en détail les modèles d'analyse de flot d'information existants, et esquissons une nouvelle approche dans un paradigme concurrent. La première partie de ce mémoire présente les différentes formulations de la non-interférence et un survol des grandes familles de mécanismes d'analyse de flot d'information. En second lieu, nous présentons en détail quelques mécanismes récents d'analyse sensibles aux flots, applicables à la programmation séquentielle. Mécanismes statiques pour certains, dynamiques ou hybrides pour d'autres. Dans la troisième partie, nous explorons deux modèles récents de sécurisation des flots d'information dans un programme concurrent. Les deux modèles ont en commun la particularité de proposer des traitements pour sécuriser l'interaction entre les programmes et l'ordonnanceur. Nous terminons par une esquisse de notre nouvelle approche, basée sur l'analyse des dépendances entre les variables d'un programme concurrent. / A program is said to be noninterfering if the values of its public (or low) outputs do not depend on the values of its secret (or high) inputs. Various researchers have demonstrated how this property (or closely related properties) can be achieved through information flow analysis. In this work, we present in detail some existing models of information flow analysis, and sketch a new approach of analysis for concurrent programming. The first part of this thesis presents the different formulations of non-interference, and an overview of the main types of information flow analysis. In the second part, we examine in detail some recent static and dynamic (hybrid) flow-sensitive analysis models, for a simple imperative language. In the third part, we explore two recent models of secure information flow in concurrent programs, which develop a novel treatment of the interaction between threads and the scheduler to prevent undesired interleaving. We end with a sketch of the foundations for another approach, based on the analysis of dependencies between variables of concurrent programs.
|
9 |
Sources identifiées et sources anonymes : un regard croisé sur les élections présidentielles en France (2007) et au Mexique (2006) à travers : le Monde, Reforma, l'AFP et Notimex / Identified and anonymous sources via the coverage of two presidential campaigns : in France (2007) and Mexico (2006) by Le Monde, Reforma, AFP and NotimexRuelas Flores, María del Socorro 12 June 2015 (has links)
L’objectif de cette thèse qui se situe dans un contexte franco-mexicain est d’étudier à travers deux quotidiens dits de « référence », Le Monde et Reforma ainsi que deux agences de presse, l’AFP et Notimex, la mobilisation des sources identifiées et des sources anonymes dans la production de l’information journalistique pendant la couverture des campagnes présidentielles en France (2007) et au Mexique (2006). Ces deux périodes représentent pour chaque pays un moment fort de leur histoire politique contemporaine. Pour la France, alors que la droite est toujours au pouvoir, la possibilité du retour de la gauche passe par la candidature d’une femme, ce qui est une première. Pour le Mexique, les élections présidentielles latino-américaines précédentes confirmant un virage à gauche dans la région, les sondages donnent gagnante pour la première fois la gauche mexicaine.Reprenant l’approche sociologique de Georg Simmel, nous analysons ici la production informative comme un processus d’interaction complexe entre les journalistes et leurs sources. Pour ce faire, nous avons exploité un corpus constitué de comptes-rendus et de dépêches d’agence, ainsi que d’entretiens semi-directifs réalisés auprès des journalistes. À partir d’une analyse de contenu à la fois horizontale et verticale, nous avons croisé diverses variables pouvant faire ressortir les divergences et les convergences, ainsi que les constantes et les variantes relevées au long de la période retenue. / In a French-Mexican context, the main purpose of this thesis is to study across two major daily newspapers, Le Monde and Reforma and two news agencies AFP and Notimex, the use of identified and anonymous sources via their coverage of presidential campaigns in France (2007) and Mexico (2006). These two periods in both countries were a highlight moment in their contemporary political history. In France, for the first time, a woman represented a major left French party in a presidential contest. In Latin America the earlier presidential elections confirm a left turn in the region and the polls were indicating for the first time, the Mexican left as a winner. By revisiting Simmel’s sociological approach, newsmaking is analyzed as a complex interaction between journalists and their sources. The survey is limited to articles and the coverage of each newspaper and agency and interviews with journalists. The study of textual information and media production was organized and analyzed in order to compare various actors and their related newspaper coverage. The study is achieved by cross-comparing differences and similarities in the discourse, and constants and variables over time.
|
10 |
L'utilisation de données de sources multiples en communauté d'apprentissage professionnelle : implantation d'un processus de la prise de décision pédagogique et conception d'un outil technologiqueVilleneuve, André 10 February 2024 (has links)
La mondialisation, considérée comme un processus d'intégration internationale des ressources nationales sur les plans économique, culturel et démographique, exacerbe la concurrence entre les pays (OECD, 2005; Sahlberg, 2016). Cette concurrence amène d'ailleurs plusieurs d'entre elles à nouer des alliances stratégiques et à coopérer pour conserver ou améliorer leur positionnement dans ce marché globalisé (OECD, 2005). Pour faire face à cette concurrence mondialisée, un discours réclamant des réformes en profondeur en éducation s'est propagé à l'internationale par les représentants des organisations internationales durant les dernières décennies (Maroy, 2021). Ce discours s'inscrit dans ce que Sahlberg (2016) désigne de mouvement mondial de réforme de l'éducation (Global Education Reform Movement) influencé par ce que d'autres auteurs identifieront comme étant l'idéologie de la nouvelle gestion publique (Chappoz, 2012; Lane, 2000). La qualité des systèmes éducatifs représente pour ainsi dire le socle sur lequel repose l'avenir des pays. La formation continue des citoyens tout au long de la vie permet donc aux pays de s'adapter aux contingences de l'évolution permanente des connaissances et des compétences sur un marché du travail de plus en plus intégré (Brian, 2007). L'appel incessant des gouvernants et des organisations supranationales, comme l'Organisation de coopération et de développement économique (OCDE), à réformer les systèmes éducatifs de nombreux pays démocratiques est éloquent à cet égard (Charbonnier & Gouëdard, 2020; Maroy, 2021). La régulation des systèmes éducatifs par les résultats s'inscrit dans cette marche ascensionnelle de la mondialisation et des réformes en éducation. Cette régulation est marquée par une utilisation systématique des données chiffrées à des fins d'amélioration continue de la performance des systèmes éducatifs qui implique une amélioration du fonctionnement des centres de services scolaires (CSS) et des établissements scolaires (ÉS), notamment en matière de pratiques professionnelles, de taux de diplomation et de réduction des inégalités sociales (Maroy, 2013). Spécifiquement, on parle ici d'amélioration continue de l'enseignement et de l'apprentissage dont l'actualisation se réalise en définitive dans les ÉS. Aussi, l'on associe la régulation par les résultats à la promotion de l'autonomie des ÉS. Cette autonomie va de pair avec une augmentation de la responsabilisation des acteurs tels que les gestionnaires des CSS, les directions d'établissement (DÉ) et les enseignants. Cette autonomie va également de pair avec l'obligation de rendre des comptes typiquement aux parents, aux CSS et au ministère de l'Éducation quant aux résultats obtenus par rapport aux objectifs établis, aux indicateurs de performance fixés et aux moyens retenus pour les atteindre (Maroy, 2021). Dans ce contexte, la prise de décision appuyée sur les données en éducation représente dès lors un champ de recherche pertinent pour répondre au besoin d'amélioration continue de l'enseignement et de l'apprentissage à l'échelle des ÉS, des CSS et du système éducatif. Cette recherche doctorale s'inscrit dans cette quête d'amélioration continue de l'enseignement et de l'apprentissage dans le cadre du fonctionnement des équipes-écoles en communautés d'apprentissage professionnelles. La difficulté pour celles-ci d'utiliser les données accessibles ou produites dans les établissements scolaires (ÉS), particulièrement en ce qui concerne leur analyse (Bouchamma et al., 2019), dissimule en réalité des limites quant aux compétences professionnelles des acteurs locaux et à la capacité des outils technologiques existant à valoriser les données de sources et de types multiples (données quantitatives et qualitatives). Une communauté d'apprentissage professionnelle (CAP) d'une école secondaire de la région de la Chaudière-Appalaches s'est engagée à répondre à cette difficulté en implantant et en expérimentant un processus de la prise de décision pédagogique appuyé sur les données locales de sources multiples (PDPADLSM), à savoir sur les données qui sont accessibles ou produites dans les ÉS. Quatre enseignants¹ et un praticien-chercheur ont participé à cette recherche sur une base volontaire. Cette recherche appliquée repose sur un devis de type qualitatif qui se présente sous la forme d'une recherche-action suivant une perspective pragmatique et fonctionnaliste (Van der Maren, 2014). Dans la pratique, cette recherche vise l'amélioration du fonctionnement des ÉS et plus spécifiquement des CAP. Le corpus rassemble des données qualitatives provenant d'un questionnaire, d'entrevues semi-structurées, de comptes-rendus analytiques, d'extraits du journal de bord du praticien-chercheur et de la correspondance électronique entretenue entre les enseignants et le praticien-chercheur. L'analyse en mode écriture (Paillé & Mucchielli, 2016a) et thématique (Paillé & Mucchielli, 2016b) ainsi que la modélisation systémique (Buckley & Waring, 2013; Gendron & Richard, 2015) constituent les dispositifs de traitement des données. En guise d'amorce, le praticien-chercheur a effectué une analyse de sa pratique professionnelle relative à la PDPADLSM qui s'inscrit dans un enjeu ontogénique, soit le perfectionnement du praticien-chercheur à titre d'acteur central de la pratique (Van der Maren, 2014). Cette recherche se base sur les concepts de PDPADLSM et de CAP. Nous convoquons en sus la théorie C-K de la conception (Concept-Knowledge Theory) de Le Masson et al. (2018) et le modèle du changement social en milieu organisationnel de Lewin (1947). Les résultats de cette recherche révèlent que sept éléments participent à l'implantation du processus de la PDPADLSM : a) la mobilisation des acteurs autour d'un objectif commun ; b) l'acquisition d'un langage commun ; c) les compétences en relations interpersonnelles ; d) l'autoformation des participants ; e) la mise en œuvre différenciée ; f) le retour réflexif des acteurs ; g) le rapport paradoxal entretenu par les participants avec les outils technologiques. La démarche de conception innovante d'un outil d'aide à la décision pédagogique nous a permis de mettre au jour cinq catégories de connaissances associées à sa conception : a) le public cible ; b) les contextes dans lesquels il doit fonctionner ; c) la lourdeur de la tâche relative à la collecte et l'analyse des données ; d) les compétences requises pour concevoir et développer l'outil ; e) les ressources humaines nécessaires pour le réaliser. Le concept d'outil d'aide à la décision pédagogique renvoie à un outil qui collecte et analyse des données de sources et de types multiples (données quantitatives et qualitatives), offrant aux utilisateurs la possibilité d'interagir avec celui-ci pour répondre aux questions d'ordre descriptif (décrire une situation), diagnostique (expliquer la situation), prédictif (anticiper la situation) et prescriptif (recommander des actions). Enfin, dans sa dimension expérientielle, la recherche brosse un panorama d'un changement organisationnel planifié relatif à l'implantation du processus de la PDPADLSM et qui révèle que le gain en temps et en précision, en matière de collecte et d'analyse des données locales de sources multiples, améliore le fonctionnement des CAP et, ultimement, renforce la responsabilisation de leurs membres à l'égard de la réussite éducative de tous les élèves. / Globalization, considered as a process of international integration of national resources on the economic, cultural and demographic levels, exacerbates competition between countries. This competition is leading many countries to form strategic alliances and cooperate to maintain or improve their position in this globalized market (OECD, 2005). In order to face this globalized competition, a discourse calling for in-depth reforms in education has been propagated internationally by representatives of international organizations over the last few decades (Maroy, 2021). This discourse is part of what (Sahlberg, 2016) refers to as the Global Education Reform Movement, influenced by what other authors have identified as the ideology of the New Public Management (Chappoz, 2012; Lane, 2000). The quality of education systems is, so to speak, the foundation on which the future of countries rests. Continuous lifelong learning of citizens thus allows countries to adapt to the contingencies of ever-changing knowledge and skills in an increasingly integrated labor market (Brian, 2007). The incessant call by governments and supranational organizations, such as the Organization for Economic Cooperation and Development (OECD), to reform the education systems of many democratic countries speaks volumes in this regard (Charbonnier & Gouëdard, 2020; Maroy, 2021). The regulation of education systems by results is part of this upward march of globalization and educational reforms. This regulation is marked by a systematic use of numerical data for the purpose of continuous improvement of the performance of education systems, which implies an improvement in the functioning of school service centres (SSCs) and schools, particularly in terms of professional practices, graduation rates and the reduction of social inequalities (Maroy, 2013). Specifically, we are talking about the continuous improvement of teaching and learning, which is ultimately achieved in the schools. Thus, regulation by results is associated with the promotion of autonomy in the schools. This autonomy goes hand in hand with an increase in the accountability of actors such as the CSS managers, the school principals (SP) and the teachers. This autonomy also goes hand in hand with the obligation to be accountable, typically to parents, CSSs and the Ministry of Education, for the results obtained in relation to the objectives set, the performance indicators set and the means used to achieve them (Maroy, 2021). In this context, data-based decision-making in education therefore represents a relevant field of research to address the need for continuous improvement of teaching and learning at the level of the schools, the SSCs and the education system. This doctoral research is part of this quest for continuous improvement of teaching and learning in the context of the operation of school teams in professional learning communities (PLCs). The difficulty for these teams to use the data accessible or produced in the schools, particularly with regard to their analysis (Bouchamma et al., 2019), actually conceals limitations with regard to the professional skills of local actors and the capacity of existing technological tools to make use of data from multi-source and types (quantitative and qualitative data). A PLC in a high school in the Chaudière-Appalaches region has committed to addressing this challenge by implementing and testing a pedagogical decision-making process using local multi-source data (PDMULMSD), i.e., on data that are accessible or produced in the schools. Four teachers and one practitioner-researcher participated in this research on a voluntary basis. This applied research is based on a qualitative design that takes the form of action research following a pragmatic and functionalist perspective (Van der Maren, 2014). In practice, this research aims to improve the functioning of schools and more specifically of PLCs. The corpus gathers qualitative data from a questionnaire, semi structured interviews, analytical accounts, excerpts from the practitioner-researcher's logbook, and electronic correspondence maintained between teachers and the practitioner researcher. Writing (Paillé & Mucchielli, 2016a) and thematic analysis (Paillé & Mucchielli, 2016b) as well as systemic modeling (Buckley & Waring, 2013; Gendron & Richard, 2015) constitute the data processing devices. As a primer, the practitioner-researcher conducted an analysis of his professional practice related to the PDMULMSD that is part of an ontogenic issue, the development of the practitioner-researcher as a central actor in practice (Van der Maren, 2014). This research is based on the concepts of PDMULMSD and PLC. We additionally convene Le Masson et al. (2018) Concept-Knowledge Theory (C-K) and Lewin's (1947) model of social change in organizational settings. The results of this research reveal that seven elements participate in the implementation of the PDMULMSD process: a) the mobilization of actors around a common objective; b) the acquisition of a common language; c) interpersonal skills; d) members' self training; e) differentiated implementation; f) the reflexive feedback of the actors; g) members' paradoxical relationship with technological tools. The innovative design process of a pedagogical decision support tool allowed us to identify five categories of knowledge associated with its design: a) the target audience; b) the contexts in which it must operate; c) the heaviness of the task related to data collection and analysis; d) the skills required to design and develop the tool; e) the human resources needed to implement it. The concept of an educational decision support tool refers to a tool that collects and analyzes data from multi-source and types (quantitative and qualitative data), offering users the possibility of interacting with it to answer questions of a descriptive (describing a situation), diagnostic (explaining the situation), predictive (anticipating the situation) and prescriptive (recommending actions) nature. Finally, in its experiential dimension, the research provides an overview of a planned organizational change related to the implementation of the PDMULMSD process and reveals that the gain in time and accuracy in collecting and analyzing local multi-source data improves the functioning of PLCs and ultimately strengthens the accountability of their members towards the educational success of all students.
|
Page generated in 0.1368 seconds