• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 197
  • 47
  • 22
  • 7
  • 1
  • 1
  • Tagged with
  • 282
  • 143
  • 74
  • 38
  • 34
  • 26
  • 24
  • 23
  • 23
  • 22
  • 22
  • 19
  • 19
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

MICO : La notion de construction située pour un modèle d'interprétation et de traitement de la référence pour le dialogue finalisé

Pitel, Guillaume 17 September 2004 (has links) (PDF)
La question de la résolution de la référence est d'une importance majeure lorsque l'on souhaite s'intéresser à la généricité dans les systèmes de dialogue. En effet, s'il est relativement aisé de résoudre une référence à un objet du contexte lorsque ce dernier est limité à quelques types d'objets connus, le problème est beaucoup moins trivial si l'on souhaite pouvoir étendre la gestion des références à des situations moins contraintes, ce qui est le cas pour les agents assistants d'interface, qui peuvent être vus comme des systèmes de dialogue dont l'objectif est de pouvoir s'adapter facilement à plusieurs tâches distinctes. Des ambiguïtés pragmatiques peuvent apparaître, des catégories différentes moins bien « coller » avec des mots indépendants, ou bien des caractères être communs à plusieurs objets, et ne plus être discriminants. Dans les systèmes de dialogue simples, la solution consiste à définir des modules de résolution spécialisés en fonction du domaine et de la tâche de dialogue visée, ce qui brise la généricité du système.<br /><br />Sans aller jusqu'à traiter le problème de la référence dans le cadre général du dialogue non contraint, nous avons cherché à donner un cadre le plus générique possible à la résolution de la référence dans le cas des agents assistants d'interface. En effet, si on l'envisage dans son sens le plus large, la question de la référence ouvre un vaste champ d'étude, et ce dans de nombreuses disciplines comme la psychologie, la linguistique ou la philosophie. En informatique linguistique, même en mettant de côté les aspects anaphoriques, il reste encore un vaste choix de problématiques ouvertes à la réflexion. Les phénomènes tels que la métaphore et ses affiliés comme la métonymie ou la méronymie, la génération d'expressions référentielles ou la résolution de l'ancrage des expressions référentielles dans une représentation formelle (c'est-à-dire la résolution des entités codées informatiquement qui sont désignées dans un énoncé), n'ont jusqu'à présent que des solutions partielles ou ad hoc.<br /><br />Nous avons cherché à donner un cadre systématique au processus d'ancrage référentiel en situation de dialogue, en nous intéressant à l'environnement partagé par l'utilisateur et l'assistant, c'est-à-dire les connaissances et les perceptions que l'utilisateur considère comme accessible à son interlocuteur virtuel. Les travaux que nous avons menés dans cette direction nous ont conduit à adopter certains principes « philosophiques » qui, sans révolutionner radicalement en surface les modèles utilisés pour traiter la langue, influencent profondément les choix que nous pouvons faire dans la conception et la mise en oeuvre du processus d'interprétation. Partant de ces principes, nous avons souhaité établir une architecture d'interprétation à la fois simple et complète, afin d'intégrer les résultats que nous avons obtenu sur la référence avec un modèle d'interprétation global.<br /><br />Pour cela nous avons étudié les théories et approches ayant été proposées autour de cette problématique. Nous avons ainsi constaté les nombreux parallèles entre les systèmes de production de Newell [1972], qui permettent de modéliser une partie des processus cognitifs, et les constructions de Fillmore et Kay [1995], qui permettent de décrire les relations entre formes syntaxiques et représentations sémantiques. Ceci nous a guidé vers la réalisation d'un modèle regroupant leurs caractéristiques principales.<br /><br />Il manquait cependant à ces théories la capacité de traiter des structures ayant des caractéristiques topologiques non triviales, comme les représentations servant à un raisonnement temporel, qui sont pourtant nécessaires dans de nombreux modèles de raisonnement, ainsi que pour la résolution de la référence. Le modèle d'interprétation constructionnelle (MIC) que nous avons conçu pour répondre à ce besoin est un modèle d'interprétation pour le dialogue finalisé, où les différentes entrées du système de dialogue, qu'elles soient textuelles, visuelles ou autre sont traitées de manière homogène au moyen d'une opération unique : les constructions situées, une forme évoluée des constructions issues des travaux de Fillmore.<br /><br />Nous avons introduit la notion de construction située (aussi appelée s-construction) afin de pouvoir prendre en compte le fait que l'information traitée par le système de dialogue, décrite et structurée par des schémas de la sémantique des frames, peut être organisée à un niveau supérieur, y compris dans des structures dotées d'une topologie. La topologie qui organise les informations que contiennent ces structures peut être modélisée par des logiques particulières, qui permettent de décrire un système de contraintes. Par exemple, la logique de Allen [1983] pour la modélisation temporelle des événements peut être utilisée pour structurer les schémas représentant les événements. Les relations ainsi décrites peuvent être utilisées ensuite pour résoudre certaines références temporelles : l'expression « avant cela » désignant le segment temporel précédant l'événement désigné par « cela ». Ainsi, dans les s-constructions, les contraintes sur l'organisation de l'information (i.e. sur les conteneurs) peuvent être décrites tout autant que les contraintes sur le contenu de l'information. Dans notre modèle, l'interface permettant de décrire la logique qui supporte les caractéristiques topologiques d'un certain conteneur est nommée contexte, le modèle logique proprement dit n'est pas décrit dans le modèle, mais laissé à la charge d'un système externe.<br /><br />La mise en oeuvre du modèle d'interprétation constructionnelle, MICO, est inspirée par les travaux de Bryant sur l'implémentation d'une grammaire de construction grâce à une méthode d'analyse par tronçon (chunk parsing) et des travaux de Engel [2002] sur l'analyse linguistique par systèmes de production utilisée dans le projet SmartKom. Pour cette implémentation, nous introduisons la notion d'observateur, qui est l'équivalent opérationnel des S-Constructions. Un observateur est capable de reconnaître certaines formes dans les instances de contextes et peut produire une nouvelle information dans une instance de contexte si cette forme est reconnue.<br /><br />La faisabilité d'une interprétation basée sur ce modèle n'est pas évidente, car la grammaire décrite par les s-constructions est une grammaire contextuelle, et donc indécidable. Afin de rendre l'exécution des observateurs possible, nous adjoignons deux mécanismes pour guider le parcours du graphe d'interprétation. Le premier mécanisme utilise une information de pondération sur la probabilité de déclenchement a priori permettant d'ordonnancer plus efficacement l'exécution des observateurs. Cette pondération peut être soit calculée manuellement, soit déterminée automatiquement grâce à un algorithme d'apprentissage. Le second mécanisme est une généralisation du principe de restriction de sélection, généralisation rendue possible du fait que les informations manipulées dans notre modèle sont structurées. L'idée est d'augmenter la probabilité de déclenchement des observateurs capables de produire l'information attendue par un certain observateur, qui ne dispose que d'une partie de son motif de déclenchement.<br /><br />Le fait que les informations soient structurées topologiquement et dans des contextes distincts permet de spécifier qu'une certaine information est attendue dans une certaine zone (une zone étant l'ensemble des lieux qui respectent certaines contraintes, relativement à un contexte donné), et donc de décider assez rapidement si un observateur particulier a des chances de produire l'information attendue à l'endroit prévu. Ce mécanisme permet aussi de décrire la coercition à la demande, en spécifiant qu'un observateur ne peut être déclenché que si sa production est attendue. Enfin, en couplant ce mécanisme avec une approche de satisfaction partielle de contraintes pour décrire les motifs de déclenchement des observateurs, on assure au système d'interprétation une certaine robustesse.<br /><br />Afin de montrer que le modèle d'interprétation constructionnelle peut être utilisé pour traiter des phénomènes complexes, nous avons conçu un modèle de résolution extensionnelle de la référence capable de traiter des prédicats vagues, et qui utilise un version continue des domaines de référence [Corblin, 1987 ; Reboul, 1997 ; Salmon-Alt, 2001]. Dans ce cadre, nous soulevons plusieurs questions sur la pertinence de l'utilisation d'une représentation propositionnelle des entités pour l'analyse linguistique. Nous montrons que la prise en compte du contexte dans l'analyse des expressions référentielles induit l'existence de plusieurs interprétations possibles pour un même prédicat référentiel appliqué à un même type d'objet. Nous proposons qu'une représentation possible d'un des rôles de prédicat puisse être basée sur des fonctions agissant dans des domaines de références. Ayant constaté l'adéquation de ce modèle aux besoins des systèmes d'interprétation des agents conversationnels, nous montrons comment l'adapter au modèle d'interprétation unifié que nous avons conçu. <br /><br />Nous exposons nos travaux en trois parties. Dans la première partie, nous présentons le Modèle d'Interprétation Constructionnelle (MIC), après avoir argumenté en faveur d'une approche unifiée et fondée sur le principe de constructions. Dans la deuxième partie, nous présentons un modèle fonctionnel pour la résolution extensionnelle de la référence dans le cadre d'une interaction avec un support visuel, et nous décrivons la mise en oeuvre de ce modèle en utilisant le MIC. Dans la dernière partie, nous spécifions les caractéristiques du modèle d'interprétation constructionnelle par observateur (MICO), une réalisation possible du MIC structurée autour de la notion d'observateur, et nous présentons aussi le système InterViews [Sansonnet, 2003], qui a été à l'origine de nos travaux.
122

La Station Laser Ultra Mobile - De l'obtention d'une exactitude centimétrique des mesures à des applications en océanographie et géodésie spatiales

NICOLAS, Joëlle 07 December 2000 (has links) (PDF)
La Station Laser Ultra Mobile est la plus petite station de télémétrie laser au monde, ne pesant que 300 kg, dédiée à la poursuite de satellites équipés de rétroréflecteurs laser. Elle utilise un petit télescope de 13 cm de diamètre placé sur une monture issue d'un théodolite de précision et motorisé, un laser très compact et une photodiode à avalanche permettant la détection au niveau du simple photo-électron. Les premières expériences (Corse, fin 1996) ont révélé des instabilités dans la qualité des mesures. Ce travail concerne l'étude et la mise en place de nombreuses modifications techniques afin d'atteindre une exactitude centimétrique des mesures et de pouvoir participer à la campagne de validation des orbites et d'étalonnage de l'altimètre du satellite océanographique JASON-1 (2001). La précision instrumentale souhaitée a été vérifiée avec succès en laboratoire.<br />Outre cet aspect instrumental et métrologique, une analyse a été développée afin de pouvoir estimer l'exactitude et la stabilité des observations de la station mobile après intégration des modifications. A partir d'une expérience de co-localisation entre les deux stations laser fixe du plateau de Calern, on a fait une analyse fondée sur l'ajustement, par station, de coordonnées et d'un biais instrumental moyen à partir d'une orbite de référence des satellites LAGEOS. Des variations saisonnières très cohérentes ont été mises en évidence dans les séries temporelles des différentes composantes. La comparaison locale des déformations de la croûte terrestre se traduisant par des variations d'altitude issues des données laser montre une cohérence avec les mesures d'un gravimètre absolu transportable (FG5). Des signaux de même amplitude ont été observés par GPS. Ces variations sont également mises en évidence à l'échelle mondiale et leur interprétation géophysique est due à la combinaison des effets de marées terrestres et polaire et des effets de charge atmosphérique.
123

Référence Secondaire de Fréquence à Résonateur Saphir Cryogénique

Bourgeois, Pierre-Yves 13 December 2004 (has links) (PDF)
Ce mémoire présente l'élaboration et la caractérisation d'un étalon secondaire de fréquence à résonateur saphir cryogénique, dans la gamme des fréquences microondes.\\ Le monocristal de saphir ($Al_2O_3$), excité sur des modes électromagnétiques d'ordre élevé, les modes de galerie, et utilisé au voisinage de la température de l'hélium liquide, représente le meilleur candidat pour réaliser un oscillateur présentant une instabilité relative de fréquence de l'ordre de $1\cdot 10^(-14)$.\\ Une dégénérescence du mode généralement observée aux températures cryogéniques rend difficile l'ajustement des couplages. Nous présentons ici un modèle simple expliquant correctement la séparation du mode en fréquence et les formes d'onde observées expérimentalement.\\ D'autre part, le problème des modes parasites est résolu par la mise au point d'une structure résonante en cavité ouverte.\\ Tous les éléments nécessaires à la construction de cet oscillateur sont analysés en détails.\\ Les résultats obtenus sont tout à fait exceptionnels. Sur le court terme, l'instabilité relative de fréquence est inférieure à $7.5\cdot 10^(-15)$. Dans le domaine du long terme, aucune dérive n'est clairement identifiée. La stabilité sur 1 jour est $<2\cdot 10^(-14)$. Ce dernier résultat constitue l'état de l'art pour des références secondaires de fréquence sur le long terme. \\ Enfin, d'autres travaux concernant la mesure des propriétés diélectriques d'un cristal de langasite, la caractérisation d'oscillateurs ultrastables, la chaîne de synthèse, un oscillateur saphir-rutile compensé thermiquement, et l'observation d'un phénomène de bistabilité du résonateur saphir né de la coïncidence fortuite d'un mode de galerie du cristal avec celle de l'ion paramagnétique $Fe^(3+)$, sont également présentés.
124

Pour l'identification de modèles factoriels de séries temporelles: Application aux ARMA stationnaires

Toque, Carole 10 1900 (has links) (PDF)
Cette thèse est axée sur le problème de l'identification de modèles factoriels de séries temporelles et est à la rencontre des deux domaines de la Statistique, l'analyse des séries temporelles et l'analyse des données avec ses méthodes descriptives. La première étape de notre travail a pour but d'étendre à plusieurs séries temporelles discrètes, l'étude des composantes principales de Jenkins développée dans les années 70. Notre approche adapte l'analyse en composantes principales "classique" (ou ACP) aux séries temporelles en s'inspirant de la technique Singular Spectrum Analysis (ou SSA). Un principe est déduit et est appliqué au processus multidimensionnel générateur des séries. Une matrice de covariance à structure "remarquable" est construite autour de vecteurs al9;atoires décalés: elle exploite la chronologie, la stationnarité et la double dimension du processus. A l'aide de deux corollaires établis par Friedman B. dans les années 50 basés sur le produit tensoriel de matrices, et de propriétés de covariance des processus circulaires, nous approchons les éléments propres de la matrice de covariance. La forme générale des composantes principales de plusieurs séries temporelles est déduite. Dans le cas des processus "indépendants", une propriété des scores est établie et les composantes principales sont des moyennes mobiles des séries temporelles. A partir des résultats obtenus, une méthodologie est présentée permettant de construire des modèles factoriels de référence sur des ARMA vectoriels "indépendants". L'objectif est alors de projeter une nouvelle série dans un des modèles graphiques pour son identification et une première estimation de ses paramètres. Le travail s'effectue dans un cadre théorique, puis dans un cadre expérimental en simulant des échantillons de trajectoires AR(1) et MA(1) stationnaires, "indépendantes" et à coefficients symétriques. Plusieurs ACP, construites sur la matrice temporelle issue de la simulation, produisent de bonnes qualités de représentation des processus qui se regroupent ou s'opposent selon leur type en préservant la propriété des scores et la symétrie dans le comportement des valeurs propres. Mais, ces modèles factoriels reflètent avant tout la variabilité des bruits de la simulation. Directement basées sur les autocorrélations, de nouvelles ACP donnent de meilleurs résultats quels que soient les échantillons. Un premier modèle factoriel de référence est retenu pour des séries à forts coefficients. La description et la mesure d'éventuels changements structurels conduisent à introduire des oscillateurs, des fréquences et des mesures entropiques. C'est l'approche structurelle. Pour établir une possible non-linéarité entre les nombreux critères et pour augmenter la discrimination entre les séries, une analyse des correspondances multiples suivie d'une classification est élaborée sur les entropies et produit un deuxième modèle de référence avec trois classes de processus dont celle des processus à faibles coefficients. Ce travail permet également d'en déduire une méthode d'analyse de séries temporelles qui combine à la fois, l'approche par les autocorrélations et l'approche par les entropies, avec une visualisation par des méthodes factorielles. La méthode est appliquée à des trajectoires AR(2) et MA(2) simulées et fournit deux autres modèles factoriels de référence.
125

Reconnaissance de locuteurs par localisation dans un espace de locuteurs de référence

Mami, Yassine 21 October 2003 (has links) (PDF)
Cette thèse s'inscrit dans le domaine de la reconnaissance automatique du locuteur, domaine riche d'applications potentielles allant de la sécurisation d'accès à l'indexation de documents audio. Afin de laisser le champ à un large éventail d'applications, nous nous intéressons à la reconnaissance de locuteur en mode indépendant du texte et dans le cas où nous disposons de très peu de données d'apprentissage. Nous nous intéressons plus particulièrement à la modélisation et à la représentation des locuteurs. Il s'agit d'estimer avec très peu de données un modèle suffisamment robuste du locuteur pour permettre la reconnaissance du locuteur. La modélisation par un mélange de gaussiennes (GMM), en mode indépendant du texte, fournit des bonnes performances et constitue l'état de l'art en la matière. Malheureusement, cette modélisation est peu robuste dans le cas où on ne dispose que de quelques secondes de parole pour apprendre le modèle du locuteur. Pour tenter de remédier à ce problème, une perspective intéressante de modélisation consiste à représenter un nouveau locuteur, non plus de façon absolue, mais relativement à un ensemble de modèles de locuteurs bien appris. Chaque locuteur est représenté par sa localisation dans un espace de locuteurs de référence. C'est cette perspective que nous avons explorée dans cette thèse. Au cours de ce travail, nous avons recherché le meilleur espace de représentation et la meilleure localisation dans cet espace. Nous avons utilisé le regroupement hiérarchique et la sélection d'un sous-ensemble pour construire cet espace. Les locuteurs sont ensuite localisés par la technique des modèles d'ancrage. Il s'agit de calculer un score de vraisemblance par rapport à chaque locuteur de référence. Ainsi, la proximité entre les locuteurs est évaluée par l'application des distances entre leurs vecteurs de coordonnées.<br />Nous avons proposé ensuite une nouvelle représentation des locuteurs basée sur une distribution de distances. L'idée est de modéliser un locuteur par une distribution sur les distances mesurées dans l'espace des modèles d'ancrage. Cela permet d'appliquer une mesure statistique entre l'occurrence de test et les modèles des locuteurs à reconnaître (au lieu d'une mesure géométrique).<br />Ainsi, si nous avons approfondi la modélisation d'un locuteur par sa position dans un espace de locuteurs de référence, nous avons également étudié comment cette position pouvait permettre une meilleure estimation du modèle GMM du locuteur, par exemple en fusionnant les modèles de ses plus proches voisins. Finalement, en complément à la modélisation GMM-UBM, nous avons étudié des algorithmes de fusion de décisions avec les différentes approches proposées.
126

Flexibilité fonctionnelle des cellules de lieu et mémoire spatiale: étude des mécanismes d'adaptation et des aspects moléculaires.

Renaudineau, Sophie 24 July 2008 (has links) (PDF)
L'objectif de ce travail a été d'étudier deux aspects de la flexibilité du système des cellules de lieu de l'hippocampe : la réponse adaptative des cellules de lieu à des changements environnementaux, et les aspects moléculaires impliqués dans cette flexibilité. Dans une première étude, nous avons évalué la capacité de ces cellules à maintenir une représentation spatiale stable malgré des changements des repères de l'environnement. Nous avons pour cela produit un conflit en tournant deux types d'indices dans des directions opposées : des indices proches et des indices distants. La majorité des cellules montre une réorganisation de la représentation (remapping), ce qui suggère qu'elles sont contrôlées par la configuration d'ensemble des indices. Moins souvent, les cellules sont contrôlées par les indices proches, et encore moins souvent par les indices distants. En retirant un des ensemble d'indices, nous observons la compétition entre les processus de pattern completion et pattern separation. Dans un deuxième ensemble d'études, nous avons cherché à comprendre l'implication du gène zif268 dans la mémoire spatiale à court terme et à long terme. Ce gène, membre de la famille des facteurs de transcription Egr, jouerait le rôle de « commutateur moléculaire » permettant le remodelage durable des réseaux neuronaux à la base de la formation de traces mnésiques stables, qui a lieu lors des processus de potentialisation à long terme (PLT). Nous avons testé une souche de souris mutantes chez laquelle le gène zif268 (Krox24) est invalidé dans l'ensemble du cerveau. D'abord, nous avons voulu identifier comment ce gène contrôle la stabilité des champs d'activité des cellules de lieu de CA1 hippocampiques. Nos résultats montrent que les souris mutantes zif268 ont des cellules de lieu fonctionnelles, avec des paramètres de décharges comparables aux souris contrôles. Nous avons trouvé que la délétion de ce gène n'interfère pas avec la formation, ni avec le maintien à court terme (1h) d'une nouvelle représentation, mais affecte seulement son maintien à long terme (24h). Zif268 est donc nécessaire pour le maintien à long terme de la représentation spatiale. Ensuite, dans une tâche d'exploration d'objets, nous avons montré que les souris mutantes zif268 présentaient des déficits dans la détection d'un changement spatial, après la réactivation du contexte initial, ce qui suggère un rôle de zif268 dans la re-consolidation. Ensemble, ces résultats indiquent que zif268 est un élément clef de la voie de signalisation moléculaire responsable de la formation de souvenirs à long terme.
127

Génomique, post-génomique‎ : enjeux de formation et prise en charge curriculaire pour les SVT

Fuchs-Gallezot, Magali 10 December 2009 (has links) (PDF)
Ce mémoire examine les contenus d'enseignement d'une discipline scolaire de l'enseignement général secondaire français, les sciences de la vie et de la Terre (SVT). Il vise, plus précisément, à questionner la prise en charge curriculaire de la génomique et de la postgénomique et de leurs enjeux de formation par les programmes d'enseignement pour les SVT. Différentes pratiques sociales relevant de la génomique et de la post-génomique ont été identifiées et caractérisées : des pratiques de recherche scientifique, de production industrielle et agricole, des pratiques médicales et citoyennes. La prise en charge de ces pratiques sociales a été interrogée d'un double point de vue : celui des pratiques sélectionnées comme référence pour les contenus et les visées des programmes de SVT et celui du mode d'agencement disciplinaire de ces contenus et visées. Les résultats montrent que si les pratiques de recherche en génomique et post-génomique n'ont pas été sélectionnées, des pratiques contribuant à mieux les appréhender, ainsi que des pratiques industrielles, agricoles, médicales et citoyennes relevant de la génomique et de la post-génomique, ont été, elles, retenues comme référence pour les contenus et visées des programmes. L'examen de leur mode d'agencement met en évidence des mises en forme et en cohérence spécifiques, soulignant le caractère original de la construction des programmes pour les SVT, comme discipline scolaire « en directives ».
128

L'enseignement scientifique à l'école de base,<br />Approches didactique, anthropo-culturelle et épistémologique des curricula scientifiques de l'enseignement de base en Tunisie

Chaoued, Abdelwahab 06 July 2006 (has links) (PDF)
Cette recherche traite de l'enseignement scientifique. Elle se propose plus particulièrement de porter un regard critique sur les curricula scientifiques de l'enseignement de base tunisien. En effet, en ce début du troisième millénaire marqué par un développement scientifico-technique sans précédent et par l'édification de plus en plus affirmée et de plus en plus accélérée d'une société de savoir et d'information, la qualité de l'enseignement scientifique est, plus que jamais, à l'ordre du jour, aussi bien dans les pays développés que dans les pays en voie de développement. Soucieux de maintenir leur position de nations avancées et aspirant à davantage d'excellence et de progrès, les pays du Nord réfléchissent sans cesse sur les procédures et les moyens à mettre en œuvre pour améliorer leurs dispositifs d'enseignement scientifique. Inquiets quant à l'avenir de leurs générations futures dans un monde en perpétuelle mutation et où la compétition entre les nations est de plus en plus rude, les pays du Sud tentent de rattraper leur retard et de former des citoyens suffisamment qualifiés pour assurer leur développement national. Dès lors, une question cruciale se pose aussi bien chez les uns que chez les autres : « Quel enseignement scientifique pour quelle société ? »<br />Ce travail essaie donc de réfléchir sur les conditions de possibilité, tant aux niveaux pédagogique et didactique que socioculturel et épistémologique, de la mise en place, dans le cadre de l'École de Base tunisienne, d'un enseignement scientifique alliant "modernité éducative" et "prise en compte de l'apprenant et de sa culture de référence". La thèse soutenue ici est que ces conditions sont largement tributaires d'une approche curriculaire axée, d'une part, sur la didactique moderne des sciences et, d'autre part, sur une épistémologie suffisamment ancrée dans une conception socioconstructiviste et culturelle des savoirs scolaires scientifiques.<br />Partant des travaux de précurseurs, s'appuyant sur les recherches les plus récentes en sciences éducatives et conjuguant "analyse historico-critique" et "analyse didactico-épistémologique" des curricula scientifiques de l'enseignement de base, cette recherche tente d'explorer des voies et de définir des outils permettant de donner du sens aux apprentissages scientifiques, non seulement dans le cadre socioculturel et civilisationnel de la Tunisie, mais aussi dans d'autres contextes plus ou moins proches de celui-ci.
129

Les logiciels de visualisation moléculaire dans l'enseignement des sciences de la vie : conceptions et usages

Dorey, Stanislas 26 October 2012 (has links) (PDF)
Le questionnement initial de ce mémoire s'intéresse, du point de vue du questionnement curriculaire, à l'usage des logiciels de visualisation moléculaire (VM) dans l'enseignement des sciences de la vie et de la Terre (SVT) en France. La réalisation d'une revue de littérature sur l'enseignement à l'aide de la VM a fait émerger que les logiciels de VM peuvent aider à cet enseignement. Cependant, nous n'avons pas trouvé d'étude qui s'intéresse aux usages des logiciels de VM dans l'enseignement. Le terme " usage " se réfère ici à une habitude contrairement au terme " utilisation " qui a une connotation ponctuelle. Ainsi, nous avons mis en place une méthodologie composite en nous appuyant sur les questions curriculaires (Martinand, 2000) afin de mieux connaître les usages des logiciels de VM. Nous avons appréhendé le curriculum prescrit à travers l'analyse des programmes officiels depuis le début des années 1990, l'analyse des sujets du baccalauréat et l'analyse des rapports de concours de recrutement des enseignants (agrégation et CAPES). Nous avons inféré le curriculum potentiel à travers l'étude de manuels scolaires, les formations académiques, les sites académiques, les " traces " trouvées sur le web et des entretiens avec des enseignants. Nous avons inféré le curriculum co-produit à travers des observations en classe et des entretiens avec des enseignants. Enfin, nous avons réalisé un entretien avec un acteur ayant joué un rôle majeur dans l'introduction de ces logiciels afin de mieux comprendre les processus à l'œuvre dans l'usage de ces logiciels. Nous sommes arrivés à la conclusion qu'il semble y avoir une " saturation " de l'usage de ces logiciels. Elle se traduit par un usage ayant peu varié ces dix dernières années qui consiste en un usage pour un ou deux TP par an pour chaque classe du lycée. Les activités qui utilisent ces logiciels semblent être très guidées (protocolaires) et apparaissent mettre très peu l'accent sur l'aspect modèle des représentations moléculaires, se contentant plutôt de donner à voir ces représentations. Alors qu'à l'origine, ces logiciels ont été introduits pour amener les pratiques scientifiques en classe, nous pouvons nous interroger sur cette saturation. Pour savoir si c'était le cas des autres logiciels en SVT, nous avons étudié leur usage en reprenant la méthodologie utilisée précédemment. Ainsi, il apparaît que l'usage de ces logiciels, comme ceux des logiciels de VM, semble réservé à une ou deux séances dans l'année au travers d'activités qui semblent assez protocolaires. Enfin, nous avons noté un contraste entre la volonté affichée d'incorporer les TIC dans l'éducation et un usage que nous avons inféré où cet usage semble en décalage avec les attentes du programme. Nous avons également envisagé la possibilité de penser de nouvelles activités grâce aux pratiques scientifiques de référence en lien avec la VM. Pour cela, nous avons analysé des articles scientifiques, réalisé des entretiens avec des chercheurs et effectué un stage de 3 semaines dans un laboratoire. Il apparaît qu'il semble préférable de se recentrer au lycée sur des activités visant à acquérir les fondamentaux concernant la VM et d'envisager plutôt des activités d'investigation pour le début du supérieur.
130

Mesures du périmètre crânien dans les troubles envahissants du développement : une étude comparative entre adultes

Nguyen, A. K. Danny 02 1900 (has links)
Un nombre significatif d’enfants autistes ont une macrocéphalie. Malgré plusieurs études du périmètre crânien en autisme, peu d’études ont été faites sur des adultes. Aussi, les références actuelles en périmètre crânien (PC) adulte datent d’environ 20 ans. Les objectifs de cette étude étaient de construire une échelle de référence du PC adulte, et de comparer les taux de macrocéphalie entre un groupe d’adultes autistes et un groupe d’adultes neurotypiques. Dans cette étude, 221 sujets masculins adultes étaient recrutés de différents milieux afin de déterminer le meilleur modèle prédictif du PC et de construire l’échelle de référence. La hauteur et le poids étaient mesurés pour chaque participant afin de déterminer leur influence sur les dimensions crâniennes. Pour la partie comparative, 30 autistes et 36 sujets neurotypiques, tous adultes, étaient recrutés à partir de la base de données du laboratoire de recherche. Pour l’échelle de référence, les résultats démontraient des corrélations positives entre le PC avec la hauteur et le poids. Après analyse, la corrélation conjointe de la hauteur et du poids sur le PC a été déterminée comme étant le modèle qui offre les résultats les plus significatifs dans la prédiction du PC. Pour la partie comparative, les taux de macrocéphalie atteignaient 10,00% chez les autistes contre 2,56% chez les neurotypiques selon la formule de régression linéaire obtenue du modèle. Cependant le test d’exactitude de Fisher n’a révélé aucune différence significative entre les 2 groupes. Mes résultats suggèrent qu’il est nécessaire de considérer la hauteur et le poids en construisant une référence du PC et que, même en utilisant la nouvelle référence, les taux de macrocéphalie demeurent plus élevés chez les autistes adultes que chez les adultes neurotypiques en dépit de l’absence de différences significatives. / A significant proportion of autistic children have macrocephaly. Despite numerous head circumference studies in autism, few studies in adults exist. Also, current adult head circumference (HC) references are around 20 years old. The purposes of this study were to construct an adult head measurement reference chart, and to compare macrocephaly rates between a group of autistic adults and a group of typically developing adults. In this study, 221 male adults were recruited from various settings in order to determine the best predictive model for HC and to construct the reference chart. Height and weight were measured for each participant in order to evaluate their influence on head dimensions. For the comparison part, 30 autistic and 36 typically developing adult subjects were recruited from within the research lab’s database. For the reference chart, results showed positive correlations between HC, and both height and weight. After analysis, the combined influence of both height and weight on HC size has was determined to be the model showing most significant results in predicting HC. For the comparison part, macrocephaly rates reached 10.00% in the autistic group against 2.56% in the control group according to the linear regression formula obtained from the model. However, the Fisher’s exact test revealed no significant difference in macrocephaly rates between both groups. My results suggest the necessity of considering both height and weight when constructing a head circumference reference chart and that, even using a new reference, macrocephaly rates remain higher than normal in autistic adults although not significantly different enough from the typically developing adults.

Page generated in 0.2121 seconds