• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 41
  • 9
  • 1
  • Tagged with
  • 183
  • 84
  • 33
  • 28
  • 23
  • 18
  • 17
  • 16
  • 16
  • 15
  • 15
  • 15
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse de la complexité des programmes par interprétation sémantique / Program complexity analysis by semantics interpretation

Péchoux, Romain 14 November 2007 (has links)
Il existe de nombreuses approches développées par la communauté Implicit Computational Complexity (ICC) permettant d'analyser les ressources nécessaires à la bonne exécution des algorithmes. Dans cette thèse, nous nous intéressons plus particulièrement au contrôle des ressources à l'aide d'interprétations sémantiques. Après avoir rappelé brièvement la notion de quasi-interprétation ainsi que les différentes propriétés et caractérisations qui en découlent, nous présentons les différentes avancées obtenues dans l'étude de cet outil : nous étudions le problème de la synthèse qui consiste à trouver une quasi-interprétation pour un programme donné, puis, nous abordons la question de la modularité des quasi-interprétations. La modularité permet de diminuer la complexité de la procédure de synthèse et de capturer un plus grand nombre d'algorithmes. Après avoir mentionné différentes extensions des quasi-interprétations à des langages de programmation réactifs, bytecode ou d'ordre supérieur, nous introduisons la sup-interprétation. Cette notion généralise la quasi-interprétation et est utilisée dans des critères de contrôle des ressources afin d'étudier la complexité d'un plus grand nombre d'algorithmes dont des algorithmes sur des données infinies ou des algorithmes de type diviser pour régner. Nous combinons cette notion à différents critères de terminaison comme les ordres RPO, les paires de dépendance ou le size-change principle et nous la comparons à la notion de quasi-interprétation. En outre, après avoir caractérisé des petites classes de complexité parallèles, nous donnons quelques heuristiques permettant de synthétiser des sup-interprétations sans la propriété sous-terme, c'est à dire des sup-interprétations qui ne sont pas des quasi-interprétations. Enfin, dans un dernier chapitre, nous adaptons les sup-interprétations à des langages orientés-objet, obtenant ainsi différents critères pour contrôler les ressources d'un programme objet et de ses méthodes / There are several approaches developed by the Implicit Computational Complexity (ICC) community which try to analyze and control program resources. In this document, we focus our study on the resource control with the help of semantics interpretations. After introducing the notion of quasi-interpretation together with its distinct properties and characterizations, we show the results obtained in the study of such a tool: We study the synthesis problem which consists in finding a quasi-interpretation for a given program and we tackle the issue of quasi-interpretation modularity. Modularity allows to decrease the complexity of the synthesis procedure and to capture more algorithms. We present several extensions of quasi-interpretations to reactive programming, bytecode verification or higher-order programming. Afterwards, we introduce the notion of sup-interpretation. This notion strictly generalizes the one of quasi-interpretation and is used in distinct criteria in order to control the resources of more algorithms, including algorithms over infinite data and algorithms using a divide and conquer strategy. We combine sup-interpretations with distinct termination criteria, such as RPO orderings, dependency pairs or size-change principle, and we compare them to the notion of quasi-interpretation. Using the notion of sup-interpretation, we characterize small parallel complexity classes. We provide some heuristics for the sup-interpretation synthesis: we manage to synthesize sup-interpretations without the subterm property, that is, sup-interpretations which are not quasi-interpretations. Finally, we extend sup-interpretations to object-oriented programs, thus obtaining distinct criteria for resource control of object-oriented programs and their methods
32

Certification des raisonnements formels portant sur des systèmes d'information critiques / Certifying formal reasoning about critical information systems

Henaien, Amira 11 March 2015 (has links)
Les preuves par récurrence sont parfaitement adaptées au raisonnement sur des structures de données non-bornées, comme par exemple les entiers et les listes, ou, de manière plus générale, sur des ensembles d’éléments non vides munis d’ordres noethériens. Leur domaine d’application est très vaste, une utilité particulière portant sur la validation des propriétés d’applications industrielles dans des domaines critiques tels que les télécommunications et les cartes à puces. Le principe de récurrence noethérienne est à la base d’un ensemble de techniques de preuve par récurrence modernes, dont celles basées sur la récurrence implicite. Dans cette thèse, nous nous intéresserons à l’intégration du raisonnement par récurrence implicite tel qu’il est implémenté dans le démonstrateur Spike en utilisant l’environnement de preuve certifié Coq. Basé sur la récurrence implicite, Spike est capable de raisonner automatiquement sur des théories conditionnelles de premier ordre. L’implémentation de Spike n’est pas encore certifiée, même si les fondements théoriques sous-jacents ont été approuvés à plusieurs reprises par la communauté scientifique. Une alternative convenable serait de certifier seulement les preuves générées par Spike. Dans ce cas, le processus de certification doit être automatique car les scripts de preuves de Spike sont souvent longs. Des travaux précédents ont montré la possibilité de certifier automatiquement des preuves par récurrence implicite générées par Spike à l’aide de l’environnement certifié de l’assistant de preuve Coq. Nous proposerons des nouvelles tactiques Coq qui seront capables de prouver automatiquement des théorèmes par récurrence implicite. Deux approches seront étudiées. La première approche consiste à utiliser Spike comme un outil externe. Elle est limitée au traitement des spécifications Coq qui peuvent être traduites dans des spécifications conditionnelles, ainsi qu’à des théorèmes convertibles dans des équations conditionnelles. Les traces de preuves générées par Spike sont ensuite traduites dans des scripts Coq qui sont finalement validés par son noyau. Une autre limitation est due à la traduction des applications d’un sous-ensemble de règles d’inférence de Spike. La deuxième approche est l’utilisation des stratégies à la Spike pour construire automatiquement des preuves par récurrence implicite dans Coq. Cette approche se base sur des tactiques Coq qui simulent des règles d’inférence de Spike pour générer de nouveaux sous-buts. Par rapport à la première approche, ces tactiques peuvent utiliser des techniques de raisonnement de Coq qui ne sont pas présentes dans Spike et ouvre la possibilité de mélanger des étapes de preuves automatiques et manuelles. Ces deux approches ont été mises en œuvre et testées sur différents exemples dont des lemmes utilisés dans la preuve de validité de l’algorithme de conformité du protocole de télécommunication ABR / Proofs by induction are perfectly adequate to reasoning on unbounded data structures, for example naturals, lists and more generally on non-empty sets of elements provided with noetherian orders. They are largely used on different fields, particularly for the validation of properties of industrial applications in critical areas such as telecommunications and smart cards. The principle of noetherian induction is the basis of a set of modern techniques of proof by induction, including those based on implicit induction. In this thesis, we will focus on the integration of implicit induction reasoning like it is implemented by spike using the certified proof environnement Coq. Spike is an automatic theorem prover based on implicit induction that is capable of reasoning on conditional first-order theories. The implementation of Spike is not yet certified, even if the underlying theoretical foundations have been approved repeatedly by the scientific community. A suitable alternative is to certify only the proofs produced by Spike. In this case, the certification process must be automatic because scripts of Spike’s proofs are often long. Previous work has shown the possibility of certifying automatically some proofs by implicit induction generated by Spike using the certified environment provided by the Coq proof-assistant. We will propose new Coq tactics that are able to prove automatically theorems by implicit induction. Two approaches will be studied. The first approach consists on using Spike as an external tool. It is limited to process Coq specifications which can be translated in conditional specifications, as well as theorems convertible in conditional equations. Proofs generated by Spike are then translated into Coq scripts finally validated by its kernel. Another limitation is due to the translation of the application of a subset of the Spike inference rules. The second approche is to use strategies à la Spike to automatically build implicit induction proofs in Coq. This approach consists on creating tactics that perform like Spike inference rules to generate new subgoals in Coq. Comparing to the first approach, these tactics permit the use of Coq reasoning techniques which are not present in Spike and opens the possibility of mixing automatic and manual proof steps. Both approaches have been implemented and tested on several examples including lemmas used in the proof of validity of the conformity algorithm for the ABR telecommunications protocol
33

Expliciter et inférer dans la conversation : modélisation de la séquence d’explicitation dans l’interaction / Making explicit and inferring in conversation : a model of explicitation sequence in interaction

Chernyshova, Elizaveta 17 December 2018 (has links)
Cette thèse porte sur la co-construction de la signification en interaction et les manifestations des processus interprétatifs des participants. En s’intéressant au processus d’explicitation, c’est-à-dire le processus par lequel un contenu informationnel devient explicite dans la conversation, elle propose une étude pluridimensionnelle de la séquence conversationnelle en jeu dans ce processus. La co-construction de la signification est ici abordée comme relevant d’une transformation informationnelle et de l’inférence.Nos analyses ont porté sur un corpus de français parlé en interaction, en contexte de repas et apéritifs entre amis. A partir d’une collection de séquences d’explicitation, définies comme des configurations dans lesquelles une inférence estsoumise à validation, ce travail propose une analyse multidimensionnelle, portant un double regard sur les données : celui de l’analyse conversationnelle et celui d’une modélisation de la pratique d’explicitation. Ainsi, nous proposons de parcourir cettepratique selon trois axes d’analyse : (a) une analyse séquentielle, s’intéressant au déploiement de la séquence d’explicitation et des éléments la composant, (b) une analyse reposant sur une modélisation de la gestion informationnelle dans cetteséquence, et (c) une analyse des formats linguistiques employés pour l’exhibition du processus inférentiel. Un des enjeux de ce travail l’élaboration d’un modèle conversationnaliste pour la gestion informationnelle et son application à l’analyse desdonnées de langue parlée en interaction. / This dissertation deals with the co-construction of meaning in interaction and the ways in which conversationalists exhibit their interpretative processes. The focus of this study is the process of explicitation, i.e. the process through which an informational content becomes explicit in conversation. By offering a multi-level analysis of conversational sequences engaged in this practice, the study approaches the co-construction of meaning from the point of view of informational transformation and inference.The analyses presented here have been conducted on a corpus of spoken French in interaction, within the setting of informal encounters between friends around a meal or a drink. The explicitation sequence is defined as a conversational pattern where an inference is being submitted for confirmation. Starting from a collection of these sequences, this study offers a twofold approach: that of conversation analysis, and that of modeling of the conversational sequence. The practice of making a content explicit is here being explored according to three analytical lines: (a) the sequential analysis, focusing on the deployment of the explicitation sequence and its components; (b) the analysis according to a device elaborated by means of modeling information management in these sequences; and (c) the analysis of the linguistic designs used when exhibiting the inference. One of themain challenges of the present study is that of a proposition of a conversationalist model, dealing with information management and its enforcement through analysis of talk in interaction.
34

L'apprentissage cognitif dans la maladie de Parkinson

Beauchamp, Miriam January 2006 (has links)
No description available.
35

Vers la simulation particulaire réaliste de l'interaction laser-plasma surcritique : conception d'un schéma implicite avec amortissement ajustable et fonctions de forme d'ordre élevé

Drouin, Mathieu 06 November 2009 (has links) (PDF)
Le caractère éminemment cinétique et hors équilibre de l'interaction laser-plasma et du transport électronique nécessite de résoudre le système complet des équations de Vlasov-Maxwell. Cette thèse se concentre sur les méthodes PIC (‘‘Particle-In-Cell''), et vise à en accroître le régime de fonctionnement. Tout d'abord, nous présentons l'analyse de stabilité linéaire d'un algorithme PIC explicite incluant l'effet de la discrétisation spatio-temporelle. Cette analyse met en exergue l'instabilité d'aliasing, que nous relions au problème, plus général, du chauffage numérique dans les codes PIC en régime surcritique. Nous montrons l'influence bénéfique de la montée en ordre du facteur de forme pour réduire ce chauffage, permettant ainsi d'atteindre des régimes de densité jusque là inaccessibles. Les codes PIC implicites ne sont pas soumis aux mêmes contraintes de stabilité que leurs équivalents explicites. En particulier nous ne sommes plus tenus de résoudre les modes haute fréquence électroniques. Une telle propriété est particulièrement précieuse lorsqu'on modélise l'interaction entre un laser à ultra-haute intensité et un plasma fortement sur-critique. Nous présentons ici l'extension relativiste de la méthode implicite dite directe, en y incluant un paramètre d'amortissement ajustable et des facteurs de forme d'ordre élevé. Ce formalisme a été implémenté dans le code ELIXIRS, 2D en espace et 3D en vitesse. Ce code est validé sur de nombreux problèmes de physique des plasmas, allant de l'expansion d'un plasma à une ou deux températures électroniques, à l'interaction laser-plasma à haut-flux, en passant par les instabilités ‘‘deux faisceaux'' et de filamentation en régime relativiste. Nous montrons notamment la capacité du code à capturer les principales caractéristiques de l'interaction laser-plasma, malgré une discrétisation spatio-temporelle dégradée, autorisant ainsi des gains substantiels en temps de calcul.
36

Apprentissage implicite de régularités : Mise en évidence d'une différence d'apprentissage entre tâches motrices continues et discrètes

Chambaron Ginhac, Stéphanie 09 December 2005 (has links) (PDF)
Le présent travail de recherche s'intéresse à l'apprentissage implicite de régularités dans des tâches motrices continues (ex : tâche de poursuite de cible) et discrètes (ex : tâche de Temps de réaction Sériel). Dans un premier temps, une réanalyse des travaux de Wulf et collaborateurs, portant sur l'apprentissage moteur implicite, a permis de mettre en évidence l'existence de problèmes méthodologiques et de biais potentiels, pouvant expliquer le fait que ces auteurs obtiennent un apprentissage implicite dans leur tâche de poursuite continue. Cependant, en respectant une méthodologie plus rigoureuse, il apparaît qu'il est bien difficile d'obtenir un tel apprentissage dans une tâche continue. Ceci nous a donc conduit, dans un second temps, à essayer de comprendre pourquoi il était plus facile de tirer bénéfice d'une répétition dans une tâche discrète que dans une tâche continue. Pour se faire, une tâche de TRS classique a été modifiée (nouveau périphérique, contrainte de précision, déplacement autonome et continu de la cible). Le but était de rendre cette tâche discrète la plus similaire possible à une tâche continue afin de voir si l'apprentissage implicite continuait à se manifester avec de telles modifications. Au final, les résultats obtenus ne permettent pas de fournir une réponse exhaustive pour expliquer la différence d'apprentissage existant entre les tâches continues et les tâches discrètes. L'ensemble des travaux réalisés au travers de cette thèse a, cependant, largement contribué à délimiter plus clairement les situations dans lesquelles l'apprentissage est possible. Dans le même temps, ces travaux constituent un apport dans la littérature restreinte sur l'apprentissage moteur implicite et enrichissent le débat « discret / continu », en ouvrant la voie vers de nouvelles perspectives de recherche.
37

instructions verbales pour l'apprentissage dans une tâche d'anticipation-coincidence

lagarde, julien 23 March 2001 (has links) (PDF)
De façon contre intuitive, plusieurs études ont montré que les instructions verbales pouvaient nuire à la mise en place d'une nouvelle habileté motrice. La théorie proposee pour interpréter ces résultats repose sur une distinction entre un apprentissage implicite, qui peut s'établir sans recherche intentionnelle des régularités acquises, et un apprentissage explicite, défini comme un apprentissage intentionnel et conscient (Reber, 1967). Ces travaux ont révélé qu'il était difficile de communiquer une aide efficace pour l'acquisition de nouveaux mouvements ou de nouvelles coordinations entre segments corporels, mais aussi pour l'utilisation de régularités entre événements présents dans l'environnement qui permettent de prédire l'évolution de la situation et de préparer en avance l'exécution du mouvement dans des conditions de forte pression temporelle (Lagarde et al 2002, Neuro Lett 327: 66). Pour l'apprentissage des régularités probabilistes, des instructions verbales qui décrivaient ces régularités dégradaient les performances en comparaison d'une condition d'apprentissage sans instructions (Green & Flowers 1991, J Mot Beh 23: 293). La nature probabiliste des régularités semble constituer un facteur qui favorise la supériorité d'un apprentissage implicite ou “par la découverte” par rapport à un apprentissage explicite ou guidé par des instructions verbales (Magill 1998, Res Quat Ex Sp 69: 104). 5 expériences ont été réalisées pour préciser la nature des intéractions complexes entre traitement des instructions verbales et apprentissage perceptivo-moteur.
38

Centration sur l'apprentissage d'une langue étrangère, le français : grammaires et représentations métalinguistiques.

Aguerre, Sandrine 01 December 2010 (has links) (PDF)
Cette thèse porte sur la didactique de la grammaire, celle-ci étant considérée dans ce travail comme un outil pour parler, enseigner et apprendre une langue, et non comme un objectif en soi. L'auteur s'intéresse plus précisément à la façon dont les apprenants développent leur grammaire mentale, c'est-à-dire l'outil qui leur permet de comprendre et produire des énoncés. La thèse de l'auteur est que les apprenants forment des représentations métalinguistiques, c'est-à-dire organisent, rassemblent et classent les éléments linguistiques, d'une façon plus ou moins intentionnelle et organisée en fonction de leurs représentations de ce qu'est apprendre une langue et de leur " passé " métalinguistique. Ce travail s'interroge sur les outils psychologiques et les ressources (manipulations, métalangage et autres systèmes de signes) qui sont mobilisables par l'apprenant pour ses opérations métalinguistiques, et qui peuvent être proposés par l'enseignant dans le cadre de différentes démarches. Plus précisément, est envisagée une démarche réflexive, qui se définit par son point de départ (un problème qui se pose à l'apprenant), ses ressources (présence obligatoire d'un corpus), et son déroulement (participation de l'apprenant en vue d'activités de conceptualisation de sa part).
39

Apprentissage implicite de régularités contextuelles au cours de l'analyse de scènes visuelles

Goujon, A. 18 December 2007 (has links) (PDF)
En structurant le monde visuel, les connaissances relatives aux régularités de l'environnement facilitent l'orientation des processus de sélection attentionnelle vers les aspects pertinents. Dans ce cadre, quel rôle peut-on accorder aux traitements non conscients dans l'apprentissage de régularités contextuelles ? Dans quelle mesure des connaissances inaccessibles à la conscience influencent-elles la perception ? Le travail de recherche rapporté dans ce mémoire de thèse visait à mieux comprendre les mécanismes d'apprentissage, implicite ou explicite, impliqués lors de l'exploration d'une scène visuelle. Nos travaux expérimentaux montrent que des connaissances relatives aux régularités contextuelles peuvent être acquises de manière implicite et faciliter le guidage de l'attention au sein d'une image. Ils révèlent que des mécanismes d'apprentissage implicite peuvent reposer sur des régularités contextuelles spécifiques, mais également sur des régularités catégorielles et sémantiques. En outre, ces mécanismes d'apprentissage implicite peuvent être déployés sur des régularités sémantiques hors du focus attentionnel, mais pour que la connaissance s'exprime une attention sélective était ici requise. Par ailleurs, nos travaux montrent que si l'apprentissage de régularités contextuelles peut faciliter la prise de décision dans une tâche écologique telle que la conduite automobile, il peut également conduire à l'émergence de défaillances fonctionnelles. Sans minimiser le caractère adaptatif de la conscience dans la perception de scènes visuelles complexes, nos recherches amènent à défendre la thèse selon laquelle « l'inconscient cognitif » est capable d'encoder des régularités perceptives ou sémantiques présentes dans l'environnement, et de guider l'attention dans l'analyse d'une scène visuelle. Perception visuelle, apprentissage implicite, indiçage contextuel, régularités sémantiques, schémas de scène. Visual perception, implicit learning, contextual cueing, semantic regularities, scene schemas
40

Learning with and without consciousness/Apprentissage avec et sans conscience

Pasquali, Antoine 12 September 2009 (has links)
Is it possible to learn without awareness? If so, what can learn without awareness, and what are the different mechanisms that differentiate between learning with and without consciousness? How can best measure awareness? Here are a few of the many questions that I have attempted to investigate during the past few years. The main goal of this thesis was to explore the differences between conscious and unconscious learning. Thus, I will expose the behavioral and computational explorations that we conducted during the last few years. To present them properly, I first review the main concepts that, for almost a century now, researchers in the fields of neuroscience have formulated in order to tackle the issues of both learning and consciousness. Then I detail different hypotheses that guided our empirical and computational explorations. Notably, a few series of experiments allowed identification of several mechanisms that participate in either unconscious or conscious learning. In addition we explored a computational framework for explaining how one could learn unconsciously and nonetheless gain subjective access to one’s mental events. After reviewing the unfolding of our investigation, I detail the mechanisms that we identified as responsible for differences between learning with and without consciousness, and propose new hypotheses to be evaluated in the future.

Page generated in 0.0601 seconds