701 |
Rôle de la sérine astrocytaire dans l'apprentissage et la mémoire et ses implications dans la maladie d'Alzheimer. / Role of Astrocytic Serine in Learning and Memory and its Implications in Alzheimer's Disease.Maugard, Marianne 28 June 2018 (has links)
La perte de mémoire est un des premiers symptômes caractéristiques de la maladie d’Alzheimer (MA). Dans les cerveaux des patients, on retrouve des dépôts extracellulaires de plaques amyloïdes ainsi que des agrégats intracellulaires de la protéine tau. Les patients présentent également des déficits du métabolisme cérébral du glucose, une quinzaine d’années avant les premiers défauts cognitifs, suggérant que le métabolisme pourrait contribuer à la physiopathologie de la MA. Pour mieux comprendre les mécanismes qui relient le métabolisme énergétique et l’activité synaptique, nous nous sommes intéressés à la production de L-serine, une molécule dont la synthèse de novo dérive d’un intermédiaire de la glycolyse. La L-serine est le précurseur de la D-sérine, un acide aminé en conformation D présent en grande quantité dans le cerveau. La D-sérine est un co-agoniste des récepteurs au N-méthyl-D-aspartate (NMDA-R) nécessaire à la potentialisation à long terme (LTP) de l’activité synaptique dans l’hippocampe. La voie de biosynthèse de la L-serine est ainsi à l’interface entre métabolisme énergétique et activité synaptique. Afin d’étudier le rôle de cette voie, nous avons mis au point un modèle de délétion conditionnelle de la Phgdh, la première enzyme de la voie de biosynthèse de la L-serine. Nous avons injecté par stéréotaxie des vecteurs adéno-associés permettant l’expression de la Cre recombinase dans l’hippocampe de souris Phgdh(flox/flox), une lignée de souris qui possède des sites LoxP autour des exons 4 et 5 du gène de la Phgdh. Nous avons validé ce modèle en montrant que l’expression de Phgdh ainsi que les taux de D-serine diminuent d’environ 60% dans l’hippocampe des souris injectées. Nous avons ensuite réalisé des enregistrements électrophysiologiques sur tranches et nous avons mis en évidence une diminution de la LTP dans l’hippocampe des souris injectées avec la Cre recombinase. Ces souris présentent également un déficit de mémoire à long terme mis en évidence avec le test de la piscine de Morris. Ces déficits sont restaurés lorsque les souris reçoivent chroniquement un régime enrichi en L-serine. Ces résultats montrent que la biosynthèse de sérine est nécessaire et suffisante pour la plasticité synaptique et la mémoire à long terme.Afin d’étudier le rôle de cette voie dans la MA, nous avons mesuré l’expression de différentes enzymes dans des extraits d’hippocampes de patients atteints de MA et nous avons mis en évidence des changements significatifs dès les stades intermédiaires. Finalement, nous avons étudié un modèle murin de MA, les souris 3xTg, qui présentent des déficits métaboliques, synaptiques et comportementaux. Les déficits de LTP sont restaurés en ajoutant de la L- ou de la D-sérine de façon aigue sur les tranches d’hippocampe. Nous montrons que le déficit de mémoire spatiale à long terme peut être restauré par une supplémentation chronique en D-sérine, suggérant l’importance de cette voie dans le contexte de la MA. / Memory loss is among the first symptoms reported by patients suffering from Alzheimer’s disease (AD). AD is characterized by extracellular amyloid plaques and intracellular aggregations of tau. A decrease of brain glucose metabolism has also been described in the brain of AD patients. Since this decrease appears decades before memory loss, we hypothesize that metabolic deficits could directly contribute to AD physiopathology. To understand the mechanisms linking brain metabolism and synaptic activity, we proposed to study the production of L-serine, a signaling molecule whose de novo synthesis diverts part of the glycolytic flux. L-serine is the precursor of D-serine, a co-agonist of N-methyl-D-aspartate receptors (NMDA-R) that is required to maintain long term potentiation (LTP) of synaptic activity in the hippocampus. Since both L- and D-serine are formed through the activity of the Phosphorylated Pathway that diverts part of the glycolytic flux, any metabolic deficits may impact synaptic activity.We developed a model of conditional Phgdh deletion, the first enzyme of the phosphorylated pathway, by stereotaxically injecting Adeno-Associated Vectors allowing the expression of Cre recombinase in the hippocampus of Phgdh(flox/flox) mice, a mice strain with loxP sites flanking exons 4 and 5 of Phgdh gene. We validated this model showing that Phgdh expression and D-serine level are decreased by 60% in the hippocampus of injected mice. We performed electrophysiological recordings and showed that LTP is significantly reduced in mice injected with Cre recombinase. Those mice also show long term memory deficits in the Morris Water Maze test. Those deficits are restored by chronically feeding Cre injected mice with a diet enriched in L-serine indicating that serine biosynthesis is necessary and sufficient for synaptic plasticity and long term memory.To assess whether this pathway may be involved in AD pathogenesis, we quantified the expression of several enzymes of the serine biosynthesis pathway in human brain samples and found major changes in AD patients even at intermediate stages. To further investigate this hypothesis, we used 3xTg-AD mice, a mouse model for AD showing deficits in brain metabolism, synaptic activity and cognition. LTP deficits in 3xTg mice are restored by acute supplementation of L- or D-serine on hippocampal slices. We show that chronic administration of D-serine restores long term spatial memory. It suggests that serine biosynthesis is an important pathway in AD.
|
702 |
Compiler optimisations and relaxed memory consistency models / Optimisations des compilateurs et modèles mémoire relâchésMorisset, Robin 05 April 2017 (has links)
Les architectures modernes avec des processeurs multicœurs, ainsi que les langages de programmation modernes, ont des mémoires faiblement consistantes. Leur comportement est formalisé par le modèle mémoire de l'architecture ou du langage de programmation ; il définit précisément quelle valeur peut être lue par chaque lecture dans la mémoire partagée. Ce n'est pas toujours celle écrite par la dernière écriture dans la même variable, à cause d'optimisation dans les processeurs, telle que l'exécution spéculative d'instructions, des effets complexes des caches, et des optimisations dans les compilateurs. Dans cette thèse, nous nous concentrons sur le modèle mémoire C11 qui est défini par l'édition 2011 du standard C. Nos contributions suivent trois axes. Tout d'abord, nous avons regardé la théorie autour du modèle C11, étudiant de façon formelle quelles optimisations il autorise les compilateurs à faire. Nous montrons que de nombreuses optimisations courantes sont permises, mais, surprenamment, d'autres, importantes, sont interdites. Dans un second temps, nous avons développé une méthode à base de tests aléatoires pour détecter quand des compilateurs largement utilisés tels que GCC et Clang réalisent des optimisations invalides dans le modèle mémoire C11. Nous avons trouvés plusieurs bugs dans GCC, qui furent tous rapidement fixés. Nous avons aussi implémenté une nouvelle passez d'optimisation dans LLVM, qui recherchent des instructions des instructions spéciales qui limitent les optimisations faites par le processeur - appelées instructions barrières - et élimine celles qui ne sont pas utiles. Finalement, nous avons développé un ordonnanceur en mode utilisateur pour des threads légers communicants via des canaux premier entré-premier sorti à un seul producteur et un seul consommateur. Ce modèle de programmation est connu sous le nom de réseau de Kahn, et nous montrons comment l'implémenter efficacement, via les primitives désynchronisation de C11. Ceci démontre qu'en dépit de ses problèmes, C11 peut être utilisé en pratique. / Modern multiprocessors architectures and programming languages exhibit weakly consistent memories. Their behaviour is formalised by the memory model of the architecture or programming language; it precisely defines which write operation can be returned by each shared memory read. This is not always the latest store to the same variable, because of optimisations in the processors such as speculative execution of instructions, the complex effects of caches, and optimisations in the compilers. In this thesis we focus on the C11 memory model that is defined by the 2011 edition of the C standard. Our contributions are threefold. First, we focused on the theory surrounding the C11 model, formally studying which compiler optimisations it enables. We show that many common compiler optimisations are allowed, but, surprisingly, some important ones are forbidden. Secondly, building on our results, we developed a random testing methodology for detecting when mainstream compilers such as GCC or Clang perform an incorrect optimisation with respect to the memory model. We found several bugs in GCC, all promptly fixed. We also implemented a novel optimisation pass in LLVM, that looks for special instructions that restrict processor optimisations - called fence instructions - and eliminates the redundant ones. Finally, we developed a user-level scheduler for lightweight threads communicating through first-in first-out single-producer single-consumer queues. This programming model is known as Kahn process networks, and we show how to efficiently implement it, using C11 synchronisation primitives. This shows that despite its flaws, C11 can be usable in practice.
|
703 |
Romarcord : flânerie dans la cine-cittàVargau, Marina 05 1900 (has links)
L’objet de cette thèse doctorale est d’examiner le rôle que la poïétique cinématographique de Federico Fellini joue dans la constitution de la Rome cinématographique. Ma stratégie est d’identifier et de questionner les éléments constitutifs de cette poïétique, afin de pouvoir discuter de son effet dans le cinéma et la littérature contemporains. La première partie de la thèse est consacrée à l’analyse des éléments constitutifs identifiés - la flânerie, le spectacle et la mémoire - dans la filmographie romaine de Fellini, divisée pour des raisons thématiques et conceptuelles en trois moments : la constellation des attractions (Luci del varietà, Le notti di Cabiria, La dolce vita), la constellation des survivances (Block-notes di un regista, Satyricon, Roma) et la constellation des simulacra (Ginger e Fred, Intervista). Intimement connectés et complémentaires, ces trois éléments permettent de vérifier l’équivalence des qualités de la Rome fellinienne avec celles de la ville réelle. Traversant la filmographie romaine de Fellini, la figure centrale de sa poïétique, qui assure le raccord entre ses éléments et aussi entre les trois hétérotopies de Rome - la ville antique, le Vatican et Cinecittà -, est le flâneur. Complexe et protéiforme, capable d’assumer de nombreux rôles et d’assimiler d’autres figures urbaines, le flâneur s’avère le guide idéal de la Rome fellinienne. La deuxième partie de la thèse sert à déterminer et analyser de quelle manière ces éléments constitutifs de la poïétique cinématographique de Fellini sont questionnés et réinventés par d’autres cinéastes et écrivains dans leurs œuvres portant sur la ville de Rome. Dans la nouvelle constellation, constituée par les films The Belly of an Architect (1987) de Peter Greenaway et Gente di Roma (2003) d’Ettore Scola, l’épisode In Vespa du film Caro diario (1993) de Nanni Moretti et le roman I fannulloni (1991) de Marco Lodoli, j’explore l’effet provoqué par la Rome fellinienne et aussi examine la rencontre entre ces diverses visions artistiques de la ville. Les résultats obtenus servent à soutenir mon hypothèse que Fellini est le Poète par excellence de la Rome cinématographique et que la rencontre entre le Poète, la Ville et le Cinéma est un facteur décisif qui fait de Rome la capitale cinématographique du XXe siècle. / The purpose of this doctoral thesis is to examine the role that the Federico Fellini’s cinematic poetics plays in the constitution of the cinematic Rome. My strategy is to identify and to question the main components of this poetics, in order to be able to discuss its effect in contemporary film and literature. The first part of the thesis is dedicated to the analysis of the components identified – the flânerie, the spectacle and the memory- in the Fellini’s Roman films, divided for thematic and conceptual reasons in three moments: the constellation of attractions (Luci del varietà, Le notti di Cabiria, La dolce vita), the constellation of survivals (Block-notes di un regista, Satyricon,Roma) and the constellation of simulacra (Ginger e Fred, Intervista). Intimately connected and complementary, those three components are used to prove that the qualities of Fellini’s Rome are equivalent to those of the real city. Crossing the Fellini’s Roman films, the central figure of his poetics is the flâneur, which ensures the connection between its components and also between the heterotopias of Rome – the ancient city, the Vatican and Cinecittà -. Complex and protean, capable of assuming various roles and of assimilating other urban figures, the flâneur proves the ideal guide to Fellini’s Rome. The second part of the thesis serves to determine and to analyse how these three components of Fellini’s cinematic poetics are questioned and reinvented by other artists in their works on the city of Rome. In the new constellation, constituted by films The Belly of the Architect (1987) by Peter Greenaway and Gente di Roma (2003) by Ettore Scola, the episode «InVespa» of the film Caro diario (1993) by Nanni Moretti and the novel I fannulloni (1991) by Marco Lodoli, I explore the effect provoked by Fellini’s Rome and also examine the encounter between these various artistic visions of the city. The results obtained are used to support my hypothesis that Fellini is the Poet by excellence of Rome in cinema and that the encounter between the Poet, the City and the Cinema contributed in a decisive way to make Rome the cinematic capital of the 20th century.
|
704 |
Rôle de la signalisation de la polarité cellulaire planaire dans les processus mnésiques / Planar cell polarity signaling in memory processRobert, Benjamin 04 December 2017 (has links)
La polarité cellulaire planaire (PCP) est une voie de signalisation conservée au fil de l’évolution et qui joue un rôle crucial dans l’établissement de la polarité des cellules et tissues en régulant la dynamique du cytosquelette. De nombreuses études ont démontré l’implication de la PCP dans les mécanismes développementaux importants comme la gastrulation ou la neurulation chez les mammifères, et la mutation des gènes centraux qui composent la PCP mène à de sévères malformations de nombreux organes, et par conséquent une mort néonatale. Van Gogh-like 2 (vangl2) est un des gènes centraux de la PCP et code pour une protéine transmembranaire de la voie de la PCP, et sa mutation conduit à une absence de fermeture de la gouttière neurale et la mort à la naissance chez les mammifères, y compris l'homme. Certaines études suggèrent que Vangl2 jouerait un rôle dans le guidage axonal, mais aussi l’arborisation dendritique des neurones de l’hippocampe et le nombre des épines dendritiques.Dans ce travail, je montre que Vangl2 est enrichi dans l’hippocampe adulte de souris, et plus précisément dans le gyrus denté (DG) et le stratum lucidum du CA3. De nombreuses études suggèrent que le réseau formé par ces sous-structures sous-tend des processus cognitifs spécifiques impliqués dans l’encodage et le rappel de la mémoire : le pattern separation et le pattern completion. Le pattern separation est un processus d’encodage d’informations similaires en représentations différentes, permettant la formation de souvenirs distincts malgré les similitudes entre les évènements. Le processus de pattern completion permet, à partir de stimuli partiels, de se remémorer un souvenir dans son intégralité. De récentes études suggèrent que la maturation des nouveaux neurones issus de la neurogenèse adulte dans le DG joue un rôle critique dans le maintien d'une balance qui existerait entre ces deux processus cognitifs. Bien que les mécanismes qui sous-tendent les deux processus soient encore mal compris, la connectivité du DG et du CA3 semble essentielle.J’ai ainsi formulé et testé l'hypothèse selon laquelle l'absence d'expression de Vangl2 affecterait ces processus mnésiques. Pour ceci, j'ai généré plusieurs mutants murins n'exprimant pas le gène vangl2 dans différentes régions du cerveau, que j'ai ensuite testé dans des paradigmes comportementaux requérant l’utilisation des processus de pattern separation et de pattern completion. Mes résultats suggèrent que Vangl2 dans le DG est essentiel dans le maintien d'une balance existante entre les deux processus, en régulant la maturation des neurones du DG. / Planar cell polarity (PCP) signaling is an evolutionary conserved pathway known to play a crucial role in the establishment of tissue polarity via a regulation of cytoskeleton dynamics. PCP signaling is essential during critical developmental stages, such as gastrulation or neurulation, to shape tissues and organs, and disruption of core PCP genes in mammals leads to severe malformations and neonatal death. Van Gogh-like 2 (vangl2) is one of the core PCP genes coding for a transmembrane protein, and its mutation leads to a failure of the neural tube closure in mammals, including humans. It has also been suggested that Vangl2 plays a role in axonal guidance, dendritic arborization of hippocampal neurons and dendritic spines number. I showed that Vangl2 protein is enriched in the hippocampus in the adult stage, precisely in the dentate gyrus (DG) and CA3 stratum lucidum subregions. These subregions have been proposed to sustain two cognitive processes involved in memory functions: pattern separation and pattern completion. Pattern separation allows the encoding of similar or overlapping inputs in distinct neuronal representations, allowing formation of new memory without interference of a previous similar encountered event. Pattern completion is described as the ability to guide the recall of an entire memory using partial sensory cues. Recent studies suggest a critical role for the maturation of adult-born granule neurons of the DG in the balance that may exist between pattern completion and pattern separation. Although the mechanisms of both cognitive processes are still debated, the connectivity between DG and CA3 appears to be essential. I thereby tested the hypothesis that in absence of Vangl2 in the brain, these two processes would be affected. I generated several conditional mutant mice in order to excise vangl2 gene in specific areas of the hippocampus, and tested them in behavioral paradigms requiring pattern separation or pattern completion processes. My data support my hypothesis that Vangl2 in the DG is essential for a balance between pattern separation and pattern completion, through the regulation of the maturation of DG neurons.
|
705 |
Caches collaboratifs noyau adaptés aux environnements virtualisés / A kernel cooperative cache for virtualized environmentsLorrillere, Maxime 04 February 2016 (has links)
Avec l'avènement du cloud computing, la virtualisation est devenue aujourd'hui incontournable. Elle offre isolation et flexibilité, en revanche elle implique une fragmentation des ressources, et notamment de la mémoire. Les performances des applications qui effectuent beaucoup d'entrées/sorties (E/S) en sont particulièrement impactées. En effet, celles-ci reposent en grande partie sur la présence de mémoire libre, utilisée par le système pour faire du cache et ainsi accélérer les E/S. Ajuster dynamiquement les ressources d'une machine virtuelle devient donc un enjeu majeur. Dans cette thèse nous nous intéressons à ce problème, et nous proposons Puma, un cache réparti permettant de mutualiser la mémoire inutilisée des machines virtuelles pour améliorer les performances des applications qui effectuent beaucoup d'E/S. Contrairement aux solutions existantes, notre approche noyau permet à Puma de fonctionner avec les applications sans adaptation ni système de fichiers spécifique. Nous proposons plusieurs métriques, reposant sur des mécanismes existants du noyau Linux, qui permettent de définir le niveau d'activité « cache » du système. Ces métriques sont utilisées par Puma pour automatiser le niveau de contribution d'un noeud au cache réparti. Nos évaluations de Puma montrent qu'il est capable d'améliorer significativement les performances d'applications qui effectuent beaucoup d'E/S et de s'adapter dynamiquement afin de ne pas dégrader leurs performances. / With the advent of cloud architectures, virtualization has become a key mechanism for ensuring isolation and flexibility. However, a drawback of using virtual machines (VMs) is the fragmentation of physical resources. As operating systems leverage free memory for I/O caching, memory fragmentation is particularly problematic for I/O-intensive applications, which suffer a significant performance drop. In this context, providing the ability to dynamically adjust the resources allocated among the VMs is a primary concern.To address this issue, this thesis proposes a distributed cache mechanism called Puma. Puma pools together the free memory left unused by VMs: it enables a VM to entrust clean page-cache pages to other VMs. Puma extends the Linux kernel page cache, and thus remains transparent, to both applications and the rest of the operating system. Puma adjusts itself dynamically to the caching activity of a VM, which Puma evaluates by means of metrics derived from existing Linux kernel memory management mechanisms. Our experiments show that Puma significantly improves the performance of I/O-intensive applications and that it adapts well to dynamically changing conditions.
|
706 |
Vers une utilisation efficace des processeurs multi-coeurs dans des systèmes embarqués à criticités multiples / Towards an efficient use of multi-core processors in mixed criticality embedded systemsBlin, Antoine 30 January 2017 (has links)
Les systèmes embarqués dans les véhicules comportent un mélange d’applications temps réel et « best effort » déployées, pour des raisons d’isolation, sur des calculateurs séparés. L’ajout de nouvelles fonctionnalités dans les véhicules se traduit par un accroissement du nombre de calculateurs et ainsi par une augmentation des coûts, de la consommation électrique et de la dissipation thermique.L’émergence de nouvelles plate-formes multi-cœurs à bas coûts permet d’envisager le déploiement d’une nouvelle architecture dite « virtualisée » pour exécuter en parallèle sur un même calculateur les deux types d’applications. Néanmoins, la hiérarchie mémoire de tels calculateurs, reste partagée. Une application temps réel exécutée sur un cœur peut donc voir ses temps d’accès à la mémoire ralentis par les accès effectués par les applications « best effort » exécutées en parallèle entraînant ainsi la violation des échéances de la tâche temps réel.Dans cette thèse, nous proposons une nouvelle approche de gestion de la contention mémoire. Dans une première étape, hors ligne, nous générons un oracle capable d’estimer les ralentissements d’une tâche temps réel en fonction du trafic mémoire mesuré. Dans une deuxième étape, en ligne, les tâches temps réel sont exécutées en parallèle des applications « best effort ». Un mécanisme de régulation va surveiller la consommation mémoire et utiliser l’oracle généré précédemment pour estimer le ralentissement des tâches temps réel. Lorsque le ralentissement estimé est supérieur à celui fixé par le concepteur du système les applications « best effort » sont suspendues jusqu’à ce que l’application temps réel termine son activation. / Complex embedded systems today commonly involve a mix of real-time and best-effort applications integrated on separate microcontrollers thus ensuring fault isolation and error containment. However, this solution multiplies hardware costs, power consumption and thermal dissipation.The recent emergence of low-cost multi-core processors raises the possibility of running both kinds of applications on a single machine, with virtualization ensuring isolation. Nevertheless, the memory hierarchy on such processors is shared between all cores. Memory accesses done by a real time application running on one dedicated core can be slowed down by concurrent memory accesses initiated by best effort applications running in parallels. Therefore real time applications can miss their deadlines.In this thesis, we propose a run-time software-regulation approach that aims to maximize parallelism between real-time and best-effort applications running on a single low-cost multicore ECU. Our approach uses an overhead estimation derived from offline profiling of the real-time application to estimate the slow down on the real-time application caused by memory interferences. When the estimated overhead reaches a predefined threshold, our approach suspends the best-effort applications, allowing the real-time task to continue executing without interferences. Suspended best-effort applications are resumed when the real-time application ends its current activation.
|
707 |
Memory Island : Visualizing Hierarchical Knowledge as Insightful Islands / Iles de mémoires : une nouvelle approche pour la visualisation intuitive des connaissances hiérarchiquesYang, Bin 08 June 2015 (has links)
Dans cette thèse nous étudions une nouvelle approche de visualisation cartographique appelée « îles de mémoires ». Le terme « îles de mémoires » a été inspiré par la méthode des «loci» (pluriel de « locus » en latin qui signifie « endroit » ou « lieu») de l’ancien « Art de la mémoire». Une carte bien représentée dans l’esprit peut donner un sens à la connaissance, ce qui améliore une de recherche d'information (une recherche intuitive), et contribue à enrichir les connaissances issues de cette carte. Pour cela, la technique « îles de mémoires » consiste à associer chaque entité de connaissance à un endroit désigné sur une île virtuelle. Grâce aux les métaphores géographiques que nous avons définies, une représentation en « îles de mémoires » peut inférer des phénomènes souvent difficile à identifier et comprendre dans la connaissance. Dans une première partie, nous détaillons notre approche de visualisation d’une hiérarchie de connaissances en île de mémoire. Nous présentons les algorithmes que nous avons définis pour générer automatiquement une belle carte réaliste, fonctionnelle, intuitive et inspirante. Nous présentons aussi l’interface de visualisation "overview+detail" qui permet de naviguer dans les îles de mémoire. Dans une deuxième partie, nous détaillons les expérimentations réalisées avec notre outil dans le cadre du projet LOCUPLETO et des exemples issus du domaine des humanités numériques (Projet OBVIL, InPhO, etc.). Les résultats obtenus avec notre approche de visualisation sont prometteuses. En effet, les résultats démontrent que la navigation est intuitive et est capable d’augmenter la mémorisation des connaissances chez les utilisateurs de l’outil. Nous concluions notre thèse par le bilan des travaux menées et nous proposons un ensemble de travaux futurs basé sur notre approche de visualisation « îles de mémoires ». / This thesis is devoted to the study of an original cartographic visualization approach named Memory Island. We discuss how hierarchical knowledge can be meaningfully mapped and visualized as an insightful island. Our technique is inspired by the "loci" (plural of Latin "locus" for places or locations) method of the ancient "Art of Memory" technique. A well-designed map in mind can make sense of knowledge, which leads to the accomplishment of one's information seeking tasks, and helps to extend one's knowledge. To this end, Memory Island technique consists of associating each entity of knowledge to a designated area on a created virtual island. With the geographic visual metaphors we define, Memory Island can present phenomena found in knowledge, which is often difficult to understand. In this thesis, we discuss how we design our visualization technique to make it achieve the great features of visualization: automatically generate a truthful, functional, beautiful, insightful, and enlightening island with its technical details. In order to make Memory Island more convenient for its users, we present our "overview+detail" interface, to support them with visual exploration and knowledge analysis. We also demonstrate how to create knowledge maps using Memory Island technique, by giving some example on different datasets of Digital Humanities (Project OBVIL), e-books (Project LOCUPLETO) and other domains. Then, we propose our validation and evaluation protocols with two preliminary user experiments. The results from these studies indicate that the use of Memory Island provides advantages for non-experienced users tackling realistic browsing, helps them improve their performances in knowledge navigation and memorization tasks, and that most of them choose to use it for navigation and knowledge discovery. We end up by concluding our researches and listing some perspectives and future works that can be based on our Memory Island technique.
|
708 |
Virtualisation efficace d'architectures NUMA / Efficient virtualization of NUMA architecturesVoron, Gauthier 08 March 2018 (has links)
Alors que le surcoût de la virtualisation reste marginal sur des machines peu puissantes, la situation change radicalement quand le nombre de cœur disponible augmente. Il existe aujourd’hui des machines de plusieurs dizaines de cœurs dans les data centers dédiés au cloud computing, un modèle de gestion de ressources qui utilise largement la virtualisation. Ces machines reposent sur une architecture Non Uniform Memory Access (NUMA) pour laquelle le placement des tâches sur les cœurs ainsi que celui des données en mémoire est déterminant pour les performances.Cette thèse montre d’une part comment la virtualisation affecte le comportement des applications en les empêchant notamment d’utiliser un placement efficace de leurs données en mémoire. Cette étude montre que les erreurs de placement ainsi provoquées engendrent une dégradation des performances allant jusqu’à 700%. D’autre part, cette thèse propose une méthode qui permet la virtualisation efficace d’architectures NUMA par la mise en œuvre dans l’hyperviseur Xen de politiques génériques de placement mémoire. Une évaluation sur un ensemble de 29 applications exécutées sur une machine NUMA de 48 cœurs montre que ces politiques multiplient les performances de 9 de ces applications par 2 ou plus et diminuent le surcoût de la virtualisation à moins de 50% pour 23 d’entre elles. / While virtualization only introduces a negligible overhead on machines with few cores, this is not the case when the number of cores increases. We can find such computers with tens of cores in todays data centers dedicated to the cloud computing, a resource management model which relies on virtualization. These large multicore machines have a complex architecture, called Non Uniform Memory Access (NUMA). Achieving high performance on a NUMA architecture requires to wisely place application threads on the appropriate cores and application data in the appropriate memory bank.In this thesis, we show how virtualization techniques modify the applications behavior by preventing them to efficiently place their data in memory. We show that the data misplacement leads to a serious performance degradation, up to 700%.Additionally, we suggest a method which allows the Xen hypervisor to efficiently virtualize NUMA architectures by implementing a set of generic memory placement policies. With an evaluation over a set of 29 applications on a 48-cores machine, we show that the NUMA policies can multiply the performance of 9 applications by more than 2 and decrease the virtualization overhead below 50% for 23 of them.
|
709 |
What can drawing expertise tell us about visual and memory mechanisms ? / Qu'est-ce que l'expertise en dessin peut nous dire à propos du fonctionnement de la vision et de la mémoire visuelle ?Perdreau, Florian 07 November 2014 (has links)
La précision en dessin a été considérablement étudiée chez l'enfant, mais la raison pour laquelle certains adultes sont bien plus précis que d'autres à copier des objets ou des scènes demeure un mystère. Un facteur possible serait l'entrainement : les artistes passent des milliers d'heures à faire des dessins. Le but de cette thèse a été d'explorer dans quelle mesure cet entrainement intensif a pu affecter certains processus de la vision et de la mémoire visuelle. Dans une série d'études, nous avons tout d'abord démontré que l'expertise en dessin n'est pas liée à une perception plus véridique du monde. En effet, les artistes professionnels et les étudiants en Art que nous avons testé n'étaient pas davantage capables de défaire les mécanismes perceptifs automatiques qui corrigent d'ordinaire les effets dus au contexte visuel. Ils étaient autant affectés par les constances visuelles que les novices. Ceci suggère qu'un entrainement en dessin ne pourrait pas affecter des mécanismes perceptifs déjà bien établis, mais plutôt des processus de plus haut ordre, tels que l'analyse visuelle de structure d'objets. Dans deux études, nous avons ensuite cherché à déterminer comment les dessinateurs encodent et intègrent les informations structurelles lorsqu'ils analysent un objet pour le dessiner. Tout d'abord, afin de tester si les artistes avaient une meilleure représentation de formes complexes, nous avons élaboré une tâche de fenêtre contingente dans laquelle les participants devaient classer un objet comme structurellement possible ou impossible alors qu'ils ne pouvaient voir qu'une portion de l'objet centrée sur la position du regard. Les experts étaient capables de faire cette tâche avec de plus petites portions de l'objet. La compétence en dessin serait ainsi liée à la capacité d'intégrer des échantillons d'informations extraits lors de chaque fixation en une représentation interne plus robuste. Nous avons ensuite voulu savoir si la précision en dessin pouvait aussi être liée à l'efficacité de l'encodage des informations structurelles à partir d'une seule fixation (sans mouvements oculaires autorisés), avec l'objet centré soit sur la position de la fixation ou en périphérie visuelle. Nous avons trouvé que les sujets entrainés étaient capables de discriminer des objets impossibles d'objets possibles avec des durées de présentation plus courtes, que ce soit en vision centrale ou périphérique. Enfin, nous avons étudié le rôle de la mémoire visuelle pendant le processus de dessin et cherché à déterminer si les dessinateurs avaient une représentation plus précise de la position des traits de l'objet. Pour cela, nous avons développé une expérience couplant une tâche de dessin sur tablette graphique et une tâche de détection de changement durant laquelle les participants devaient copier une figure sur une tablette graphique. Tout au long du processus de copie, des changements pouvaient intervenir à la fois sur la figure originale et sur la copie, et les participants devaient corriger tout changement détecté, (la figure et le dessin n'étaient visibles qu'en alternance). Nos résultats ont montré que tous nos participants détectaient mieux les changements présents dans la figure originale que dans leur propre dessin. De plus, les experts en dessin était bien meilleurs à détecter les changements, mais seulement lorsque le dessin était impliqué (contrasté avec une simple tâche de détection de changement sans dessin). Pris ensembles, ces résultats démontrent qu'un entrainement intensif en dessin peut affecter des mécanismes perceptifs de haut niveau ainsi que des mécanismes de mémoire visuelle, et non les mécanismes perceptifs basiques déjà bien établis par la longue expérience perceptive que nous partageons tous. / Drawing accuracy has been extensively studied in children, but very little is known of what would make some adults more accurate in copying objects or scenes than many others. One factor may simply be practice: artists have often spent thousands of hours making drawings. The focus of this thesis has been to explore how this intensive practice has affected visual and memory processes. In a series of studies, we first demonstrated that drawing expertise does not relate to a more veridical perception of the world: professional artists and art students were no better than novices at seeing scenes accurately - at undoing the automatic perceptual mechanisms that ordinarily correct for visual context like shadows and depth (visual constancies). This suggests that intensive training in drawing may not affect already well-established perceptual mechanisms, but might affect higher-order processes such as visual analysis of object structure. In a number of studies, we next investigated how trained draftspersons visually encode and integrate structural information when analyzing an object. First, to test whether artists had a more advanced ability to represent complex shapes, we designed a gaze-contingent moving window task where participants had to classify an object as structurally possible or impossible, while only being able to see a portion of the object centered on the gaze position. Experts were able to perform this task with smaller samples of the object. This result suggests that skill in drawing relates to the ability to integrate local samples from each fixation into a more robust internal representation. We then asked whether drawing accuracy could also be related to the encoding efficiency of structural information from a single fixation (no eye movements allowed), with the test object centered at fixation or located in peripheral vision. In this case, we found that experts could discriminate possible vs impossible objects with shorter presentation durations and this was true whether the object was presented at fixation or in the periphery. Finally, we investigated the role of visual memory during the drawing process and whether more skilled participants have a better representation of feature locations. To do so, we designed an interactive pen tablet experiment coupled with a change detection task where participants had to copy a figure on a pen tablet. Throughout the copying process, changes could occur in both the original figure and the copy and participants had to correct any changes they noticed (the figure and the drawing were visible in alternation). We found that all participants detected changes better when they occurred in the original than in their own drawing. Moreover, experts were better at detecting changes, but only when drawing was involved (contrasted with a simple change detection task without drawing). Taken together these results demonstrate that intensive training in drawing affects higher-order perceptual and visual memory mechanisms but not basic perceptual mechanisms that already well grounded on the life-long perceptual experiences that we all share.
|
710 |
Mémoire Autobiographique Episodique et Sémantique dans le Vieillissement Normal et dans la maladie d’Alzheimer : Etudes Comportementale et en IRM fonctionnelle / Episodic and semantic autobiographical memory in aging and Alzheimer disease : behavioral and fMRIMartinelli, Pénélope 26 June 2012 (has links)
Au cours de cette thèse, nous nous sommes intéressés au fonctionnement de la mémoire autobiographique, permettant de rappeler nos souvenirs personnels. L’autobiographie d’une personne fonde son identité et comporte, outre les souvenirs personnels d’événements singuliers, phénoménologiquement riches et détaillés (souvenirs épisodiques), des connaissances personnelles détachées de tout contexte particulier. Cette dernière composante stocke un ensemble de connaissances très abstraites sur soi et des souvenirs d’événements généraux répétés ou étendus (souvenirs et connaissances sémantisés), issus de sources d’encodage multiples et sans accès spontané à un contexte d’encodage particulier. L’effet de l’âge sur ces différents types de matériels autobiographiques fait l’objet d’études récentes qui ont permis de montrer que les difficultés des sujets âgés sains portent principalement sur les souvenirs épisodiques dont la restitution nécessite une recherche active en mémoire, préservant les souvenirs sémantisés et quelques souvenirs épisodiques, le tout maintenant un sentiment d’identité et de continuité dans le temps. Une autre spécificité du vieillissement cognitif réside dans la nécessité de faire face à certains changements liés à l’identité qui peuvent être déstabilisant, pendant la vieillesse. Dans ce cadre, les souvenirs personnels constituent le matériel brut grâce auquel notre identité peut graduellement se modifier aux grés des différentes étapes de la vie. Le but de ce travail était de spécifier les processus sous-tendant ces modifications liées au vieillissement. Dans ce cadre, nous avons tenté de mieux comprendre la distinction épisodique/sémantique en mémoire autobiographique et le lien entre cette mémoire et le concept d’identité dans le vieillissement normal et dans la maladie d’Alzheimer par le biais du concept de souvenirs définissant le Soi. Nous avons également mené une méta-analyse nous permettant de préciser au niveau neural le processus d’abstraction des souvenirs et de différencier les substrats cérébraux correspondant à la récupération de matériels autobiographiques, mais aussi à la récupération d’informations plus élaborées liées directement à l’identité (jugements personnels liés aux traits de personnalités). Pour terminer, nous présentons des résultats permettant de déterminer les modifications cérébrales liées au vieillissement lors de la récupération de souvenirs autobiographiques épisodiques et sémantisés. L’ensemble de ces résultats nous a permis de proposer de nouvelles pistes de recherche concernant les causes du déclin cognitif associé à la mémoire autobiographique dans le vieillissement, notamment en termes de lien entre mémoire autobiographique et Soi mais également par rapport au rôle des fonctions exécutives et de leurs substrats cérébraux lors du processus de récupération / In this work, we investigated the functioning of autobiographical memory which enables the recall of personal past. Autobiographical memory provides the raw material from which identity is constructed and encompasses various types of knowledge from the general knowledge (i.e., semantic component) of a person’s past comprising abstracted personal information as well as repeated and extended events to very specific personal events (i.e., episodic component) situated in a particular time and space, for which the subject can mentally travel back through subjective time, reliving the encoding context. Several behavioral studies could show that episodic (which necessitate an active research) but not semantic retrieval become less easy to access in aging. Based on their capacity to retrieve semantic memories and some episodic memories, older people ensure a sense of identity and continuity in time. AM contributes to different aspects of identity and the access to personal memories enable the gradual changes of identity throughout lifespan and aging is a particular phase of change. The aim of this work was to investigate the processes underlying cognitive changes in aging. In this framework, we tried to understand more precisely the link between memory retrieval and the Self in normal aging and Alzheimer’s disease studying the Self-defining memories. We also conducted a meta-analysis determining the neural substrates of autobiographical episodic memories, autobiographical semantic memories and self-trait judgments. Finally, we propose fMRI results concerning aging effects on the neural substrates of episodic and semantic autobiographical memory retrieval. Taken together, these results set us on several causes of cognitive decline with aging in the context of autobiographical retrieval; in particular concerning the link between autobiographical memory and the Self and also concerning the role of executive functions during autobiographical retrieval
|
Page generated in 0.0543 seconds