• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 6
  • 2
  • Tagged with
  • 26
  • 26
  • 11
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Nouvelles stratégies d'analyses et de prédiction des structures tridimensionnelles des protéines

De Brevern, Alexandre 06 February 2001 (has links) (PDF)
Caractériser la structure tridimensionnelle des protéines avec les structures secondaires classiques est assez pauvre structurellement. Nous avons donc développé une nouvelle méthodologie pour concevoir des séries de petits prototypes moyens nommés Blocs Protéiques (BPs) qui permettent une bonne approximation des structures protéiques. L'analyse de la spécificité des blocs protéiques a montré leur stabilité et leur spécificité sur le plan structural. Le choix final du nombre de BPs est associé a une prédiction locale correcte.<br />Cette prédiction se base avec une méthode bayésienne qui permet de comprendre l'importance des acides aminés de maniè;re simple. Pour améliorer cette prédiction, nous nous sommes bases sur deux concepts : (i) 1 repliement local -> n séquences et (ii) 1 séquence -> n repliements. Le premier concept signifie que plusieurs types de séquences peuvent être associes a la même structure et le second qu'une séquence peut-être associée a plusieurs type de repliements. Ces deux aspects sont développés en se basant sur la recherche d'un indice de fiabilité lie a la prédiction locale, pour trouver des zones de fortes probabilités. Certains mots, i.e. successions de blocs protéiques apparaissent plus fréquemment que d'autres. Nous avons donc défini au mieux quelle est l'architecture de ces successions, les liens existants entre ces différents mots.<br />Du fait de cette redondance qui peut apparaìtre dans la structure protéique, une méthode de compactage qui permet d'associer des structures structurellement proches sur le plan local a été mise au point. Cette approche appelée "protéine hybride" de conception simple permet de catégoriser en classes "structurellement dépendantes" l'ensemble des structures de la base de données protéiques. Cette approche, en plus du compactage, peut être utilisée dans une optique différente, celle de la recherche d'homologie structurale et de la caractérisation des dépendances entre structures et séquences.
12

Régulation des comportements sociaux par l'action séquentielle de l'ocytocine et de la vasopressine dans le septum latéral / Social behavior regulation through sequential actions of oxytocin and vasopressin in the lateral septum

Borie, Amélie 03 July 2018 (has links)
Contexte : L’ocytocine (OT) et la vasopressine (VP) modulent les comportements sociaux. Leurs rôles ont été étudiés indépendamment l’un de l’autre mais des effets combinatoires de ces deux peptides sont à envisager puisqu’ils sont tous les deux libérés au cours des comportements sociaux. Dans le septum latéral (SL), une structure cérébrale intégrant des informations sociales, l’ocytocine et la vasopressine sont libérées au cours des interactions sociales et modulent la reconnaissance ainsi que la discrimination sociale.Objectif : Comprendre la fonction duale de l’ocytocine et de la vasopressine mise en jeu lors des interactions sociales dans un cadre physiologique et pathologique. Méthode : Chez la souris mâle, nous avons utilisé l’activité électroencéphalographique (EEG) comme marqueur et avons caractérisé des traces EEG dépendantes de l’OT et de la VP. Nous avons manipulé le système OT et le système VP au sein du septum au cours d’un protocole de reconnaissance/discrimination sociale en utilisant des outils pharmacologiques ou optogénétiques. Des expériences d’électrophysiologie sur tranche ont permis de caractériser la réponse électrophysiologique des neurones du septum latéral à l’application de chacun de ces peptides.Résultats : L’étude de l’activité EEG nous a permis de discriminer des effets induits par l’action septale de l’OT et la VP dans la bande de fréquence theta. Ces résultats suggèrent que la VP serait libérée dans le septum au cours de la première rencontre avec un juvénile alors que l’OT serait libérée au cours du processus d’habituation. La modulation de l’action de l’OT et de la VP sur le SL démontre que l’activation des récepteurs V1a au cours de la première rencontre est essentielle à la discrimination sociale tandis que l’activation des récepteurs à l’OT au cours du processus d’habituation permet de regain d’intérêt lorsqu’un nouveau juvénile sera présenté. Nous montrons aussi que l’OT et la VP modulent l’activité électrique de la quasi-totalité des neurones septaux. La nature de ces modulations définit 3 catégories de neurones qui communiquent entre eux via des signaux GABAergiques. Chez la souris Magel2KO, un modèle murin de troubles des comportements sociaux, la balance des effets septaux de l’OT et de la VP est altérée. Ceci suggère que cette régulation pourrait être impliquée dans certaines conditions pathologiques.Conclusion : Ces résultats mettent en évidence qu’il est essentiel, lorsque l’on étudie l’ocytocine, d’étudier le système vasopressinergique. Avec cette approche, nous avons montré que l’activation séquentielle du SL par l’OT et la VP est importante pour la régulation des interactions sociales. De plus, cette séquence d’évènements est altérée dans un modèle animal présentant des troubles sociaux. / Context : Oxytocin (OT) and vasopressin (VP) modulate social behaviors. The roles of OT and VP have been interrogated so far in isolation whereas combinatorial effects are anticipated as both hormones are secreted during social behavior. In the lateral septum (LS), a brain area processing behavioral social cues, OT and VP are released during social interaction and modulate social recognition or discrimination. Aim : To understand the dual function of OT and VP during social behavior in physiological and pathological conditions. Methods : In male mice, we used electroencephalographic (EEG) activity as a readout to characterize OT and VP dependent electrophysiological signatures and their sequence. We manipulated OT and VP systems to LS during social recognition/discrimination paradigm using pharmacology and optogenetic tools. Using slice electrophysiology, we characterized electrophysiological responses of LS neurons to both of these hormons.Results : Measurement of EEG theta activity allowed us to discriminate between OT and VP dependent LS modulation and indicated that VP would be released in the LS during 1st encounter with a juvenile while OT would be released during the habituation process. Modulation of OT and VP actions on the LS demonstrate that V1a activation during 1st encounter is essential for social discrimination and OT receptor activation during the habituation process allows the regain of interest for a new juvenile. We also demonstrated that OT and VP modulate electrical activity of almost all LS neurons. The nature of this modulation define 3 neuronal categories that communicate with each other through GABAergic signalling. Magel2KO mouse, which features social deficits, presents an altered balance of LS regulation by OT and VP. It suggests that this regulation could be involved in some pathological symptomatology.Conclusions : These results shed a light on the necessity to study vasopressin along with oxytocin. Doing this, we showed that vasopressinergic and oxytocinergic activation of the LS are sequentially important during the social recognition paradigm. Futhermore, this sequence of events is impaired in a mouse model featuring deficits of OT and social disabilities.
13

Comment le langage impose-t-il la structure du sens : construal et narration / How Language Imposes Structure on Meaning : Construal and Narrative

Mealier, Anne-Laure 12 December 2016 (has links)
Cette thèse a été effectuée dans le cadre du projet européen WYSIWYD (What You Say is What You Did). Ce projet a pour but de rendre, plus naturelles, les interactions Humain-robot, notamment par le biais du langage. Le déploiement de robots compagnon et de robots de service requière que les humains et les robots puissent se comprendre mutuellement et communiquer. Les humains ont développé une codification avancée de leur comportement qui fournit la base de la transparence de la plupart de leurs actions et de leur communication. Jusqu'à présent, les robots ne partagent pas ce code de comportement et ne sont donc pas capables d'expliquer leurs propres actions aux humains. Nous savons que dans le langage parlé, il existe un lien direct entre le langage et le sens permettant à une personne qui écoute d'orienter son attention sur un aspect précis d'un événement. Ceci est particulièrement vrai en production de langage. On sait que la perception visuelle permet l'extraction des aspects de «qui a fait quoi à qui» dans la compréhension des événements sociaux. Mais dans le cadre d'interactions humaines, il existe d'autres aspects importants qui ne peuvent être déterminés uniquement à partir de l'image visuelle. L'échange d'un objet peut être interprété suivant différents points de vue, par exemple du point de vue du donateur ou de celui du preneur. Nous introduisons ainsi la notion de construal. Le construal est la manière dont une personne interprète le monde ou comprend une situation particulière. De plus, les événements sont reliés dans le temps, mais il y a des liens de causalité ainsi que des liens intentionnels qui ne peuvent pas être vus d'un point de vue uniquement visuel. Un agent exécute une action, car il sait que cette action satisfait le désir d'un autre agent. Cela peut ne pas être visible directement dans la scène visuelle. Le langage permet ainsi de préciser cette particularité : "Il vous a donné le livre parce que vous le vouliez". La première problématique que nous mettons en évidence dans ce travail est la manière dont le langage peut être utilisé pour représenter ces construals. Autrement dit, la manière dont un orateur choisit une construction grammaticale plutôt qu'une autre en fonction de son centre d'intérêt. Pour y répondre, nous avons développé un système dans lequel un modèle mental représente un événement d'action. Ce modèle est déterminé par la correspondance entre deux vecteurs abstraits : le vecteur de force exercée par l'action et le vecteur de résultat correspondant à l'effet de la force exercée. La deuxième problématique que nous étudions est comment des constructions de discours narratif peuvent être apprises grâce à un modèle de discours narratifs. Ce modèle se base sur des réseaux neuronaux de production et de compréhension de phrases existants que nous enrichissons avec des structures additionnelles permettant de représenter un contexte de discours. Nous présentons également la manière dont ce modèle peut s'intégrer dans un système cognitif global permettant de comprendre et de générer de nouvelles constructions de discours narratifs ayant une structure similaire, mais des arguments différents. Pour chacun des travaux cités précédemment, nous montrons comment ces modèles théoriques sont intégrés dans la plateforme de développement du robot humanoïde iCub. Cette thèse étudiera donc principalement deux mécanismes qui permettent d'enrichir le sens des évènements par le langage. Le travail se situe entre les neurosciences computationnelles, l'élaboration de modèles de réseaux neuronaux de compréhension et de production de discours narratifs, et la linguistique cognitive où comprendre et expliquer un sens en fonction de l'attention est crucial / This thesis takes place in the context of the European project WYSIWYD (What You Say is What You Did). The goal of this project is to provide transparency in Human-robot interactions, including by mean of language. The deployment of companion and service robots requires that humans and robots can understand each other and communicate. Humans have developed an advanced coding of their behavior that provides the basis of transparency of most of their actions and their communication. Until now, the robots do not share this code of behavior and are not able to explain their own actions to humans. We know that in spoken language, there is a direct mapping between languages and meaning allowing a listener to focus attention on a specific aspect of an event. This is particularly true in language production. Moreover, visual perception allows the extraction of the aspects of "who did what to whom" in the understanding of social events. However, in the context of human interaction, other important aspects cannot be determined only from the visual image. The exchange of an object can be interpreted from the perspective of the giver or taker. This introduces the notion of construal that is how a person interprets the world and perceive a particular situation. The events are related in time, but there are causal and intentional connexion that cannot be seen only from a visual standpoint. An agent performs an action because he knows that this action satisfies the need for another person. This may not be directly visible in the visual scene. The language allows specifying this characteristic: "He gave you the book because you like it." The first point that we demonstrate in this work is how the language can be used to represent these construals. In response, we have developed a system in which a mental model represents an action event. This model is determined by the correspondence between two abstract vectors: the force vector exerted by the action and the result vector corresponding to the effect of the applied force. The application of an attentional process selects one of the two vectors, thus generating the construal of the event. The second point that we consider in this work is how the construction of narrative discourse can be learned with a narrative discourse model. This model is based on both existing neural networks of production and comprehension of sentences that we enrich with additional structures to represent a context of discourse. We present also how this model can be integrated into an overall cognitive system for understanding and generate new constructions of narrative discourse based on similar structure, but different arguments. For each of the works mentioned above, we show how these theoretical models are integrated into the development platform of the iCub humanoid robot. This thesis will explore two main mechanisms to enrich the meaning of events through language. The work is situated between computational neuroscience, with development of neural network models of comprehension and production of narrative discourse, and cognitive linguistics where to understand and explain the meaning according to joint attention is crucial
14

Ring topology of an optical phase delayed nonlinear dynamics for neuromorphic photonic computing / Topologie en anneau d’une dynamique non linéaire à retard en phase optique, pour le calcul photonique neuromorphique

Baylon Fuentes, Antonio 13 December 2016 (has links)
Aujourd'hui, la plupart des ordinateurs sont encore basés sur des concepts développés il y a plus de 60 ans par Alan Turing et John von Neumann. Cependant, ces ordinateurs numériques ont déjà commencé à atteindre certaines limites physiques via la technologie de la microélectronique au silicium (dissipation, vitesse, limites d'intégration, consommation d'énergie). Des approches alternatives, plus puissantes, plus efficaces et moins consommatrices d'énergie, constituent depuis plusieurs années un enjeu scientifique majeur. Beaucoup de ces approches s'inspirent naturellement du cerveau humain, dont les principes opérationnels sont encore loin d'être compris. Au début des années 2000, la communauté scientifique s'est aperçue qu'une modification du réseau neuronal récurrent (RNN), plus simple et maintenant appelée Reservoir Computing (RC), est parfois plus efficace pour certaines fonctionnalités, et est un nouveau paradigme de calcul qui s'inspire du cerveau. Sa structure est assez semblable aux concepts classiques de RNN, présentant généralement trois parties: une couche d'entrée pour injecter l'information dans un système dynamique non-linéaire (Write-In), une seconde couche où l'information d'entrée est projetée dans un espace de grande dimension (appelé réservoir dynamique) et une couche de sortie à partir de laquelle les informations traitées sont extraites par une fonction dite de lecture-sortie. Dans l'approche RC, la procédure d'apprentissage est effectuée uniquement dans la couche de sortie, tandis que la couche d'entrée et la couche réservoir sont fixées de manière aléatoire, ce qui constitue l'originalité principale du RC par rapport aux méthodes RNN. Cette fonctionnalité permet d'obtenir plus d'efficacité, de rapidité, de convergence d'apprentissage, et permet une mise en œuvre expérimentale. Cette thèse de doctorat a pour objectifs d'implémenter pour la première fois le RC photoniques en utilisant des dispositifs de télécommunication. Notre mise en œuvre expérimentale est basée sur un système dynamique non linéaire à retard, qui repose sur un oscillateur électro-optique (EO) avec une modulation de phase différentielle. Cet oscillateur EO a été largement étudié dans le contexte de la cryptographie optique du chaos. La dynamique présentée par de tels systèmes est en effet exploitée pour développer des comportements complexes dans un espace de phase à dimension infinie, et des analogies avec la dynamique spatio-temporelle (tels que les réseaux neuronaux) sont également trouvés dans la littérature. De telles particularités des systèmes à retard ont conforté l'idée de remplacer le RNN traditionnel (généralement difficile à concevoir technologiquement) par une architecture à retard d'EO non linéaire. Afin d'évaluer la puissance de calcul de notre approche RC, nous avons mis en œuvre deux tests de reconnaissance de chiffres parlés (tests de classification) à partir d'une base de données standard en intelligence artificielle (TI-46 et AURORA-2), et nous avons obtenu des performances très proches de l'état de l'art tout en établissant un nouvel état de l'art en ce qui concerne la vitesse de classification. Notre approche RC photonique nous a en effet permis de traiter environ 1 million de mots par seconde, améliorant la vitesse de traitement de l'information d'un facteur supérieur à ~3. / Nowadays most of computers are still based on concepts developed more than 60 years ago by Alan Turing and John von Neumann. However, these digital computers have already begun to reach certain physical limits of their implementation via silicon microelectronics technology (dissipation, speed, integration limits, energy consumption). Alternative approaches, more powerful, more efficient and with less consume of energy, have constituted a major scientific issue for several years. Many of these approaches naturally attempt to get inspiration for the human brain, whose operating principles are still far from being understood. In this line of research, a surprising variation of recurrent neural network (RNN), simpler, and also even sometimes more efficient for features or processing cases, has appeared in the early 2000s, now known as Reservoir Computing (RC), which is currently emerging new brain-inspired computational paradigm. Its structure is quite similar to the classical RNN computing concepts, exhibiting generally three parts: an input layer to inject the information into a nonlinear dynamical system (Write-In), a second layer where the input information is projected in a space of high dimension called dynamical reservoir and an output layer from which the processed information is extracted through a so-called Read-Out function. In RC approach the learning procedure is performed in the output layer only, while the input and reservoir layer are randomly fixed, being the main originality of RC compared to the RNN methods. This feature allows to get more efficiency, rapidity and a learning convergence, as well as to provide an experimental implementation solution. This PhD thesis is dedicated to one of the first photonic RC implementation using telecommunication devices. Our experimental implementation is based on a nonlinear delayed dynamical system, which relies on an electro-optic (EO) oscillator with a differential phase modulation. This EO oscillator was extensively studied in the context of the optical chaos cryptography. Dynamics exhibited by such systems are indeed known to develop complex behaviors in an infinite dimensional phase space, and analogies with space-time dynamics (as neural network ones are a kind of) are also found in the literature. Such peculiarities of delay systems supported the idea of replacing the traditional RNN (usually difficult to design technologically) by a nonlinear EO delay architecture. In order to evaluate the computational power of our RC approach, we implement two spoken digit recognition tests (classification tests) taken from a standard databases in artificial intelligence TI-46 and AURORA-2, obtaining results very close to state-of-the-art performances and establishing state-of-the-art in classification speed. Our photonic RC approach allowed us to process around of 1 million of words per second, improving the information processing speed by a factor ~3.
15

Deep learning compact and invariant image representations for instance retrieval / Représentations compactes et invariantes à l'aide de l'apprentissage profond pour la recherche d'images par similarité

Morère, Olivier André Luc 08 July 2016 (has links)
Nous avons précédemment mené une étude comparative entre les descripteurs FV et CNN dans le cadre de la recherche par similarité d’instance. Cette étude montre notamment que les descripteurs issus de CNN manquent d’invariance aux transformations comme les rotations ou changements d’échelle. Nous montrons dans un premier temps comment des réductions de dimension (“pooling”) appliquées sur la base de données d’images permettent de réduire fortement l’impact de ces problèmes. Certaines variantes préservent la dimensionnalité des descripteurs associés à une image, alors que d’autres l’augmentent, au prix du temps d’exécution des requêtes. Dans un second temps, nous proposons la réduction de dimension emboitée pour l’invariance (NIP), une méthode originale pour la production, à partir de descripteurs issus de CNN, de descripteurs globaux invariants à de multiples transformations. La méthode NIP est inspirée de la théorie pour l’invariance “i-theory”, une théorie mathématique proposée il y a peu pour le calcul de transformations invariantes à des groupes au sein de réseaux de neurones acycliques. Nous montrons que NIP permet d’obtenir des descripteurs globaux compacts (mais non binaires) et robustes aux rotations et aux changements d’échelle, que NIP est plus performants que les autres méthodes à dimensionnalité équivalente sur la plupart des bases de données d’images. Enfin, nous montrons que la combinaison de NIP avec la méthode de hachage RBMH proposée précédemment permet de produire des codes binaires à la fois compacts et invariants à plusieurs types de transformations. La méthode NIP+RBMH, évaluée sur des bases de données d’images de moyennes et grandes échelles, se révèle plus performante que l’état de l’art, en particulier dans le cas de descripteurs binaires de très petite taille (de 32 à 256 bits). / Image instance retrieval is the problem of finding an object instance present in a query image from a database of images. Also referred to as particular object retrieval, this problem typically entails determining with high precision whether the retrieved image contains the same object as the query image. Scale, rotation and orientation changes between query and database objects and background clutter pose significant challenges for this problem. State-of-the-art image instance retrieval pipelines consist of two major steps: first, a subset of images similar to the query are retrieved from the database, and second, Geometric Consistency Checks (GCC) are applied to select the relevant images from the subset with high precision. The first step is based on comparison of global image descriptors: high-dimensional vectors with up to tens of thousands of dimensions rep- resenting the image data. The second step is computationally highly complex and can only be applied to hundreds or thousands of images in practical applications. More discriminative global descriptors result in relevant images being more highly ranked, resulting in fewer images that need to be compared pairwise with GCC. As a result, better global descriptors are key to improving retrieval performance and have been the object of much recent interest. Furthermore, fast searches in large databases of millions or even billions of images requires the global descriptors to be compressed into compact representations. This thesis will focus on how to achieve extremely compact global descriptor representations for large-scale image instance retrieval. After introducing background concepts about supervised neural networks, Restricted Boltzmann Machine (RBM) and deep learning in Chapter 2, Chapter 3 will present the design principles and recent work for the Convolutional Neural Networks (CNN), which recently became the method of choice for large-scale image classification tasks. Next, an original multistage approach for the fusion of the output of multiple CNN is proposed. Submitted as part of the ILSVRC 2014 challenge, results show that this approach can significantly improve classification results. The promising perfor- mance of CNN is largely due to their capability to learn appropriate high-level visual representations from the data. Inspired by a stream of recent works showing that the representations learnt on one particular classification task can transfer well to other classification tasks, subsequent chapters will focus on the transferability of representa- tions learnt by CNN to image instance retrieval…
16

Rethinking continual learning approach and study out-of-distribution generalization algorithms

Laleh, Touraj 08 1900 (has links)
L'un des défis des systèmes d'apprentissage automatique actuels est que les paradigmes d'IA standard ne sont pas doués pour transférer (ou exploiter) les connaissances entre les tâches. Alors que de nombreux systèmes ont été formés et ont obtenu des performances élevées sur une distribution spécifique d'une tâche, il est pas facile de former des systèmes d'IA qui peuvent bien fonctionner sur un ensemble diversifié de tâches qui appartiennent aux différentes distributions. Ce problème a été abordé sous différents angles dans différents domaines, y compris l'apprentissage continu et la généralisation hors distribution. Si un système d'IA est formé sur un ensemble de tâches appartenant à différentes distributions, il pourrait oublier les connaissances acquises lors des tâches précédentes. En apprentissage continu, ce processus entraîne un oubli catastrophique qui est l'un des problèmes fondamentaux de ce domaine. La première projet de recherche dans cette thèse porte sur la comparaison d'un apprenant chaotique et d'un naïf configuration de l'apprentissage continu. La formation d'un modèle de réseau neuronal profond nécessite généralement plusieurs itérations, ou époques, sur l'ensemble de données d'apprentissage, pour mieux estimer les paramètres du modèle. La plupart des approches proposées pour ce problème tentent de compenser les effets de mises à jour des paramètres dans la configuration incrémentielle par lots dans laquelle le modèle de formation visite un grand nombre de échantillons pour plusieurs époques. Cependant, il n'est pas réaliste de s'attendre à ce que les données de formation soient toujours alimenté au modèle. Dans ce chapitre, nous proposons un apprenant de flux chaotique qui imite le chaotique comportement des neurones biologiques et ne met pas à jour les paramètres du réseau. De plus, il peut fonctionner avec moins d'échantillons par rapport aux modèles d'apprentissage en profondeur sur les configurations d'apprentissage par flux. Fait intéressant, nos expériences sur différents ensembles de données montrent que l'apprenant de flux chaotique a moins d'oubli catastrophique de par sa nature par rapport à un modèle CNN en continu apprentissage. Les modèles d'apprentissage en profondeur ont une performance de généralisation hors distribution naïve où la distribution des tests est inconnue et différente de la formation. Au cours des dernières années, il y a eu eu de nombreux projets de recherche pour comparer les algorithmes hors distribution, y compris la moyenne et méthodes basées sur les scores. Cependant, la plupart des méthodes proposées ne tiennent pas compte du niveau de difficulté de tâches. Le deuxième projet de recherche de cette thèse, l'analyse de certains éléments logiques et pratiques les forces et les inconvénients des méthodes existantes de comparaison et de classement hors distribution algorithmes. Nous proposons une nouvelle approche de classement pour définir les ratios de difficulté des tâches afin de comparer les algorithmes de généralisation hors distribution. Nous avons comparé la moyenne, basée sur le score, et des classements basés sur la difficulté de quatre tâches sélectionnées du benchmark WILDS et cinq algorithmes hors distribution populaires pour l'expérience. L'analyse montre d'importantes changements dans les ordres de classement par rapport aux approches de classement actuelles. / One of the challenges of current machine learning systems is that standard AI paradigms are not good at transferring (or leveraging) knowledge across tasks. While many systems have been trained and achieved high performance on a specific distribution of a task, it is not easy to train AI systems that can perform well on a diverse set of tasks that belong to different distributions. This problem has been addressed from different perspectives in different domains including continual learning and out-of-distribution generalization. If an AI system is trained on a set of tasks belonging to different distributions, it could forget the knowledge it acquired from previous tasks. In continual learning, this process results in catastrophic forgetting which is one of the core issues of this domain. The first research project in this thesis focuses on the comparison of a chaotic learner and a naive continual learning setup. Training a deep neural network model usually requires multiple iterations, or epochs, over the training data set, to better estimate the parameters of the model. Most proposed approaches for this issue try to compensate for the effects of parameter updates in the batch incremental setup in which the training model visits a lot of samples for several epochs. However, it is not realistic to expect training data will always be fed to the model. In this chapter, we propose a chaotic stream learner that mimics the chaotic behavior of biological neurons and does not update network parameters. In addition, it can work with fewer samples compared to deep learning models on stream learning setups. Interestingly, our experiments on different datasets show that the chaotic stream learner has less catastrophic forgetting by its nature in comparison to a CNN model in continual learning. Deep Learning models have a naive out-of-distribution~(OoD) generalization performance where the testing distribution is unknown and different from the training. In the last years, there have been many research projects to compare OoD algorithms, including average and score-based methods. However, most proposed methods do not consider the level of difficulty of tasks. The second research project in this thesis, analysis some logical and practical strengths and drawbacks of existing methods for comparing and ranking OoD algorithms. We propose a novel ranking approach to define the task difficulty ratios to compare OoD generalization algorithms. We compared the average, score-based, and difficulty-based rankings of four selected tasks from the WILDS benchmark and five popular OoD algorithms for the experiment. The analysis shows significant changes in the ranking orders compared with current ranking approaches.
17

Activité calcique et communication paracrine avant synaptogenèse dans le développement du néocortex murin

Platel, Jean-Claude 28 October 2005 (has links) (PDF)
Dans le néocortex murin, la division des cellules précurseurs a lieu dès le stade E11 et donne naissance aux premiers neurones pionniers dont les cellules de Cajal-Retzius. L'activité électrique spontanée, portée par les canaux ioniques, joue un rôle prépondérant dans le développement du système nerveux central. Comprendre la place des canaux ioniques et de la signalisation calcique dans les phases précoces de le neurogenèse était l'objectif principal de mon projet. Nous avons montré l'apparition précoce de canaux sodiques dépendants du voltage dans 55% des cellules neuronales à E13, dont les cellules de Cajal-Retzius. En parallèle, nous avons observé des activités calciques spontanées dans les cellules proliférantes et neuronales au même stade. La conception d'un logiciel d'imagerie nous a permis d'analyser statistiquement ces activités et d'identifier les canaux ioniques impliqués. Alors que les synapses ne sont pas encore formées, nous avons observé la mise en place d'activités synchrones au sein du néocortex et démontré l'existence de communications paracrines entre les cellules. De plus, nous avons identifié l'existence d'une cascade de signalisation où la dépolarisation des récepteurs glycinergiques active les canaux sodiques présents sur les neurones pionniers. Dans ces neurones, l'influx sodique entraîne une augmentation de calcium cytoplasmique via un échangeur Na+/Ca2+ puis une exocytose glutamatergique dont le libération paracrine induit l'activation d'autres cellules néocorticales. L'utilisation de la culture organotypique de cerveau nous a laissé entrevoir une implication physiologique majeure de cette cascade de signalisation dans la corticogenèse.
18

Étude asymptotique d'un réseau neuronal: le modèle de mémoire associative de Hopfield

Vermet, Franck 28 January 1994 (has links) (PDF)
L'objet de cette thèse est l'étude asymptotique du modèle de Hopfield dont le but est de simuler le phénomène neuronal de mémoire associative. Après une brève introduction au calcul neuronal et une description générale de la modélisation mathématique de la mémoire associative, nous définissons le modèle étudié dans le cadre d'une dynamique d'évolution déterministe, respectivement séquentielle (modèle de Hopfield) ou parallèle (modèle de Little). Nous étudions alors la stabilité asymptotique de $p$ images originales, au sens presque sûr pour l'espace de probabilité associé aux variables aléatoires modélisant ces images, ainsi que l'attraction de certaines configurations, en une seule étape de la dynamique, si $p$ est de l'ordre $N/\log N$ ($N$ la taille du réseau). La fonction énergie ayant notamment pour minima locaux les images originales et tous les autres points fixes de l'application associée à la dynamique, il est intéressant d'en connaître les fluctuations sur l'espace des configurations. Après avoir rappelé les résultats de Newman, relatifs à l'existence de barrières énergétiques, nous montrons que asymptotiquement et presque sûrement, sous certaines hypothèses sur $p$, les images combinées, combinaisons d'un nombre fine ou de toutes les images combinées, ne peuvent être des minima plus profonds que les images originales elles-mêmes. En ces points, nous calculons la limite presque sûre du hamiltonien normalisé. Au chapitre suivant, nous décrivons la dynamique stochastique de Glauber qui nous conduit à définir les mesures de Gibbs pour la limite thermodynamique de ce systèmes. Nous étudions alors, dans un dernier chapitre, le comportement asymptotique de l'énergie libre: pour toute température, cette variable aléatoire converge presque sûrement vers une constante, si $p/N$ converge vers 0, et vérifie la propriété d'être auto-moyennée, si $p$ est inférieur au proportionnel à $N$. En conclusion, nous terminons en évoquant quelques problèmes ouverts et des extensions possibles du modèle de Hopfield.
19

Impacts potentiels d’un changement climatique sur le pergélisol dans le nord canadien

Obretin, Calin 05 1900 (has links)
Cette thèse porte sur l'impact du changement climatique du à des gaz à effet de serre sur l'état et l'évolution du pergélisol dans le nord canadien. Le pergélisol se retrouve sur la moitie du territoire canadien et un changement de son état actuel se répercutera dans toutes les sphères d'activité, sur la biosphère et sur l'environnement en général. Malgré l'importance évidente du sujet, il n'y a pas une idée précise comment le pergélisol réagira au changement climatique et jusqu'où la couche pergélisolée sera perturbée. Cette thèse explore ce sujet en utilisant une approche méthodologique s’inspirant de celui du modèle canadien d'évolution de pergélisol (TTOP) et avec une approche théorique basée sur la théorie des systèmes neuronaux complexes. L’objectif général de cette thèse est d’améliorer le modèle canadien d’évolution du pergélisol (TTOP - Temperature on the Top Of Permafrost) créé par Smith et Riseborough en 1996, tant dans sa structure de calcul, que dans sa résolution spatiale et de déterminer l'évolution du pergélisol dans la zone d'étude pour la période 2010-2100. Cette zone est située dans le Bassin Mackenzie (T.N-O) sur un transect nord-sud de 1440 x 720 km. Le premier objectif de recherche est de produire les cartes des valeurs annuelles de température à la partie supérieure du pergélisol de 2010 à 2100 en utilisant un modèle amélioré d'évolution du pergélisol (TTOP-A). Par la suite, ces valeurs sont comparées à celles obtenues par Smith et Riseborough (1996). Les valeurs de température de l'air pour cette période sont fournies par les scénarios d'évolution climatique MCCG3 SRES A1B, MCCG3 SRES A2 et MCCG3 SRES B1. Dans un deuxième temps, cette thèse a pour objectif la production des cartes d'épaisseur de pergélisol jusqu'en 2100 à une résolution spatiale de 25 km. Plus précisément, on détermine l'évolution des valeurs d'épaisseur de pergélisol pour les trois scénarios climatiques mentionnés antérieurement. De plus, l'étude propose: i) une nouvelle méthode de désagrégation des données climatiques en utilisant un Modèle Stochastique Déterminé, ii) l'intégration de la carte de type de sol, iii) l'intégration des valeurs d'humidité dans le sol, iv) l'intégration des valeurs d'épaisseur de la couche nivale et v) l'intégration des données de télédétection (SSM/I). De façon générale, les résultats obtenus par le modèle TTOP-A révèlent que les valeurs moyennes de température à la surface du pergélisol suivent de près les valeurs de température de l’air et qu'elles sont semblables aux celles trouvées par Smith et Riseborough (1996) et Heginbottom et coll. (1995). De plus, les différences des valeurs de température à la surface de pergélisol entre 2010 et 2100 s'inscrivent dans l'écart des valeurs publié par le Groupe d'Experts Intergouvernemental sur l'Évolution du Climat (GIEC, 2007). Concernant le deuxième objectif de cette thèse, la dynamique spatiotemporelle du pergélisol jusqu'en 2100 démontre que, dans la zone d'étude, la superficie perturbée par le réchauffement climatique sera de 37 %, 60 % et 29 % selon les scénarios MCCG3 SRES A1B, MCCG3 SRES A2 et MCCG3 SRES B1 respectivement. Selon les scénarios mentionnés antérieurement, la couche pergélisolée à l'intérieur de cette zone disparaîtra dans une proportion de 20 %, 32 % et 18 % respectivement. Ces résultats nous laissent croire que les prévisions faites par Smith et Riseborough ont été surévaluées dans le contexte de deux des trois scénarios climatiques actuels par rapport à celui de 1996. Finalement, cette étude démontre que la méthode de désagrégation des données en utilisant les réseaux neuronaux dans un Modèle Stochastique Déterminé donne de bons résultats et elle représente une option fiable qui se prête à des généralisations à grande échelle. / This thesis explores the potential impacts of a climate change due to the greenhouse gases on the state and the evolution of the permafrost in the Canadian North. The permafrost represents the half of the Canadian national territory and a change of its current state will echo in all spheres of activity, on the biosphere and on the environment generally. In spite of the evident importance of the subject, there is no precise idea as to how the permafrost will react to the climate change and to what extent the frozen layer will be disrupted. This thesis investigates this problem by using a methodological approach inspired by the Canadian model on the evolution of permafrost (TTOP) coupled with a theoretical approach based on the theory of the complex neuronal systems. The general objective of this thesis is to improve the Canadian model of evolution of permafrost (TTOP-Temperature one the Top Of Permafrost) created by Smith and Riseborough in 1996, its structure of computation, spatial resolution and to determine the state of the permafrost in the study area between 2010 and 2100. The study zone is situated in the Mackenzie Basin (N-W.T) on a north-south transect of 1440 by 720 km. The first objective of the research is to derive maps of the annual values of temperature on the top of the permafrost from 2010 to 2100 by using an improved dynamic model of the evolution of permafrost (TTOP-A). Thereafter, these values are compared with those obtained by Smith and Riseborough (1996). The values of the evolution of air temperature for this period are supplied by the climatic scénarios CGCM3 SRES A1B, CGCM3 SRES A2 and CGCM3 SRES B1. Secondly, this thesis has as an objective the production of the maps of the thickness of permafrost for 2100 with a spatial resolution of 25 km. More exactly, we determine the evolution of the values of thickness of permafrost for the three climatic scénarios mentioned above. Furthermore, the study proposes: i) a new method for downscaling of climate data by using a Determined Stochastic Model, ii) the integration of soil type, iii) the integration of the soil humidity, iv) the integration of the values of thickness of the snow layer and v) the integration of remote sensing data (SSM/I). As a rule, the results obtained by the TTOP-A model reveal that the mean values of temperature at the surface of the permafrost follow closely the values of air temperature and that they are similar to those found by Smith and Riseborough (1996) and Heginbottom and coll. (1995). Also, the differences of the values of temperature on the surface of permafrost between 2010 and 2100 are similar to the values published by the Intergovernmental Panel on Climate Change (IPCC). Concerning the second objective of this thesis, the spatio-temporal dynamics of the permafrost until 2100 demonstrates that, in the study zone, the surface perturbed by global warming will be 37 %, 60 % and 29 % according to the scénarios CGCM3 SRES A1B, CGCM3 SRES A2 and CGCM3 SRES B1 respectively. The permafrost layer inside this zone will disappear by 20 %, 32 % and 18 % according to the scénarios mentioned before. These results lead us to believe that the estimations made by Smith and Riseborough were overvalued in the context of two of three current climates scénarios compared to that of the 1996. Finally, this study demonstrates that the method of downscaling of climate data using the neuronal network within a Determined Stochastic Model gives good results and it represents a reliable option which lends itself to large-scale generalizations. / Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)
20

Impacts potentiels d’un changement climatique sur le pergélisol dans le nord canadien

Obretin, Calin 05 1900 (has links)
No description available.

Page generated in 0.0751 seconds