• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

NeuroTorch : une librairie Python dédiée à l'apprentissage automatique dans le domaine des neurosciences

Gince, Jérémie 18 December 2023 (has links)
Titre de l'écran-titre (visionné le 29 novembre 2023) / L'apprentissage automatique a considérablement progressé dans le domaine de la recherche en neurosciences, mais son application pose des défis en raison des différences entre les principes biologiques du cerveau et les méthodes traditionnelles d'apprentissage automatique. Dans ce contexte, le projet présenté propose NeuroTorch, un pipeline convivial d'apprentissage automatique spécialement conçu pour les neuroscientifiques, afin de relever ces défis. Les objectifs clés de ce projet sont de fournir une librairie d'apprentissage profond adaptée aux neurosciences computationnelles, d'implémenter l'algorithme eligibility trace forward propagation (e-prop) pour sa plausibilité biologique, de comparer les réseaux de neurones continus et à impulsions en termes de résilience, et d'intégrer un pipeline d'apprentissage par renforcement. Le projet se divise en plusieurs parties. Tout d'abord, la théorie des dynamiques neuronales, des algorithmes d'optimisation et des fonctions de transformation d'espaces sera développée. Ensuite, l'attention sera portée sur la conception du pipeline NeuroTorch, incluant l'implémentation de l'algorithme e-prop. Les résultats de la prédiction de séries temporelles d'activité neuronale chez le poisson-zèbre seront présentés, ainsi que des observations sur la résilience à l'ablation des réseaux obtenus. Enfin, une section sera consacrée à l'exploration du pipeline d'apprentissage par renforcement de NeuroTorch et à la validation de son architecture dans l'environnement LunarLander de Gym. En résumé, les modèles à impulsions de NeuroTorch ont atteint des précisions de 96,37%, 85,58% et 74,16% respectivement sur les ensembles de validation MNIST, Fashion-MNIST et Heidelberg. De plus, les dynamiques leaky-integrate-and-fire with explicit synaptic current - low pass filter (SpyLIF-LPF) et Wilson-Cowan ont été entraînées avec succès à l'aide de l'algorithme e-prop sur des données neuronales expérimentales du ventral habenula du poisson-zèbre, obtenant respectivement des valeurs de pVar de 0,97 et 0,96. Les résultats concernant la résilience indiquent que l'application de la loi de Dale améliore la robustesse des modèles en termes d'ablation hiérarchique. Enfin, grâce au pipeline d'apprentissage par renforcement de NeuroTorch, différents types d'agents inspirés des neurosciences ont atteint le critère de réussite dans l'environnement LunarLander de Gym. Ces résultats soulignent la pertinence et l'efficacité de NeuroTorch pour les applications en neurosciences computationnelles. / Machine learning has made significant advancements in neuroscience research, but its application presents challenges due to the differences between the biological principles of the brain and traditional machine learning methods. In this context, the presented project proposes NeuroTorch, a comprehensive machine learning pipeline specifically designed for neuroscientists to address these challenges. The key objectives of this project are to provide a deep learning library tailored to computational neuroscience, implement the eligibility trace forward propagation (e-prop) algorithm for biological plausibility, compare continuous and spiking neural networks in terms of resilience, and integrate a reinforcement learning pipeline. The project is divided into several parts. Firstly, the theory of neural dynamics, optimization algorithms, and space transformation functions will be developed. Next focus will be on the design of the NeuroTorch pipeline, including the implementation of the e-prop algorithm. Results of predicting a time series of neuronal activity in zebrafish will be presented, along with observations on the resilience to network ablations obtained. Finally, a section will be dedicated to exploring the NeuroTorch reinforcement learning pipeline and validating its architecture in the LunarLander environment of Gym. In summary, NeuroTorch spiking models achieved accuracies of 96.37%, 85.58%, and 74.16% on the MNIST, Fashion-MNIST, and Heidelberg validation sets, respectively. Furthermore, the leaky-integrate-and-fire with explicit synaptic current - low pass filter (SpyLIF-LPF) and Wilson-Cowan dynamics were successfully trained using the e-prop algorithm on experimental neuronal data from the ventral habenula of zebrafish, achieving pVar values of 0.97 and 0.96, respectively. Results regarding resilience indicate that the application of the Dale law improves the robustness of models in terms of hierarchical ablation. Lastly, through the NeuroTorch reinforcement learning pipeline, different types of neuroscience-inspired agents successfully met the success criterion in the Gym's LunarLander environment. These results highlight the relevance and effectiveness of NeuroTorch for applications in computational neuroscience.
2

Analyse détaillée du fonctionnement interne du schéma de surface CLASS

Tremblay, François. 20 April 2018 (has links)
Le fonctionnement du schéma de surface canadien CLASS a été analysé en détail, basé sur une démarche de rétroconception. L’impact des multiples variables d’états du modèle sur les termes des bilans énergétique et hydrique a été expliqué. La valeur des albédos et des transmissivités de la canopée augmente en fin de saison lorsque la canopée devient moins dense. Donc, le rayonnement au sol augmente alors que celui à la canopée diminue. La résistance de couche limite de la feuille ralentit les transferts de chaleur sensible et latente à la canopée durant le jour, mais n’a aucune influence la nuit. La résistance aérodynamique au transfert de chaleur est plus élevée le jour que la nuit. Elle influe sur les flux de chaleur sensible et latente à la canopée. La résistance de surface au transfert de chaleur est très élevée le jour et peu élevée la nuit. Elle influe sur les flux de chaleur sensible et latente au sol. La résistance stomatale est très grande la nuit. Elle freine le transfert de chaleur latente durant le jour et n’a aucune influence sur les flux de chaleur sensible. Finalement, on a observé de grandes fluctuations de température et de teneur en eau dans les deux premières couches de sol. Tandis que la troisième couche de sol a montré une réaction très lente aux précipitations et aux variations de température à la surface du sol. Les résultats sont supportés d’explications théoriques très détaillées dans la section théorie. / Canadian Land Surface Scheme
3

SCOOP : cadriciel de calcul distribué générique

Hold-Geoffroy, Yannick 23 April 2018 (has links)
Ce document présente SCOOP, un nouveau cadriciel Python pour la distribution automatique de hiérarchies de tâches dynamiques axé sur la simplicité. Une hiérarchie de tâches réfère à des tâches qui peuvent récursivement générer un nombre arbitraire de sous-tâches. L’infrastructure de calcul sous-jacente consiste en une simple liste de ressources de calcul. Le cas d’utilisation typique est l’exécution d’un programme principal sous la tutelle du module SCOOP, qui devient alors la tâche racine pouvant générer des sous-tâches au travers de l’interface standard des « futures » de Python. Ces sous-tâches peuvent elles-mêmes générer d’autres sous-sous-tâches, etc. La hiérarchie de tâches complète est dynamique dans le sens où elle n’est potentiellement pas entièrement connue jusqu’à la fin de l’exécution de la dernière tâche. SCOOP distribue automatiquement les tâches parmi les ressources de calcul disponibles en utilisant un algorithme de répartition de charge dynamique. Une tâche n’est rien de plus qu’un objet Python pouvant être appelé en conjonction avec ses arguments. L’utilisateur n’a pas à s’inquiéter de l’implantation du passage de message ; toutes les communications sont implicites. / This paper presents SCOOP, a new Python framework for automatically distributing dynamic task hierarchies focused on simplicity. A task hierarchy refers to tasks that can recursively spawn an arbitrary number of subtasks. The underlying computing infrastructure consists of a simple list of resources. The typical use case is to run the user’s main program under the umbrella of the SCOOP module, where it becomes a root task that can spawn any number of subtasks through the standard “futures” API of Python, and where these subtasks may themselves spawn other subsubtasks, etc. The full task hierarchy is dynamic in the sense that it is unknown until the end of the last running task. SCOOP automatically distributes tasks amongst available resources using dynamic load balancing. A task is nothing more than a Python callable object in conjunction with its arguments. The user need not worry about message passing implementation details; all communications are implicit.
4

Cours personnalisés et génération d'exercices

Prieur, Antoine Serge Max 18 March 2022 (has links)
Le cours d'un professeur donné à des étudiants se sépare en général en deux parties distinctes, la première consiste en la transmission des connaissances, et ensuite vient un dialogue entre les deux parties afin de répondre aux questions des étudiants et de les faire progresser. La phase d'échange est très importante, car elle permet aux élèves de mieux appréhender les notions qu'ils viennent d'apprendre. Elle demande cependant une grande implication du professeur pour répondre aux questions de chaque étudiant. À l'inverse, la phase de transmission des connaissances est souvent une élocution du professeur plutôt qu'une interaction avec les élèves. De plus, cette transmission est répétitive d'une année à l'autre, et certaines notions basiques pourraient être apprises d'une autre manière afin que l'enseignant puisse se concentrer davantage sur l'échange avec ses étudiants. À l'image de la médecine personnalisée, une médecine qui se base sur les caractéristiques génétiques et moléculaires du patient afin de lui proposer un traitement plus efficace, nous proposons dans ce mémoire de réfléchir à une méthode permettant d'adapter et d'automatiser la phase de transmission des connaissances à chaque étudiant. Plutôt que d'énoncer le même cours à tous les élèves, ou de donner le même médicament à tous les patients, nous souhaitons utiliser les antécédents de l'étudiant en vue de lui proposer une version personnalisée du cours adaptée à ses besoins, ce qui lui permettrait d'apprendre plus facilement. L'automatisation de cette tâche permettrait en plus de libérer du temps au professeur pour d'autres tâches. Nous allons nous concentrer dans ce mémoire sur l'apprentissage d'un langage de programmation tel que le Python. Nous allons réfléchir à une démarche permettant d'automatiser et de personnaliser son apprentissage. Pour ce faire, nous allons travailler sur la génération de code Python à partir d'une description en langage naturel afin de créer automatiquement des exercices. Cette génération permet de recommander automatiquement des exercices adaptés aux élèves. Nous allons utiliser les avancées en intelligence artificielle afin de simuler l'intelligence d'un professeur pour adapter au mieux le programme à chaque étudiant. / A teacher's lecture to students is usually divided into two distinct parts, the first of which consists of the transmission of knowledge, followed by a dialogue between the two parties in order to answer the students' questions and help them progress. The exchange phase is very important, as it allows the students to better understand the concepts they have just learnt. However, it requires a great deal of involvement on the part of the teacher to answer each student's questions. In contrast, the knowledge transmission phase is often a speech by the teacher rather than an interaction with the students. Moreover, this transmission is repetitive from one year to the next, and some basic notions could be learnt in another way so that the teacher can concentrate more on the exchange with his students. In the image of personalised medicine, a medicine that is based on the genetic and molecular characteristics of the patient in order to propose a more effective treatment, we propose in this manuscript to think about a method that would allow us to adapt and automate the phase of knowledge transmission to each student. Rather than giving the same lecture to all students, or the same drug to all patients, we want to use the student's background to provide a personalised version of the lecture that is tailored to their needs, making it easier for them to learn. The automation of this task would also free up the teacher's time for other tasks. In this manuscript, we will focus on the learning of a programming language such as Python. We will think about an approach that allows us to automate and personalise its learning. To do this, we will work on the generation of Python code from a natural language description in order to automatically create exercises. This generation allows us to automatically recommend exercises adapted to the students. We will use advances in artificial intelligence to simulate the intelligence of a teacher to best adapt the programme to each student.
5

Decision-support modeling in island aquifers using sharp-interface seawater intrusion models

Coulon, Cécile 10 January 2024 (has links)
Titre de l'écran-titre (visionné le 9 janvier 2024) / Les modèles hydrogéologiques permettent de décrire la réponse des systèmes aquifères soumis à différents forçages naturels et anthropiques, et peuvent donc être utilisés pour évaluer les éventuels effets néfastes associés à différentes stratégies de gestion de l'eau souterraine. Les variables simulées par les modèles sont intrinsèquement incertaines, et des analyses telles que l'estimation des paramètres, l'analyse quantitative des incertitudes et l'optimisation de gestion sous incertitude sont essentielles pour fournir des informations quantitatives robustes pour appuyer la prise de décision des gestionnaires de l'eau souterraine. Cependant, ces analyses sont rarement effectuées dans les modèles d'écoulement d'eau souterraine simulant l'intrusion saline, à cause des temps de calculs très longs des modèles simulant le transport advectif-dispersif. L'objectif de cette recherche était de fournir des cadres méthodologiques pour la mise en place de ces analyses dans les modèles opérationnels régionaux simulant l'intrusion saline. Des méthodologies reproductibles ont ainsi été développées pour l'estimation des paramètres, l'analyse quantitative des incertitudes et l'optimisation des pompages sous incertitude à l'aide de modèles d'intrusion saline dits à « interface abrupte », qui ne simulent pas explicitement les phénomènes de dispersion hydrodynamique. Des approches déterministes puis stochastiques ont été développées, prenant en compte l'incertitude dans les paramètres du modèle, l'incertitude dans les observations utilisées pour contraindre l'estimation des paramètres, et finalement l'incertitude climatique. Des méthodes ont été développées pour extraire des observations de charge d'eau douce équivalente et d'interface eau douce-eau salée de différents types de puits et de la géophysique, et pour estimer leurs incertitudes. Une analyse a posteriori a déterminé quels types d'observations étaient essentiels pour réduire les incertitudes prédictives du modèle, pour guider de futures collectes de données dans les aquifères insulaires ou côtiers. Une méthodologie a également été développée pour optimiser les pompages dans une lentille d'eau douce insulaire avec un modèle à interface abrupte, en corrigeant l'interface par une solution analytique pour estimer de manière simplifiée la dispersion d'eau salée liée au pompage. Toutes les méthodologies développées ont utilisé des logiciels d'écoulement de l'eau souterraine (MODLOW-SWI2) et des outils d'aide à la décision (PEST_HP, PEST++, PyEMU) libres et facilement accessibles. Ces méthodes ont été intégralement développées sous la forme de scripts Python pour faciliter leur reprise dans d'autres projets de modélisation hydrogéologique. Les résultats démontrent les avantages liés à la mise en place d'outils d'aide à la décision dans les modèles numériques d'écoulement de l'eau souterraine. L'optimisation des pompages sous incertitude permet d'obtenir le débit de pompage maximal en fonction du risque de salinisation (à comparer à la demande en eau); cette approche permet aux gestionnaires de l'eau souterraine de choisir le scénario souhaité en fonction de leur degré de tolérance au risque. L'estimation des paramètres permet de réduire les incertitudes prédictives du modèle, ce qui influence directement les débits de pompage optimaux. La prise en compte de l'incertitude climatique augmente l'incertitude prédictive du modèle et réduit les débits de pompages optimaux pour les gestionnaires ayant une attitude conservatrice face au risque. Cette recherche était motivée par des problématiques concrètes de gestion de l'eau souterraine aux Iles de la Madeleine (Québec, Canada), et les méthodologies mises en place pourraient être utilisées pour appuyer la prise de décision des gestionnaires de l'eau souterraine dans d'autres milieux côtiers ou insulaires. / Numerical models enable the assessment of a groundwater system's response to various natural processes and human activities, and thus can be used to evaluate whether a management strategy could lead to adverse effects. Model predictions are not exact predictions of the behavior of natural systems, and the implementation of analyses such as parameter estimation, uncertainty quantification and management optimization under uncertainty are therefore critical to support groundwater management. However, they are rarely implemented in seawater intrusion numerical models, due to the prohibitive model simulation times of advective-dispersive solute transport models. The objective of this research was to provide a framework for the implementation of these decision-support analyses in real-world seawater intrusion models at regional scales. Highly-reproducible, scripted methodologies were developed for parameter estimation, uncertainty quantification and pumping optimization under uncertainty using computationally-efficient sharp-interface models, which do not explicitly simulate hydrodynamic dispersion. Both deterministic and stochastic, ensemble-based approaches were implemented, accounting for parameter and observation uncertainty as well as climate uncertainty. Methodologies were developed for the processing and uncertainty quantification of freshwater heads and freshwater-seawater interface elevations from different types of wells and geophysical data. A data worth analysis provided insights on future data collection strategies in coastal or island aquifers, and found that interface observations, particularly geophysical observations, were most useful to reduce model predictive uncertainties. A methodology was also developed to optimize pumping rates in a sharp-interface model of an island freshwater lens, using an analytical correction for dispersion to overcome the limitations of the sharp-interface model. All the methodologies developed used widely available groundwater flow software (MODFLOW-SWI2) and decision-support tools (PEST, PEST_HP, PEST++, PyEMU), and were entirely scripted using Python to facilitate their adoption by the wider groundwater modeling community. The results collectively demonstrate the benefits of implementing decision-support analyses in groundwater numerical models. Pumping optimization under uncertainty enabled the quantification of the optimal tradeoff between increasing pumping rates (to meet the water demand) and the risk of well salinization, which allows groundwater managers to select their preferred management scenario depending on the level of risk that they consider to be acceptable. Conducting history matching enabled a reduction of model predictive uncertainty, which directly impacted the maximum allowable pumping rates. Accounting for climate uncertainty led to increased model predictive uncertainty and a reduction of the maximum allowable pumping rates for managers with a risk-averse stance. This research was motivated by real-world groundwater management challenges in the Magdalen Islands (Québec, Canada), and the methodologies that were developed could be used to support decision-making in other coastal or island aquifers.

Page generated in 0.1585 seconds