• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3009
  • 1255
  • 255
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 4451
  • 1272
  • 876
  • 763
  • 730
  • 540
  • 497
  • 478
  • 474
  • 454
  • 341
  • 341
  • 314
  • 305
  • 300
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Investigation of viral and host factors contributing to the pathogenesis of human metapneumovirus infection and development of a subunit vaccine

Aerts, Laetitia 23 April 2018 (has links)
Le métapneumovirus humain (HMPV) est un virus responsable des infections aiguës des voies respiratoires chez l’enfant ainsi que chez l’adulte. Dans les populations à risque élevée, comme les jeunes enfants, les personnes âgées et les patients immuno-supprimés, le HMPV entraîne une morbidité et une mortalité importante. La pathogenèse de l'infection par le HMPV reste largement inconnue, mais des modèles animaux qui permettent l'étude de cette pathogenèse ont été développés. En effet, le modèle des souris BALB/c a déjà été développé dans le laboratoire du Dr Guy Boivin. Ce modèle murin nous a permis de démontrer que la protéine de fusion (F) contribue à la capacité réplicative du virus, mais qu’elle n’est pas la seule protéine responsable de la virulence de ce virus. De plus, nous avons démontré que le récepteur activé par les protéases (PAR1) contribue de manière significative à la pathogenèse du HMPV. Actuellement, aucun vaccin ou modalité thérapeutique spécifique contre le HMPV sont disponibles. Trois facteurs principaux ont entravé le développement d'un vaccin sûr et efficace contre le HMPV; 1) Le précédent d’une maladie accrue associée à l'utilisation de vaccins inactivées contre la rougeole et le virus respiratoire syncytial (HRSV) et la démonstration d’une maladie accrue suite à une vaccination avec le HMPV inactivé chez les animaux. 2) Le manque de protection à long terme induite par les vaccins contre le HMPV chez les animaux. 3) Notre compréhension limitée des contributions individuelles des protéines virales dans le développement de l'immunité contre le HMPV. En développant un vaccin sous-unitaire comprenant de la protéine F et la protéine de la matrice (M), nous avons démontré que la protéine M contribue de manière significative à la protection chez la souris immunisée. / Human metapneumovirus (HMPV) is an important etiological agent of acute respiratory tract infection in both children and adults. In high-risk populations, such as infants, elderly individuals and immunocompromised patients, HMPV causes significant morbidity and mortality. The pathogenesis of HMPV infection remains largely unknown, but animal models of HMPV infection have been developed that allow for the study of such pathogenesis. Indeed, the BALB/c mouse model of HMPV infection was previously developed in Dr Boivin’s laboratory. Using this murine model, we showed that the HMPV fusion (F) protein contributes to, but is not solely responsible for the replicative capacity and virulence of the virus and we demonstrated that the cellular protease-activated receptor-1 (PAR1) significantly contributes to HMPV pathogenesis. To date, no HMPV-specific vaccines or therapeutic modalities are available. Three major factors have haltered the development of a safe and effective HMPV vaccine; 1) the precedent of vaccine-enhanced disease associated with the use of HRSV and measles vaccines and the demonstration of vaccine-enhanced disease upon inactivated HMPV vaccination in animal models. 2) The lack of long-term protection induced by HMPV vaccines in animals. 3) Our limited understanding of the individual contributions of HMPV proteins to host immunity. By developing a subunit vaccine consisting of the HMPV F and matrix (M) protein, we demonstrate that the HMPV M protein significantly contributes to vaccine-induced protection in mice.
142

Influence of the dentritic morphology on electrophysiological responses of thalamocortical neurons

Zomorrodi Moghaddam, Reza 18 April 2018 (has links)
Les neurones thalamiques de relai ont un rôle exclusif dans la transformation et de transfert de presque toute l'information sensorielle dans le cortex. L'intégration synaptique et la réponse électrophysiologique des neurones thalamiques de relai sont déterminées non seulement par l’état du réseau impliqué, mais ils sont également contrôlés par leurs propriétés intrinsèques tels les divers canaux ioniques voltage-dépendants ainsi que l’arborisation dendritique élaboré. Par conséquent, investiguer sur le profil complexe de morphologie dendritique et sur les propriétés dendritiques actives révèle des renseignements importants sur la fonction d'entrée-sortie de neurones thalamiques de relai. Dans cette étude, nous avons reconstruit huit neurones thalamocorticaux (TC) du noyau VPL de chat adulte. En se basant sur ces données morphologiques complètes, nous avons développé plusieurs modèles multicompartimentaux afin de trouver un rôle potentiellement important des arbres dendritiques des neurones de TC dans l'intégration synaptique et l’intégration neuronale. L'analyse des caractéristiques morphologiques des neurones TC accordent des valeurs précises à des paramètres géométriques semblables ou différents de ceux publiés antérieurement. En outre, cette analyse fait ressortir de tous nouveaux renseignements concernant le patron de connectivité entre les sections dendritiques telles que l'index de l'asymétrie et la longueur de parcours moyen (c'est-à-dire, les paramètres topologiques). Nous avons confirmé l’étendue des valeurs rapportée antérieurement pour plusieurs paramètres géométriques tels que la zone somatique (2956.24±918.89 m2), la longueur dendritique totale (168017.49±4364.64 m) et le nombre de sous-arbres (8.3±1.5) pour huit neurones TC. Cependant, contrairement aux données rapportées antérieurement, le patron de ramification dendritique (avec des cas de bifurcation 98 %) ne suit pas la règle de puissance de Rall 3/2 pour le ratio géométrique (GR), et la valeur moyenne de GR pour un signal de propagation est 2,5 fois plus grande que pour un signal rétropropagé. Nous avons également démontré une variabilité significative dans l'index de symétrie entre les sous-arbres de neurones TC, mais la longueur du parcours moyen n'a pas montré une grande variation à travers les ramifications dendritiques des différents neurones. Nous avons examiné la conséquence d’une distribution non-uniforme des canaux T le long de l'arbre dendritique sur la réponse électrophysiologique émergeante, soit le potentiel Ca 2+ à seuil bas (low-threshold calcium spike, LTS) des neurones TC. En appliquant l'hypothèse du «coût minimal métabolique», nous avons constaté que le neurone modélisé nécessite un nombre minimal de canaux-T pour générer un LTS, lorsque les canaux-T sont situés dans les dendrites proximales. Dans la prochaine étude, notre modèle informatique a illustré l'étendue d'une rétropropagation du potentiel d'action et de l'efficacité de la propagation vers des PPSEs générés aux branches dendritiques distales. Nous avons démontré que la propagation dendritique des signaux électriques est fortement contrôlée par les paramètres morphologiques comme illustré par les différents paliers de polarisation obtenus par un neurone à équidistance de soma pendant la propagation et la rétropropagation des signaux électriques. Nos résultats ont révélé que les propriétés géométriques (c.-à-d. diamètre, GR) ont un impact plus fort sur la propagation du signal électrique que les propriétés topologiques. Nous concluons que (1) la diversité dans les propriétés morphologiques entre les sous-arbres d'un seul neurone TC donne une capacité spécifique pour l'intégration synaptique et l’intégration neuronale des différents dendrites, (2) le paramètre géométrique d'un arbre dendritique fournissent une influence plus élevée sur le contrôle de l'efficacité synaptique et l'étendue du potentiel d'action rétropropagé que les propriétés topologiques, (3) neurones TC suivent le principe d’optimisation pour la distribution de la conductance voltage-dépendant sur les arbres dendritiques. / Thalamic relay neurons have an exclusive role in processing and transferring nearly all sensory information into the cortex. The synaptic integration and the electrophysiological response of thalamic relay neurons are determined not only by a state of the involved network, but they are also controlled by their intrinsic properties; such as diverse voltage-dependent ionic channels as well as by elaborated dendritic arborization. Therefore, investigating the complex pattern of dendritic morphology and dendritic active properties reveals important information on the input-output function of thalamic relay neurons. In this study, we reconstructed eight thalamocortical (TC) neurons from the VPL nucleus of adult cats. Based on these complete morphological data, we developed several multi-compartment models in order to find a potentially important role for dendritic trees of TC neurons in the synaptic integration and neuronal computation. The analysis of morphological features of TC neurons yield precise values of geometrical parameters either similar or different from those previously reported. In addition, this analysis extracted new information regarding the pattern of connectivity between dendritic sections such as asymmetry index and mean path length (i.e., topological parameters). We confirmed the same range of previously reported value for several geometric parameters such as the somatic area (2956.24±918.89 m2), the total dendritic length (168017.49±4364.64 m) and the number of subtrees (8.3±1.5) for eight TC neurons. However, contrary to previously reported data, the dendritic branching pattern (with 98% bifurcation cases) does not follow Rall’s 3/2 power rule for the geometrical ratio (GR), and the average GR value for a forward propagation signal was 2.5 times bigger than for a backward propagating signal. We also demonstrated a significant variability in the symmetry index between subtrees of TC neurons, but the mean path length did not show a large variation through the dendritic arborizations of different neurons. We examined the consequence of non-uniform distribution of T-channels along the dendritic tree on the prominent electrophysiological response, the low-threshold Ca2+ spike (LTS) of TC neurons. By applying the hypothesis of “minimizing metabolic cost”, we found that the modeled neuron needed a minimum number of T-channels to generate low-threshold Ca2+ spike (LTS), when T-channels were located in proximal dendrites. In the next study, our computational model illustrated the extent of an action potential back propagation and the efficacy of forward propagation of EPSPs arriving at the distal dendritic branches. We demonstrated that dendritic propagation of electrical signals is strongly controlled by morphological parameters as shown by different levels of polarization achieved by a neuron at equidistance from the soma during back and forward propagation of electrical signals. Our results revealed that geometrical properties (i.e. diameter, GR) have a stronger impact on the electrical signal propagation than topological properties. We conclude that (1) diversity in the morphological properties between subtrees of a single TC neuron lead to a specific ability for synaptic integration and neuronal computation of different dendrites, (2) geometrical parameter of a dendritic tree provide higher influence on the control of synaptic efficacy and the extent of the back propagating action potential than topological properties, (3) TC neurons follow the optimized principle for distribution of voltage-dependent conductance on dendritic trees.
143

L'impact sur le cerveau du vieillissement cognitivement sain

Pattee-Gravel, Victor 10 February 2024 (has links)
Ce mémoire décrit plusieurs modèles qui cherchent à prédire le vieillissement du cerveau chez des individus âgés ayant une cognition intacte. Nous effectuons d’abord des tests statistiques afin de comparer différents modèles. À partir de ceux-ci, nous présentons des estimés du moment critique à partir duquel certaines structures cérébrales ont décru morphométriquement de façon notable en guise d’indice de fragilité. Nous mesurons également l’asymétrie hémisphérique de la décroissance de chaque région. Nous proposons différentes façons d’ordonnancer les régions du cerveau selon différentes quantités mesurant le taux vieillissement. Finalement, nous établissons un outil qui permet d’évaluer l’âge virtuel correspondant aux mesures cérébrales pour le cerveau d’un individu, selon les estimés de normalité. / In this memoir, we propose different models in order to predict the effect of aging on brain atrophy, computed from neuroimagery data. We begin with different statistical tests in order to chose between models and assert if different regions have significant asymmetry in their development. We then compute critical moments after which we predict that the measures of a region have significantly decreased. We use these critical moments to order the regions, as we suppose it’s a good indicator of fragility in aging. We finish by proposing a method of predicting the neurological age of an individual from it’s neuroimagery data.
144

Influence of hydrograph separation on the automatic calibration of the SWAT hydrological model

Umuhire, Flora 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 9 mai 2023) / L'évaluation des processus hydrologiques implique l'utilisation de modèles pour décrire et comprendre les processus hydrologiques mis en œuvre dans les bassins versants. Cependant, les incertitudes dans la simulation des processus hydrologiques peuvent être considérables et donner lieu à des modèles peu fiables. Idéalement, un modèle hydrologique fiable reproduit à la fois les processus hydrologiques locaux et le débit des cours d'eau. Par conséquent, un calage du modèle hydrologique qui se concentre uniquement sur le débit global mesuré à l'exutoire du bassin versant risque de ne pas saisir les processus hydrologiques réels engendrés par les cheminements de l'eau dans un bassin versant, notamment la séparation des flux hydriques en flux d'eau de surface, en flux d'eau du sol et en décharge des nappes souterraines. Cependant, pour obtenir une représentation adéquate des processus hydrologiques contribuant à la génération du débit global, il est nécessaire de disposer d'observations hydrologiques pertinentes. À ce titre, la séparation des hydrogrammes est utile pour représenter les processus sous-jacents qui régissent l'écoulement global. Dans cette étude du petit bassin versant agricole (33,2 km²) du ruisseau Ewing, un affluent de la rivière Aux Brochets en Montérégie, au Québec, nous avons exploré le potentiel de la séparation des hydrogrammes dans la procédure d'optimisation des paramètres par le calage automatique des débits, tout en assurant une représentation réaliste des processus hydrologiques régissant les débits à l'échelle du bassin versant. Pour y parvenir, une condition préalable importante était de comprendre le fonctionnement hydrologique des bassins versants agricoles au Québec profitant de drainage souterrain artificiel de façon systématique. À cette fin, nous avons étudié la séparation des hydrogrammes en utilisant la conductivité électrique de l'eau du cours d'eau comme traceur des voies hydrologiques et évalué la performance de différentes méthodes existantes de séparation des hydrogrammes, dont les techniques de filtrage automatisé. Six méthodes courantes ont été évaluées : BFLOW, UKIH, PART, FIXED, SLIDE, LOCMIN et Eckhardt. Elles ne diffèrent que par la manière dont elles filtrent les flux lents par rapport aux flux rapides. Pour la mise en œuvre de la méthodologie de séparation des hydrogrammes dans le processus d'optimisation des paramètres, seules trois méthodes sélectionnées (BFLOW, Eckhardt et géochimique) ont été appliquées pour le calage automatique du modèle hydrologique SWAT. Les trois méthodes... / The assessment of hydrological processes involves the use of models to describe and understand the hydrological processes occurring in watersheds. However, uncertainties in the simulation of hydrological processes can be considerable and result in unreliable models. Ideally, a reliable hydrological model captures both local hydrological processes and stream discharge. Therefore, a hydrological model calibration that focuses only on the overall discharge measured at the watershed outlet may not capture the real world hydrological processes that are driven by the water pathways in a watershed, particularly the separation of water flows into surface water flows, soil water flows and groundwater discharge. However, to achieve an adequate representation of the hydrological processes contributing to the overall discharge generation, it is necessary to have relevant hydrological observations. As such, hydrograph separation is useful in representing the underlying processes governing the overall flow. In this study of the small (33.2 km²) agricultural subwatershed of Ewing creek, a tributary of the Aux Brochets river in Montérégie, Quebec, we have explored the potential of hydrograph separation in the procedure of parameters optimization through automatic streamflow calibration, while ensuring a realistic representation of the hydrological processes governing water flows at the subwatershed scale. To realize this, an important prerequisite was to understand the hydrological functioning of agricultural subwatersheds in Quebec under systematic artificial subsurface drainage. To this end, we studied hydrograph separation using the stream water electrical conductivity as a tracer of the hydrological pathways and evaluated the performance of different existing hydrograph separation methods including automated filtering techniques. Six popular methods were evaluated: BFLOW, UKIH, PART, FIXED, SLIDE, LOCMIN and Eckhardt. They only differ in the way they filter slow flow to quick flow. For the implementation of the hydrograph separation methodology in the parameters optimization process, only three selected methods (BFLOW, Eckhardt and geochemical) were applied for the automatic calibration of the SWAT hydrological models. The three hydrograph separation methods integrated...
145

Modélisation à l'échelle mésoscopique de la cellule élémentaire d'un renfort composite 3D interlock à partir de tomographies à rayon X

Georgiou, Aubin 10 February 2024 (has links)
Ce mémoire présente les travaux de mise en œuvre d'un modèle numérique par éléments finis de la cellule unitaire représentative d'un composite interlock 3D, à partir de tomographies. Ce matériau se compose de torons tissés dans les directions chaine et trame, ainsi qu'à travers l'épaisseur. Ce type d'interlock 3X a été largement étudié ces dix dernières années, sans pour autant que des modèles numériques performants soient réalisés, ce qui rend nécessaire une modélisation numérique de sa cellule unitaire. Il présente pourtant des avantages vis-à-vis des autres types de composites, notamment grâce à l'absence du phénomène de délamination, cause principale de dégradation des composites. Ce travail présente la démarche et les moyens mis en œuvre pour obtenir la cellule unitaire numérique du matériau. Des tomographies de différents états du tissu sec, non compacté et compacté, ont été réalisées afin de générer un modèle éléments finis à partir du logiciel de traitement d'image AVIZO ainsi que du logiciel de génération de textile TEXGEN. Un modèle simplifié d'une tranche de cellule unitaire a été choisi afin de simuler et valider le procédé de compaction numérique avec le logiciel élément finis Abaqus. Les résultats du modèle de compaction ont été comparés aux tomographies du tissu sec compacté. Les résultats de cette simulation simplifiée sont prometteurs. La déformation et les déplacements des torons obtenus sur la cellule unitaire du tissu sec simulé sont très proches de ceux observés sur les tomographies du tissu compacté de la sorte. / This thesis presents the work conducted toward the development of a finite element model of the representative unit cell of a 3D interlock composite, based on tomographies. This material is composed of yarns woven in the warp and weft directions, as well as through the thickness. This kind of 3X interlock has been very little studied to date, which makes numerical modelling of its unit cell necessary. However, it present advantages over other types of composites, in particular the absence of delamination phenomenon, the main cause of composite degradation. This work presents the approach and the means employed to obtain the numerical unit cell of the material. Tomographies of different states of the dry, uncompacted and compacted fabric were carried out in order to generate a finite element model from the image processing software AVIZO and the textile generation software TEXGEN. A simplified model of a unit cell slice was chosen in order to simulate and validate the numerical compaction process with the Abaqus finite element software. The results of the compaction model were compared with tomographies of dry texile. The results of this simplified simulation are promising. The deformation and displacements of the yarns obtained on the unit cell of the simulated dry textile are very close to those observed on tomographies of the compacted textile.
146

Problèmes de changement de phase avec la méthode CutFEM

Tchinda Ngueyong, Ismaël 10 June 2024 (has links)
Cette thèse porte sur la modélisation numérique des problèmes de changement de phase. Le but est de proposer un algorithme robuste, basé essentiellement sur la méthode CutFEM, pour résoudre le problème avec la plus grande précision possible. Dans notre démarche, la méthode level-set est employée pour une représentation implicite de l'interface entre différentes phases, tandis que l'imposition des conditions essentielles sur cette dernière se fait à l'aide de la variante symétrique de la méthode de Nitsche. Le premier résultat de la thèse porte sur le développement d'un post-traitement fiable, facile à implémenter, pour une meilleure estimation du flux à travers une frontière immergée. La solution proposée est inspirée de la méthode de l'intégrale de domaine, à la différence que nous introduisons une stabilisation de type Ghost Penalty pour éliminer la sensibilité de la qualité de l'approximation à l'interface par rapport aux nœuds du maillage. L'idée est validée à travers une série d'exemples 2D et 3D.Le deuxième résultat concerne le développement d'un solveur CutFEM pour la simulation des problèmes de Stefan à deux phases sans convection. Dans notre approche, nous nous servons du premier résultat pour une meilleure évaluation de la vitesse de l'interface. Quant à la stabilisation des formulations d'extension de la vitesse et du transport de la fonction level-set, nous avons opté pour la méthode CIP (Continuous Interior Penalty) qui a déjà fait preuve d'une grande efficacité pour des problèmes fortement dominés par la convection. Des exemples numériques 2D permettent de confirmer l'efficacité de notre algorithme puisque des taux de convergence optimaux sont obtenus. Une simulation 3D est également proposée pour démontrer la validité du solveur dans une configuration plus réaliste. Pour le dernier résultat, nous reconsidérons le problème de Stefan, mais cette fois en prenant en compte la convection naturelle dans la phase liquide. L'équation de conduction de la chaleur est alors modifiée par l'ajout d'un terme de convection. De plus, cette équation est couplée aux équations de Navier-Stokes, introduisant de fait des non-linéarités supplémentaires. Un schéma itératif basé sur la méthode de Newton est alors proposé pour une résolution efficace du système. Les autres étapes de résolution sont assez similaires à celles de l'algorithme développé pour les problèmes de Stefan sans convection. Une étude numérique approfondie du solveur est présentée. Premièrement, l'efficacité de la discrétisation en temps et en espace est étudiée pour des problèmes (relativement simples) avec des solutions manufacturées. Ensuite, pour un problème beaucoup plus complexe modélisant la solidification de l'eau, une comparaison des résultats obtenus numériquement avec les résultats expérimentaux connus dans la littérature est présentée. Enfin, d'autres problèmes de changement de phase encore plus complexes tels que la fusion du gallium dans une cavité rectangulaire, ou encore celle du n-octadécane dans une cavité cubique sont considérés, et une comparaison des résultats de simulation avec les données expérimentales est également présentée. / This thesis focuses on the numerical modeling of phase change problems. The aim is to propose a robust CutFEM-based algorithm to solve the problem with the highest possible accuracy. In our approach, the level-set technique is used for an implicit representation of the interface, whereas the imposition of the essential conditions on the interface is done using the symmetric variant of the Nitsche method. The first result of the thesis is the development of a reliable, easy-to-implement post-processing for an accurate estimate of the flux across an interface. The proposed solution is inspired by the domain integral method, with the difference that we introduce Ghost Penalty stabilization to eliminate the sensitivity to the interface location relative to the mesh nodes. The accuracy of the method is validated through a series of two- and three-dimensional examples. The second result concerns the development of a CutFEM method for the numerical simulation of two-phase Stefan's problems without convection. In our approach, we use the idea of the first result for an accurate evaluation of the normal speed of the interface. Regarding the stabilization of the velocity extension and front transportation problems, we opted for the Continuous Interior Penalty method which has shown great effectiveness for convection-dominated problems. Two-dimensional numerical examples are used to confirm the effectiveness of our algorithm since optimal convergence rates are achieved. A three-dimensional simulation is also provided to demonstrate the validity of the solver in a more realistic configuration. For the last result, we reconsider the Stefan problem, but this time taking into account natural convection in the liquid phase. In this phase, the heat conduction equation is then modified by the addition of a convection term. Furthermore, this equation is coupled to the Navier-Stokes equations, thereby introducing additional nonlinearities. An iterative scheme based on Newton's method is then proposed for an efficient solution of the system. The other steps of the proposed solver are quite similar to those of the solver developed for Stefan problems without convection. An in-depth numerical study of the solver is presented. First, the efficiency of discretization in time and space is studied for (relatively simple) problems with manufactured solutions. Then, for a much more complex problem modeling the solidification of water, a comparison of the results obtained numerically with the experimental results known in the literature is presented. Finally, other even more complex phase change problems such as the fusion of gallium in a rectangular cavity, or that of n-octadecane in a cubical test cell are considered, and a comparison of the simulation results with experimental data is also provided.
147

Origine des états actifs spontanés dans le néocortex pendant les oscillations du sommeil

Chauvette, Sylvain 12 April 2018 (has links)
Le sommeil à ondes lentes est composé d’une alternance entre un état actif et un état silencieux dans le système thalamocortical. Les mécanismes produisant l’état actif et l’état silencieux sont inconnus. Afin d’étudier l’origine des états actifs, nous avons procédé à l’enregistrement intracellulaire simultané de 2 à 4 neurones dans un environnement local (< 200μm) et dans un environnement distant (jusqu’à 12mm). Aussi, nous avons procédé à l’enregistrement simultané de potentiels de champ locaux (jusqu’à 16). Ces expériences ont été menées chez le chat anesthésié et chez le chat non-anesthésié. Nous avons trouvé que les cellules à bouffées de potentiels d’action ainsi que les cellules situées profondément ont tendance à être les premières à entrer dans l’état actif. Aussi, nous avons observé une grande variabilité dans les délais d’activation des cellules et ce, qu’elles soient situées près l’une de l’autre ou qu’elles soient distantes. De plus, nous avons observé que le déclenchement de l’état silencieux était beaucoup plus synchrone que le déclenchement de l’état actif. / The slow-wave sleep is composed of an alternating period of active and silence state in the thalamocortical system. The mechanisms producing the active and silence state are unknown. In order to investigate the origin of active states, we performed simultaneous intracellular recording of 2 to 4 closely located (< 200μm) neurons and in a distant environment (up to 12mm). In addition, we performed simultaneous local field potentials (up to 16) recordings. These experiments were conducted on anesthetized and nonanesthetized cats. We found that Intrinsically-Bursting cells and deeply located cells have tendency to lead in the onset of the active state. We also observed a high, but similar, variability in the activation delay for closely located cells as well as for distantly located cells. In addition, we observed that the onset of silent state is much more synchronous than the onset of active state.
148

Élaboration d'une plate-forme de calculs numériques d'un modèle d'état à la base d'une approche phénoménologique : cas d'un four rotatif de clinker

N'zi, Yoboué Guillaume 20 April 2018 (has links)
Cette étude développe une plate-forme mathématique allant de la création d’une base de connaissances à la mise en place d’un modèle adaptatif. Une nouvelle approche en ce qui concerne la modélisation du four rotatif du clinker a été nécessaire pour mener à bien notre étude. Ainsi, un modèle d’état du système aux paramètres repartis, à la base des phénomènes physico-chimiques, a été conçu à l’aide d’équations aux dérivées partielles. La structure du modèle est basée sur trois variables d’état qui peuvent décrire correctement les principaux phénomènes (diffusions, déplacements, transferts et échanges thermiques, etc.) qui se déroulent dans le four rotatif de clinker. En outre, ces variables d’état sont accessibles à travers des paramètres mesurables tels que les températures de la surface extérieure du four et de l’air ambiant. Les paramètres du modèle proposé sont des fonctions de trois variables d’état, qui tout en remplaçant les paramètres mal connus et inaccessibles, décrivent les phénomènes physicochimiques qui caractérisent la complexité du système et sont définis comme des fonctions opératoires. Cette approche permet non seulement de minimiser les erreurs (hypothèse de simplification) mais aussi permet un accès facile et aisé des paramètres. Nous avons élaboré une procédure d’identification basée sur des analyses phénoménologique et dimensionnelle. Ainsi, à partir de données issues d’un complément d’instrumentation associé à la base de connaissances, l’identification des fonctions opératoires (paramètres) a été effectuée à partir d’un état stationnaire du système qui représente notre condition initiale. Cette opération est importante dans la mesure où elle donne aux paramètres du modèle les propriétés de la dynamique du système. Ces résultats sont corroborés par les estimations des variables d’état dont les valeurs et évolutions sont acceptables. Après l’évaluation de l’influence des fonctions opératoires sur les variables d’état, une modélisation des paramètres (fonctions opératoires) du modèle a été proposée à la base d’une décomposition physique à la lumière des connaissances fournies dans la littérature. Une procédure d’ajustement a été également développée afin de pouvoir fournir des variables d’état optimales. Ainsi, l’erreur peut être compensée par ajustement des fonctions opératoires. Par conséquent, à travers la rapidité de la procédure d’ajustement et l’adaptation des paramètres du modèle dans un horizon de temps bien déterminé, le modèle renferme les caractéristiques d’un modèle adaptatif qui pourra être un support essentiel dans la commande automatique du système. / This study develops a mathematical platform going from the establishment of a knowledge database to the setting up of an adaptive model. This has required a new approach of modeling of the clinker rotary kiln (CRK). Thus, a state model of distributed parameter systems, based on physico-chemical phenomena, was designed using partial differential equations. The model structure is based on three state variables which are: the gas, clinker temperatures and the clinker mass distributions, and are elaborated with the help of heat, pressure and mass balance equations. The model parameters are defined by the functions of three state variables. Moreover, the resulting state model, decomposed into five phenomenological zones of CRK, is used as a first step to define a set of Operating Functions (OFs). These OFs has also been decomposed into longitudinal distribution of CRK to replace the constant, unknown or unmeasured parameters. We develop an identification procedure based on phenomenological and dimensional analysis where the identification of operational functions (model parameters) was performed from a stationary state of the CRK. Once the restores state variables have been evaluated, the desired input (which is treated as the control of the CRK) can be more easily found by the proposed model than by simple trial and error. Moreover, the fact that the computation time, to estimate-calibrate the OFs above-mentioned, is very short, then this dynamic computation works faster than real-time. In summary, the cooperation and coordination in real-time between industrial computers and the CRK allows for an adaptable model, where each specific set of the OFs must be analyzed by its accuracy.
149

Hydrological post-processing of streamflow forecasts issued from single-model and multimodel ensemble prediction systems

Xu, Jing 10 February 2024 (has links)
Les simulations et prévisions hydrologiques sont sujettes à diverses sources d'incertitudes, qui sont malheureusement inévitables. La cascade d'incertitude provient de différentes composantes de la chaîne de prévision, telles que la nature chaotique de l'atmosphère, diverses conditions initiales et limites, une modélisation hydrologique conceptuelle nécessairement inexacte et des paramètres stationnaires incohérents avec un environnement en mutation. La prévision d'ensemble s'avère un outil puissant pour représenter la croissance des erreurs dans le système dynamique et pour capter les incertitudes associées aux différentes sources. Thiboult et al. (2016) ont construit un grand ensemble de 50,000 membres qui tient compte de l'incertitude des prévisions météorologiques, de celle des conditions initiales et l’incertitude structurale. Ce vaste ensemble de 50,000 membres peut également être séparé en sous-composants afin de démêler les trois principales sources d’incertitude mentionnées ci-dessus. Emixi Valdez a donc généré un autre H-EPS multimodèles et calibré pour différents bassins hydrographiques suivant un modèle similaire. Cependant, les résultats obtenus ont été simplement agrégés, en considérant les membres équiprobables. Bien que les systèmes de prévision hydrologique multimodèles puissent être considérés comme un système très complet, ils sont néanmoins exposés à d'autres incertitudes. Par exemple, les prévisions météorologiques des recherches de Thiboult et al. (2016) ont été pré-testées sur certains bassins versants. Ces tests ont montré que les performances dues à l'assimilation de données s'estompent rapidement avec l’horizon de prévision. De plus, en réalité, les utilisateurs peuvent ne pas être en mesure d’utiliser parfaitement tous les outils de prévision (c’est-à-dire les prévisions météorologiques d’ensemble, l’assimilation de données et le schéma multimodèle) conjointement. Par conséquent, il existe toujours une place pour l'amélioration permettant d'augmenter la fiabilité et la résolution des prévisions grâce à un post-traitement statistique approprié. L'objectif global de cette recherche est d'explorer l'utilisation appropriée et les compétences prévisionnelles de divers algorithmes statistiques afin de post-traiter séparément les prévisions de débit provenant d’un modèle unique ainsi que les prévisions multimodèles. Premièrement, nous avons testé l’efficacité de méthodes depost-traitement telles que le Affine Kernel Dressing (AKD) et le Non-dominated sorting genetic algorithm II (NSGA-II) en comparant les prévisions post-traitées par ces méthodes aux soties brutes de systèmes de prévision à modèle unique. Ces deux méthodes sont théoriquement / techniquement distinctes, mais partagent toutefois la même caractéristique, à savoir qu’elles ne nécessitent pas d’hypothèse paramétrique concernant la distribution des membres de la prévision d’ensemble. Elles peuvent donc être considérées comme des méthodes de post-traitement non paramétriques. Dans cette étude, l'analyse des fronts de Pareto générés avec NSGA-II a démontré la supériorité de l'ensemble post-traité en éliminant efficacement les biais des prévisions et en maintenant une bonne dispersion pour tous les horizons de prévision. Deux autres méthodes de post-traitement, à savoir le Bayesian Model Averaging (BMA) et le Copula-BMA, ont également été comparées. Ces deux méthodes ont permis d’obtenir des distributions prédictives à partir de prévisions de débit journalier émises par cinq systèmes de prévision d'ensemble hydrologiques différents. Les poids obtenus par la méthode du BMA quantifient le niveau de confiance que l'on peut avoir à l'égard de chaque modèle hydrologique candidat et conduisent à une fonction de densité prédictive (PDF) contenant des informations sur l'incertitude. Le BMA améliore la qualité globale des prévisions, principalement en maintenant la dispersion de l'ensemble avec l’horizon de prévision. Il a également la capacité d’améliorer la fiabilité des systèmes multimodèles qui n’incluent que deux sources d’incertitudes. Le BMA est donc efficace pour améliorer la fiabilité et la résolution des prévisions hydrologiques. Toutefois, le BMA souffre de limitations dues au fait que les fonctions de densité de probabilité conditionnelle (PDF) doivent suivre une distribution paramétrique connue (ex., normale, gamma). Par contre, le modèle prédictif Copula-BMA ne requiert pas une telle hypothèse et élimine aussi l'étape de transformation de puissance, qui est nécessaire pour le BMA. Dans cette étude, onze types de distributions marginales univariées et six fonctions de copule de différents niveaux de complexité ont été explorés dans un cadre Copula-BMA. Cela a permis de représenter de manière exhaustive la structure de dépendance entre des couples de débits prévus et observés. Les résultats démontrent la supériorité du Copula-BMA par rapport au BMA pour réduire le biais dans les prévisions et maintenir une dispersion appropriée pour tous les horizons de prévision. / Hydrological simulations and forecasts are subject to various sources of uncertainties. Forecast uncertainties are unfortunately inevitable when conducting the deterministic analysis of a dynamical system. The cascade of uncertainty originates from different components of the forecasting chain, such as the chaotic nature of the atmosphere, various initial conditions and boundaries, necessarily imperfect hydrologic modeling, and the inconsistent stationnarity assumption in a changing environment. Ensemble forecasting is a powerful tool to represent error growth in the dynamical system and to capture the uncertainties associated with different sources. Thiboult et al. (2016) constructed a 50,000-member great ensemble that accounts for meteorological forcing uncertainty, initial conditions uncertainty, and structural uncertainty. This large ensemble can also be separated into sub-components to untangle the three main sources of uncertainties mentioned above. In asimilar experiment, another multimodel hydrological ensemble forecasting system implemented for different catchments was produced by Emixi Valdez. However,in the latter case, model outputs were simply pooled together, considering the members equiprobable. Although multimodel hydrological ensemble forecasting systems can be considered very comprehensive, they can still underestimate the total uncertainty. For instance, the meteorological forecasts in there search of Thiboult et al. (2016) were pre-tested on some watersheds. It was found out that the forecasting performance of data assimilation fades away quickly as the lead time progresses. In addition, operational forecasts users may not able to perfectly utilize all the forecasting tools (i.e., meteorological ensemble forcing, data assimilation, and multimodel) jointly. Therefore, there is still room for improvement to enhance the forecasting skill of such systems through proper statistical post-processing.The global objective of this research is to explore the proper use and predictive skill of various statistical post-processing algorithms by testing them on single-model and multimodel ensemble stream flow forecasts. First, we tested the post-processing skills of Affine kernel dressing (AKD) and Non-dominated sorting genetic algorithm II (NSGA-II) over single-model H-EPSs. Those two methods are theoretically/technically distinct yet are both non-parametric. They do not require the raw ensemble members to follow a specific parametric distribution.AKD-transformed ensembles and the Pareto fronts generated with NSGA-II demonstrated the superiority of post-processed ensembles compared to raw ensembles. Both methods where efficient at eliminating biases and maintaining a proper dispersion for all forecasting horizons. For multimodel ensembles, two post-processors, namely Bayesian model averaging (BMA) and the integrated copula-BMA, are compared for deriving a pertinent joint predictive distribution of daily streamflow forecasts issued by five different single-model hydrological ensemble prediction systems (H-EPSs). BMA assign weights to different models. Forecasts from all models are then combined to generate more skillful and reliable probabilistic forecasts. BMA weights quantify the level of confidence one can have regarding each candidate hydrological model and lead to a predictive probabilistic density function (PDF) containing information about uncertainty. BMA improves the overall quality of forecasts mainly by maintaining the ensemble dispersion with the lead time. It also improves the reliability and skill of multimodel systems that only include two sources of uncertainties compared to the 50,000-member great ensemble from Thiboult et al (2016). Furthermore, Thiboult et al. (2016) showed that the meteorological forecasts they used were biased and unreliable on some catchments. BMA improves the accuracy and reliability of the hydrological forecasts in that case as well.However, BMA suffers from limitations pertaining to its conditional probability density functions (PDFs), which must follow a known parametric distribution form (e.g., normal, gamma). On the contrary, Copula-BMA predictive model fully relaxes this constraint and also eliminates the power transformation step. In this study, eleven univariate marginal distributions and six copula functions are explored in a Copula-BMA framework for comprehensively reflecting the dependence structure between pairs of forecasted and observed streamflow. Results demonstrate the superiority of the Copula-BMAcompared to BMA in eliminating biases and maintaining an appropriate ensemble dispersion for all lead-times.
150

Simulation et optimisation de l'intégration de matériaux à changement de phase dans une zone thermique

Arnault, Axel 18 April 2018 (has links)
Ce mémoire expose les différentes opportunités d'implantation de matériaux à changement de phase (PCM) dans des zones thermiques intégrées à des bâtiments. Les avantages inhérents à l'emploi de PCM sont analysés dans l'optique de réduction de la consommation d'énergie dans les systèmes CVAC (Chauffage, Ventilation et Air Conditionné). Le travail est divisé en deux parties renvoyant chacune à un article scientifique. Le premier article analyse les impacts et les bénéfices de galvaniser la masse thermique d'une zone en y incluant des PCM. L'étude illustre en premier lieu l'influence prépondérante de l'inertie thermique sur les performances thermiques de la zone, et les possibilités d'optimisation qui en découlent. L'ajout de PCM dans la zone est ensuite formellement optimisé pour deux cas de figure distincts, à savoir l'imposition de conditions climatiques idéalisées ou réelles à la zone. Pour ces deux contextes, on démontre qu'intégrer à la surface de la zone une quantité de PCM correspondant à une fraction de son épaisseur, à une température de fusion d'environ 26°C, augmente significativement les performances de la zone (20% en moyenne). Les calculs sont effectués selon trois fonctions objectives différentes, dont la complexité et la perspective d'optimisation varient. Le chapitre suivant, où le deuxième article est présenté, étend l'analyse décrite ci-dessus à une zone tridimensionnelle. Autrement dit, il est possible d'intégrer du PCM sur le plancher, les murs, le plafond et la façade de la zone à l'étude. Les dimensions, la fenestration, la composition et l'orientation de la zone sont entièrement modulables ; dans le cadre de ce chapitre, l'analyse est restreinte à un cas particulier et démontre que si elle est judicieusement incluse, une faible quantité de PCM peut avoir des retombées énergétiques considérables sur les performances thermiques de la zone. À l'inverse, certaines configurations où l'on inclut du PCM s'avèrent peu performantes et même en deçà des résultats observés sans PCM. Ce travail conjugue une compréhension fondamentale des PCM avec une analyse scientifique rigoureuse, de manière à montrer l'étendue du potentiel de ces matériaux.

Page generated in 0.0399 seconds