• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
511

Simulation numérique du transport spatial et temporel des concentrations de CO₂ et de CH₄ atmosphériques et comparaisons avec les observations

Souley, Falama 17 April 2018 (has links)
L'effet de la pollution atmosphérique se fait de plus en plus ressentir de nos jours. Plusieurs études font valoir la nécessité de développer des techniques de mesures et de simulations pour la surveillance continue de son évolution dans l'atmosphère. La modélisation numérique est de plus en plus utilisée pour estimer la dispersion des nuages de polluants dans le temps et dans l'espace. Elle présente a priori des avantages certains par rapport aux techniques physiques que sont les essais in situ ou à échelle réduite. La présente étude consiste en une modélisation inverse des concentrations de CO₂ obtenues à l'été 2007 par la mesure en continu sur le site de Lethbridge, Alberta (Fluxnet Canada). Cette première étape dite de "calage de modèle" a permis ainsi d'optimiser les paramètres d'entrée du modèle de chimie-transport. Il a ainsi été possible de s'assurer de la qualité et de la reproductibilité des simulations par rapport aux observations. L'écart relatif maximal (de l'ordre de 12,3 %) entre simulations et observations sur le site (mai-août 2007) démontrent la bonne qualité des données d'entrée du modèle. Nos résultats ont montré également la grande influence des vents sur ce site dans la dispersion atmosphérique des polluants. Les vents de l'ordre de 44 km/h dispersent les polluants (ici le CO₂), tandis que ceux de l'ordre de 7 km/h favorisent l'accumulation des polluants sur le site de mesure. Dans une seconde étape, les concentrations de CO₂ et de CH₄ mesurées sur le champ expérimental de culture de l'Université Laval au cours de l'été 2005, grâce au dispositif conçu au LP AM (Laboratoire de physique atomique et moléculaire, Département de physique de génie physique et d'optique, Université Laval), ont été calculées grâce à nos codes (TRANSCHIM). Une erreur relative maximale de ~7 % pour le CH₄ et de ~2 % pour le CO₂ ont été observées entre les mesures et les simulations. Une fois de plus la grande influence du vent sur la dispersion atmosphérique des polluants a été mise en évidence. Les indicateurs statistiques, choisis pour déterminer la qualité des résultats dans cette deuxième étape, ont été généralement meilleurs malgré certaines données qui semblaient parfois physiquement irréalistes. Néanmoins le but de jeter les jalons d'une recherche combinée de mesures expérimentales et de simulations numériques conduisant à des résultats convergents a été atteint.
512

Émission de gaz à effet de serre en sols organiques cultivés

L'Heureux-Bilodeau, Félix 06 November 2023 (has links)
Titre de l'écran-titre (visionné le 25 octobre 2023) / Au Québec, la production maraîchère en champ s'effectue en grande partie sur les sols organiques cultivés de la Montérégie. Ces sols deviennent cultivables à la suite du drainage de tourbières minérotrophes qui s'avèrent hautement fertiles, avec des taux de matière organique pouvant dépasser les 90 %. En revanche, l'abaissement du niveau de la nappe d'eau entraîne inexorablement un déclin des propriétés agronomiques et de la hauteur de sol cultivable causé par l'affaissement, l'érosion et la minéralisation de la matière organique. Ce dernier mécanisme cause la perte de carbone du sol vers l'atmosphère sous forme de CO₂. Dans le but de mettre sur pied une stratégie de conservation de ces sols, ce mémoire a pour objectifs de quantifier les émissions de CO₂ et d'identifier les paramètres édaphiques et météorologiques qui influencent leur intensité. À cette fin, cinq (5) sites en champ ont été sélectionnés en fonction de leur taux de matière organique (MO) pour représenter un large éventail du degré de composition du sol, soit F1 à 52.2 % MO, F2 à 56.7 % MO, F3 à 74.0 % MO, F4 à 77.4 % MO et F5 à 91.3 % MO. Tous les sites à l'exception de F3 étaient dépourvus de végétation alors que ce dernier avait une importante présence de miscanthus. Les émissions de CO₂ du sol furent mesurées avec des chambres statiques manuelles sur une durée d'un an (septembre 2021 à septembre 2022) à une fréquence bimensuelle. Les résultats montrent des pertes brutes de carbone annuelle de 4.94 Mg C-CO₂ ha⁻¹ an⁻¹ pour F1, de 5.47 Mg C-CO₂ ha⁻¹ an⁻¹ pour F2, de 15.30 Mg C-CO₂ ha⁻¹ an⁻¹ pour F3, de 7.62 Mg C-CO₂ ha⁻¹ an⁻¹ pour F4 et de 3.20 Mg C-CO₂ ha⁻¹ an⁻¹ pour F5. Les paramètres ayant influencé significativement et positivement ces flux sur toute la période étudiée furent les températures (du sol et de l'air), le carbone labile, l'azote total et le pH alors que la teneur en eau du sol a été corrélée négativement. Les pertes annuelles de carbone ont également été corrélées exponentiellement à l'activité microbiologique totale du sol, montrant l'importance de mesurer des paramètres biologiques pour étudier la minéralisation de la matière organique. Une expérience en serre a également été réalisée avec les mêmes cinq (5) sols. Cependant, dû à l'augmentation de la concentration en sel dans les sols, aucune conclusion n'a pu être retenue excepté la relation de toxicité entre la conductivité électrique, l'activité microbiologique totale et les émissions de CO₂. Ces données permettront d'aller plus en avant dans la modélisation de la dégradation des sols organiques cultivés afin de développer des solutions d'intervention pour la préservation de ces sols. / In Québec, agri cultura hortensis in agris maxima ex parte in solis organicis cultis Montérégie agitur. Hi soli cultibiles fiunt post drenationem paludibus mineralitrophicis, quæ valde fertilis sunt cum materia organica ultra 90% superare possit. Sed deminutio aquæ stagnantis altitudinis necessario causat decrementum proprietatum agronomicarum et altitudinis soli cultibiles per subsidium, erosionem et mineralisationem materiae organicæ. Ultimum mechanisma perdita carbonis soli in atmosphaeram sub formā CO2 efficit. Hoc opus, ut strategiam conservationis solium constituat, emittendi CO2 quantitatem determinare et edaphicos meteorologicosque parametros identificare intendit, qui eorum magnitudinem influunt. Quinque (5) loci in agris electi sunt propter quantitatem materiae organicæ (MO) ut varietatem compositionis soli repraesentent: F1 52.2% MO, F2 56.7% MO, F3 74.0% MO, F4 77.4% MO et F5 91.3% MO. Omnes loci excepto F3 vegetatu carent, F3 vero miscanthi copiosa præsentia est. Emittendi CO2 soli mensi sunt caminis staticis manualemensurati per annus spatium (Septembris 2021 ad Septembris 2022) bis vel ter hebdomade. Resultata ostendunt carbonis annuum brutum amissionem 4.94 Mg C-CO2 ha-1 an-1 pro F1, 5.47 Mg C-CO2 ha-1 an-1 pro F2, 15.30 Mg C-CO2 ha-1 an-1 pro F3, 7.62 Mg C-CO2 ha-1 an-1 pro F4 et 3.20 Mg C-CO2 ha-1 an-1 pro F5. Parametros, quae significanter influent haec fluxa per totum periodum studiatum, sunt temperatura (soli et aeris), humiditas soli, carbonis labilis, nitrogenium totale et pH. Carbonis amissiones annuæ etiam exponetialiter cum activitate microbiologica totali soli correlantur, ostendendo importentiam biologicos parametros metiendi ad materiae organicæ mineralisationem studiandam. Experimentum in vitro etiam est factum cum iisdem quinque (5) solis. Ceterum, ob salis concentationem in solis auctam, quæ respirationem microorganismorum inhibet, nullum conclusio potuit obtineri praeter toxicitatis relationem inter conductivitatem electricam, activitatem microbiologicam totalem et CO₂ emissiones. Hæ data progrediendo ad modelationem solium organicorum cultorum degradationis adiuvabunt, ut interventiones ad solium præservandum elaborentur.
513

Simulation de l'écoulement turbulent dans les aspirateurs de turbines hydrauliques : impact des paramètres de modélisation

Payette, Félix-Antoine 13 April 2018 (has links)
L'objectif du présent mémoire est de clarifier l'influence qu'ont sur la solution divers paramètres de calcul couramment utilisés en mécanique des fluides numérique, dans le but d'améliorer la prédiction de l'écoulement dans les aspirateurs de turbines hydrauliques. Pour y arriver, la résolution eulérienne des équations de Navier-Stokes est faite par une approche RAXS à l'aide du logiciel commercial ANSYS CFX. Pour les trois cas tests sélectionnés, la turbulence est modélisée à l'aide des modèles à deux équations k ? e ou SST. Les résultats principaux font ressortir très clairement l'impact de la composante radiale de la vitesse ainsi que des quantités turbulentes imposées sur la frontière amont du domaine de calcul. On remarque aussi que l'extension ajoutée en aval du domaine d'intérêt peut quant à elle faire varier de façon significative la pression statique dans la dernière portion de la géométrie et ainsi influencer le coefficient de récupération mesuré. Finalement les deux modèles de turbulence utilisés sont eux aussi susceptibles d'influencer le développement de l'écoulement.
514

Modélisation, simulation et commande d'un robot parallèle plan à câbles sous-actionné

Zoso, Nathaniel 18 April 2018 (has links)
Un manipulateur parallèle à câbles possède des caractéristiques intéressantes comme sa vitesse de mouvement, sa légèreté et son faible coût. Ces avantages sont renforcés en utilisant le sous-actionnement, qui permet de diminuer le coût et la complexité du mécanisme. En revanche, sa commande est plus complexe car elle doit tenir compte des propriétés dynamiques du manipulateur. Afin de concevoir un robot spatial sous-actionné et entraîné à l'aide de câbles, il faut d'abord arriver à contrôler une version plane du manipulateur. Le mécanisme étudié dans ce mémoire est un robot principalement basé sur un mécanisme à quatre barres, dont deux barres (les câbles) sont de longueur variable, et dont toutes les liaisons rotoïdes sont libres. En fait, ce robot peut rejoindre une position et une orientation (trois degrés de liberté) prescrite en contrôlant uniquement la longueur des deux câbles et en exploitant les équations dynamiques. La première étape est de compléter des analyses géométrique, cinématique et dynamique. Les équations ainsi obtenues sont vérifiées à l'aide d'un simulateur permettant de prédire le comportement du robot. Ensuite, un algorithme de planification de trajectoire est basé sur la nature oscillatoire du mécanisme, en optimisant les trajectoires des câbles pour que la variable libre rejoigne l'objectif à la fin de chaque oscillation. La stratégie de commande est finalement élaborée et testée sur un robot virtuel, avant d'être utilisée sur un prototype. Les résultats en simulation ainsi qu'expérimentaux sont présentés pour diverses trajectoires, démontrant ainsi les capacités du manipulateur étudié. La commande ainsi développée s'est révélée très précise, rapide et robuste à des erreurs de diverses natures.
515

Formal models of visual perception based on cortical architectures / Modèles formels de la perception visuelle basés sur des architectures corticales

Favali, Marta 18 April 2017 (has links)
L’objectif de cette thèse est de développer des modèles mathématiques de perception visuelle basés sur des architectures corticales et de les appliquer pour reproduire des expériences phénoménologiques ainsi que pour traiter des images naturelles. Nous nous concentrons sur les tâches de vision de bas niveau et nous sommes intéressés par le problème du groupement et de l’individuation des unités perceptives. Nous ferons face au problème de la reconstruction des figures illusoires et de la détection des vaisseaux rétiniens dans les images optiques. Ensuite, nous considérerons le problème du codage et du décodage de l’activité cérébrale du cortex visuel obtenue par Imagerie par Résonance Magnétique fonctionnelle (IRMf). Ceci permet d’estimer la structure du cortex d’un patient spécifique et éventuellement de reconstruire le stimulus visuel de l’activité IRMf, dans une stratégie “de lecture du cerveau”. La distinction entre notre approche et l’état de la littérature consiste à utiliser des modèles neuromathématiques du cortex comme connaissance a priori pour régulariser la structure estimée. Même si c’est un objectif à long terme, nous proposons une première approche pour améliorer les résultats dans ce domaine. L’ensemble du travail de cette thèse a été développé en tenant compte des résultats de la phénoménologie de la perception et des résultats de la neurophysiologie. Dans le domaine de la phénoménologie de la perception, au début du siècle dernier, la théorie de la psychologie de la Gestalt a défini l’intégration des contours et en particulier Wertheimer [1938], Kohler [1947], Kofka [1935] ont défini le regroupement des lois de perception. Celles-ci sont cruciales dans la construction d’objets visuels : les éléments avec des caractéristiques en commun peuvent être regroupés pour former un nouvel objet visuel plus grand. Des expériences psychophysiques ont été proposées pour mesurer les paramètres quantitatifs de ces lois. Un intérêt particulier de cette thèse est le concept de champ d’association introduit par Field et al. [1993] lequel code différents principes de la Gestalt (dont la bonne continuation et la proximité).Ces auteurs ont montré que la co-linéarité de stimulus et la co-circularité jouent un rôle important dans la caractéristique du groupement. Leur étude a montré comment les chances de percevoir un chemin curviligne étaient élevées si l’orientation de ses éléments était tangente à ce chemin. D’autre part, en neurophysiologie, une grande quantité d’expériences confirment que le problème du groupement et de détection des contours est effectué par le cortex visuel primaire (V1) [Hubel, 1995]. Un cadre mathématique, basé sur les instruments différentiels, a été introduit pour formaliser ces résultats. Les premiers modèles géométriques sont dus à Koenderink and van Doorn... / The objective of this thesis is to develop mathematical models of visual perception based on cortical architectures and to apply them to reproduce phenomenological experiments and to process natural images. We primarly focus on low level vision tasks and in particular we are interested in the problem of grouping and of individuation of perceptual units. In this setting we will face the problem of the reconstruction of illusory figures and the detection of retinal vessels in optical images. Then we consider the problem of encoding and decoding of the fMRI signal from in vivo acquired brain activity of visual cortex. This allows to estimate the structure of the cortex of a specific human patient and eventually to reconstruct the visual stimulus from fMRI activity, in a so called “brain reading” strategy. The difference between our approach and the state of the art literature consists in using previously defined neuromathematical models of the cortices as a-priori knowledge to regularise in vivo estimated structure. Even if it is a long term objective, we propose a first approach to improve the results in this field. The entire work of this thesis has been developed taking into account results from phenomenology of perception and results of neurophysiology.In the field of the phenomenology of perception, at the beginning of the last century, the theory of the Gestalt psychology [Wertheimer, 1938, Kohler, 1947, Kofka, 1935] defined the integration of contours and in particular they defined grouping laws underlying perception. These are crucial in the construction of visual objects: points with characteristics in common can be grouped together to form a new visual object. Many psychophysical experiments have been proposed to measure the quantitative parameters of these laws. A particular interest of this thesis is the concept of association fields introduced by Field et al. [1993] which encodes different Gestalt principles (as good continuation, proximity). They showed that stimulus co-linearity and co-circularity play an important role for the feature of grouping. Their study showed how chances of perceiving the curvilinear path were high if the orientation of its features was the one tangent at that point and collapsed as their relative orientation deviated from being tangent...
516

Les réseaux de neurones pour la modélisation et le contrôle du procédé d'évaporation : expérimentations et applications industrielles en sucrerie de canne

Benne, Michel 10 July 1999 (has links) (PDF)
Ce travail de recherche, consacré à la synthèse d'une commande prédictive à modèle neuronal du procédé d'évaporation en multiple-effets, s'inscrit dans la continuité des travaux menés au L.G.I. depuis plusieurs années. Le mémoire de thèse s'articule en cinq chapitres : le premier présente l'atelier d'évaporation dans la chaîne de fabrication du sucre, et les développements théoriques et expérimentaux nécessaires à l'identification d'un modèle dynamique du procédé. Le chapitre 2 pose les bases théoriques du transfert technologique que constitue l'application des réseaux de neurones pour la modélisation et le contrôle des procédés industriels. La première partie de ce transfert technologique, décrite dans le chapitre 3, concerne l'identification de modèles du procédé d'évaporation, à partir de données expérimentales issues des campagnes de mesure menées à la sucrerie de Bois Rouge, La Réunion, en 1997 et 1998, et la simulation des modèles identifiés. Dans le chapitre 4, la problématique de l'automatisation du procédé, confrontée aux limites rencontrées par les schémas de régulation traditionnels, justifie la mise en oeuvre d'une stratégie de commande avancée. Cette démarche, qui constitue la deuxième partie du transfert technologique que nous avons entrepris, aboutit à la mise en oeuvre d'un schéma de commande prédictive mono variable basée sur un modèle à réseau de neurones, testé en simulation dans le chapitre 5. L'ensemble des résultats de simulation sont prometteurs, ce qui permet d'envisager l'implantation d'une stratégie similaire in situ dans les meilleurs délais.
517

Langages de scénarios : Utiliser des ordres partiels pour modéliser, vérifier et superviser des systèmes parallèles et répartis.

Gazagnaire, Thomas 28 March 2008 (has links) (PDF)
Cette thèse se place dans le cadre de la modélisation et de l'analyse de systèmes parallèles et répartis. Plus précisément, nous nous intéressons à la modélisation, la vérification et la supervision de systèmes, composés d'entités indépendantes interagissant localement par mémoire partagée et globalement par échange asynchrone de messages.<br /><br />Dans ce contexte, plutôt que de modéliser séparément chaque entité, puis d'analyser les comportements qui peuvent se produire lorsque ces entités interagissent, nous fournissons une théorie permettant de modéliser globalement le système considéré tout en conservant des propriétés de vérification et de supervision décidables. Cette théorie se base sur le formalisme des ordres partiels étiquetés (appelés "pomsets").<br /><br />Dans ce but, nous définissons le modèle des HMSC causaux qui étend le formalisme des HMSC en autorisant, comme pour les traces de Mazurkiewicz, certains événements à commuter sur chaque processus. Nous montrons, tout d'abord, qu'une restriction syntaxique des HMSC causaux a le même pouvoir d'expression que les réseaux bornés d'automates mixtes, un modèle qui étend les réseaux d'automates asynchrones de Zielonka et les réseaux d'automates communicants. De plus, nous montrons que les méthodes classiques de model-checking de systèmes séquentiels peuvent s'appliquer aux modèles plus concis basés sur les pomsets, comme les HMSC causaux, sans perte d'efficacité. Enfin, nous proposons des méthodes de traitement efficace d'observations volumineuses d'exécutions réparties, ainsi que des techniques de supervision, telles que le diagnostic ou la corrélation d'événements, qui utilisent des modèles basés sur les pomsets.
518

L'adoption de la politique de ciblage de l'inflation dans les marchés émergents : apport théorique et validation empirique

Bousrih, Jihène 12 July 2011 (has links) (PDF)
Cette thèse s'intéresse à étudier la politique de ciblage de l'inflation compte tenu des caractéristiques économiques et financières des économies émergentes. Depuis sa première adoption en adoption en 1990, la politique de ciblage de l'inflation a montré son efficacité en limitant la flambée des prix et en favorisant la croissance économique. Cependant, pour les marchés émergents, l'amélioration de leur performance économique reste faible par rapport aux économies développées. Ce résultat est du principalement aux caractéristiques de ces économies et à leur vulnérabilité économique et financière. Ce travail explore l'impact de deux importantes caractéristiques des marchés émergents, sur le choix de la politique monétaire. Il s'agit de la dépendance commerciale et de la dépendance financière. L'approche théorique de cette thèse montre que la Banque Centrale des économies émergentes a intérêt à adopter la politique de ciblage de l'inflation qui limite la transmission de l'inflation importée vers le niveau des prix domestiques. La thèse propose également une approche empirique qui cherche à identifier, d'une part, l'efficacité de la politique de ciblage de l'inflation et d'autre part, les facteurs qui peuvent influencer la volatilité des prix. Les résultats montrent, dans un premier temps, qu'il y a une amélioration de la performance des pays adoptant la politique de ciblage de l'inflation mais dans des proportions relativement faibles. Puis dans un deuxième temps, qu'un système monétaire, financier et budgétaire sain favorise la maîtrise de l'inflation.
519

Modèles statistiques de courants pour mesurer la variabilité anatomique de courbes, de surfaces et de leur évolution

Durrleman, Stanley 26 March 2010 (has links) (PDF)
Le but de cette thèse est de définir, implémenter et évaluer des modèles statistiques de variabilité de courbes et de surfaces basés sur des courants en anatomie numérique. Les courants ont été récemment introduits en imagerie médicale dans le but de définir une métrique entre courbes et surfaces qui ne dépend pas de correspondance de points entre les structures. Cette métrique a été utilisée pour guider le recalage de données anatomiques. Dans cette thèse, nous proposons d'étendre cet outil pour analyser la variabilité de structures anatomiques grâce à l'inférence de modèles statistiques génératifs. Outre la définition et la discussion de tels modèles, nous proposons un cadre numérique pour les estimer efficacement. Plusieurs applications en imagerie cérébrale et cardiaque tendent à montrer la généralité et la pertinence de cette approche. Dans la première partie, nous introduisons de nouveaux outils numériques d'approximation et de compression des courants. Tout d'abord, un cadre rigoureux de discrétisation basé sur des grilles régulières est proposé: il définit des projections en dimension finie des courants qui convergent vers le courant initial quand la grille devient plus fine. Cela permet de définir de manière générique des algorithmes robustes et efficaces pour traiter les courants, avec un contrôle de la précision numérique. En particulier, cela donne une implémentation plus stable de l'algorithme de recalage de courants. Enfin, nous définissons une méthode d'approximation qui calcule une représentation éparse d'un courant à n'importe quelle précision grâce à la recherche d'une base adaptée au signal. Cette représentation éparse est d'un grand intérêt pour compresser de grands ensembles de données anatomiques et pour interpréter les statistiques sur de tels ensembles. Dans la deuxième partie, nous définissons un modèle statistique original qui considère un ensemble de courbes ou de surfaces comme le résultat de déformations aléatoires d'une forme prototype inconnue plus des perturbations résiduelles aléatoires dans l'espace des courants. L'inférence de tels modèles sur des données anatomiques décompose la variabilité en une partie géométrique (capturée par des difféomorphismes) et une partie de "texture" (capturée par les courants résiduels). Cette approche nous permet de traiter trois problèmes anatomiques: d'abord l'analyse de la variabilité d'un ensemble de lignes sulcales est utilisée pour décrire la variabilité de la surface corticale, ensuite l'inférence du modèle sur un ensemble de faisceaux de fibres de la matière blanche montre qu'à la fois la partie géométrique et la texture peuvent contenir de l'information anatomiquement pertinente et enfin l'analyse de la variabilité est utilisée dans un contexte clinique pour la prédiction de la croissance du ventricule droit du coeur chez des patients atteints de la Tétralogie de Fallot. Dans la troisième partie, nous définissons des modèles statistiques pour l'évolution de formes. Nous proposons d'abord une méthode de recalage spatio-temporel qui met en correspondance les ensembles de données longitudinales de deux sujets. Ce recalage prend en compte à la fois les différences morphologiques entre les sujets et la différence en terme de vitesse d'évolution. Nous proposons ensuite un modèle statistique qui estime conjointement un scénario moyen d'évolution à partir d'un ensemble de données longitudinales et sa variabilité spatio-temporelle dans la population. Cette analyse ouvre de nouvelles perspectives pour caractériser des pathologies par une différence de vitesse de développement des organes.
520

Modélisation mathématique de l'activité électrophysiologique des neurones auditifs primaires

Michel, Christophe 13 December 2012 (has links) (PDF)
En réponse à une stimulation sonore, la cellule ciliée interne libère du glutamate qui va activer des récepteurs distribués sur le bouton post-synaptique. Les courants post-synaptiques vont ensuite dépolariser la terminaison périphérique des neurones auditifs primaires, et initier le déclenchement d'un potentiel d'action. Tandis que la connaissance des mécanismes pré-synaptiques a considérablement progressé ces 10 dernières années, les mécanismes responsables de l'initiation des potentiels d'action sont encore méconnus. Dans cette étude, nous avons déterminé les conductances ioniques nécessaires au déclenchement des potentiels d'action. Les paramètres biophysiques des conductances (Na et K) ont été identifiés (algorithme d'identification trace entière) à partir d'enregistrements de patch clamp acquis sur les corps cellulaires. Un modèle mathématique de nœud de Ranvier a ensuite été développé en faisant l'hypothèse que les canaux présents sur le corps cellulaire et sur un nœud de Ranvier étaient de même nature mais en densités différentes. Les paramètres de ce modèle ont été identifiés pour reproduire les potentiels d'action extracellulaire au moyen d'un algorithme de descente du gradient. Nous avons identifié i) un courant Na entrant rapide (GNa activation: V1/2=-33 mV, act< 0.5 ms; inactivation: V1/2=-61 mV, inact < 2 ms) et deux courants K sortants, un rectifiant retardé activé à haut seuil (GKH, activation: V1/2=-41 mV; act < 2.5 ms) et un activé à bas seuil (GKL, activation: V1/2=-56 mV; act < 5 ms). Le modèle de nœud de Ranvier génère des potentiels d'action extracellulaire similaires à ceux enregistrés in vivo. La différence de durée du potentiel d'action observée le long de l'axe tonotopique (i.e. 450 µs de durée pic à pic à 1 kHz contre 250 µs à 20 kHz) s'explique parfaitement par un gradient de densité en canaux ioniques le long de la cochlée (GNa~78 nS, GKL~9 nS, GKH~3 nS à 1 kHz contre GNa~90 nS, GKL~12 nS, GKH ~6 nS à 20 kHz). Cette étude a permis d'identifier les conductances ioniques et les densités de canaux responsables de l'initiation des potentiels d'action dans les neurones auditifs primaires. Elle suggère que la coopération entre le courant Na et des 2 courants K est probablement à l'origine de la haute fréquence de décharge de ces neurones. Le modèle de nœud de Ranvier permet en outre de tester de nouvelles stratégies de stimulation électrique dans le contexte de l'implant cochléaire.

Page generated in 0.0896 seconds