• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 556
  • 272
  • 67
  • 7
  • 3
  • Tagged with
  • 961
  • 454
  • 347
  • 251
  • 246
  • 232
  • 181
  • 177
  • 161
  • 150
  • 147
  • 128
  • 110
  • 109
  • 107
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Etude biophysique de la régénération de neurones périphériques / Biophysical Study of Peripheral Neurons Regeneration

Benzina, Ouafa 30 January 2014 (has links)
Les pathologies du système somatosensoriel, appelées neuropathies sensitives périphériques, touchent environ 3 millions de personnes en France et causent des déficits sensoriels multiples. Parmi elles, les douleurs neuropathiques post traumatiques sont les plus fréquentes et sont souvent chroniques et résistantes aux traitements actuels. Une lésion nerveuse périphérique induit des réponses cellulaires permettant la survie et la régénération de ces neurones. Les ganglions rachidiens dorsaux (DRG) contiennent une variété de neurones sensitifs qui transmettent les stimuli somatiques. Suite à une blessure du nerf périphérique les neurones sensitifs s'adaptent à un nouvel environnement pour réussir leur élongation axonale. Parmi les mécanismes cellulaires conduisant à une croissance neuritique améliorée, il a été démontré qu'une lésion primaire in vivo du nerf augmente la régénération axonale suite à une deuxième lésion. In vitro, les neurones qui ont été conditionnés par le premier traumatisme montrent une croissance neuronale plus rapide et plus élonguée appelée croissance régénérative. L'élasticité est un paramètre déterminant des propriétés mécaniques de la membrane cellulaire. Elle donne des informations importantes sur la santé et la fonction de la cellule. Le microscope à force atomique (AFM) est devenu de nos jours un outil commun pour l'imagerie à haute résolution de matériaux biologiques puisque les cellules vivantes peuvent être imagées dans leurs conditions physiologiques. En plus du rôle des propriétés élastiques dans le processus de régénération, l'organisation structurale des tissus est en grande partie déterminante du degré et de la direction de croissance et du mouvement cellulaire. Le guidage de la croissance par la modification des surfaces ou « patterning » est possible avec la technique de « microcontact printing » qui permet la conception de circuits de protéines avec des géométries bien définies. Les protéines de la matrice extracellulaire. Dans la première partie de la thèse nous avons mis en évidence les propriétés mécaniques de la membrane de neurones sensitifs issus de DRG de souris adultes suite à une lésion du nerf sciatique gauche. Les neurones sensitifs conditionnés montrent un mode de croissance neuritique plus rapide et plus élonguée, moins de branchements neuritiques et plus de souplesse membranaire des somas et des cônes de croissance. Dans un deuxième volet du travail nous avons réussi à normaliser la pousse régénérative et l'activité électrique des neurones sensitifs et motoneurones spinaux en utilisant le patterning des protéines d'adhésion cellulaire (ECM) dans le but d'imiter la croissance longitudinale in vivo. / Peripheral nerve injuries lead to paralysis, anesthesia and lack of autonomic control of the affected body areas. The trauma results in loss of motor and sensory functions conveyed by the involved nerves. This process is referred to as Wallerian degeneration; it creates a microenviroment in the injury site that favors neurites regrowth. The increased intrinsic growth capacity of injured peripheral neurons is manifested experimentally by the conditioning lesion paradigm. Axotomy of a peripheral neuron previous to the test lesion, ‘‘primes'' the neuron, switches it on to a regenerative state and, thus, it will regenerate faster after receiving the second injury. Mechanical interactions play a key role in many processes associated with neuronal growth and development. Membrane cytoskeleton elasticity is a determining parameter of membrane mechanical properties and provides important information toward the health and function of the cell. For this reason the first objective of this thesis was to understand the conditioning injury effects on both morphology and rheological properties of live sensory neurons cell bodies and growth cones, using particularly the atomic force microscopy, and to correlate this to eventual modifications in the composition of the cytoskeletal proteins. In addition to the role of cell elastic properties and mechanical sensing in the regeneration process, the structural organization of tissues plays a major part in deciding the degree and direction of tissue growth and cell movement. The ability to guide cells and their outgrowth by modifying surfaces is possible with the microcontact printing technique which enables the design of protein pathways with experimentally defined geometries. Therefore, the second objective of the thesis was to modulate the regenerative growth of dorsal root ganglia sensory neurons and spinal motoneurons using cell adhesion proteins in order to physically mimic the in vivo longitudinal axonal growth. We used the extracellular matrix (ECM) proteins, ideal biomolecules for printing as they can guide in vitro the cellular adhesion, differentiation, migration. The patterning allowed us to normalize neurite elongation and electrical activity of sensory neurons before and after conditioning lesion.
162

Développement d'un banc ellipsométrique hyperfréquence pour la caractérisation de matériaux non transparents / Development of a microwave ellipsometric bench for the characterization of non-transparent materials

Moungache, Amir 28 October 2011 (has links)
Dans la fabrication d’un produit, la maîtrise des propriétés physiques des matériaux utilisés est indispensable. Il est donc nécessaire de déterminer leurs propriétés comportementales. On exploite en général des propriétés physiques intermédiaires telles que les propriétés électromagnétiques. Nous avons mis au point une technique de caractérisation sans contact de matériaux non transparents en transposant les concepts de base de l’ellipsométrie optique en hyperfréquence. La caractérisation se fait par résolution d’un problème inverse par deux méthodes numériques : une méthode d’optimisation classique utilisant l’algorithme itératif de Levenberg Marquardt et une méthode de régression par l’uti1isation de réseaux de neurones du type perceptron multicouches. Avec la première méthode, on détermine deux paramètres du matériau sous test à savoir l’indice de réfraction et l’indice d’extinction. Avec la deuxième, on détermine les deux indices ainsi que l’épaisseur de 1’échantillon. Pour la validation, nous avons monté un banc expérimental en espace libre à 30 GHz en transmission et en incidence oblique avec lequel nous avons effectué des mesures sur des échantillons de téflon et d’époxy de différentes épaisseurs (1 à 30 mm). Nous avons obtenu une caractérisation satisfaisante de l’indice et de l’épaisseur. Nous avons ensuite fait des mesures de trois types de papier dont la caractérisation de l’indice était satisfaisante sans toutefois les discriminer. Ces travaux ont montré la possibilité de caractériser des matériaux épais et non transparents par une technique ellipsométrique / The control of the physical properties of materials used to manufacture a product is essential. Therefore, it is necessary to determine their behavioral properties. Generally, we get them through intermediate physical properties such as electromagnetic properties. We have developed a technique for contactless characterization of non-transparent materials by applying the basic concepts of optical ellipsometry in the microwave domain. The characterization is done by solving an inverse problem through two different numerical methods: a classical optimization method using the iterative algorithm of Levenberg Marquardt and a regression method by using neural networks particularly the multilayer perceptron. With the first method, we can determine two parameters which are the refractive index and the extinction index of the sample under test. With the second method, we can determine the indices and the thickness of the sample. As a validation, we set up a 30 GHz - experimental free space bench configurated for oblique transmission incidence measurement that we have used to carry out measurements on PTFE and epoxy samples having different thicknesses (1 to 30 mm). We obtained a satisfactory characterization of the index and thickness. Then, we have carried out measurements on three types of paper. The index was satisfactorily characterized but they could not be distinguished. These studies have shown that it is possible to characterize thick and non-transparent materials using ellipsometric technics
163

Analyse des données en vue du diagnostic des moteurs Diesel de grande puissance / Data analysis for fault diagnosis on high power rated Diesel engines

Khelil, Yassine 04 October 2013 (has links)
Cette thèse a été réalisée dans le cadre d'un projet industriel (BMCI), dont l'objectif est d'augmenter la disponibilité des équipements sur les navires. Dans cette thèse, nous proposons une approche qui met à contribution deux approches différentes, à savoir une approche à base de données pour la détection des défauts et une approche à base de connaissances d'experts pour l'isolation des défauts. Cette approche se veut générique et applicable à différents sous-systèmes du moteur ainsi qu'à divers moteurs et offre une ouverture pour une éventuelle application sur d'autres équipements. De plus, elle est tolérante vis-à-vis des éventuels changements au niveau de l'instrumentation disponible. Cette approche a été testée sur la détection et l'isolation des défauts les plus fréquents et aux conséquences graves auxquels les moteurs Diesel sont sujets. Tous les sous-systèmes du moteurs Diesel sont inclus et l'approche de diagnostic prend en considération les interactions existantes entre les sous-systèmes. L'approche de diagnostic a été testée sur un banc d'essai et sur le navire militaire Adroit de DCNS. Les défauts réalisés sur divers circuits du banc moteur et les défauts apparus en fonctionnement sur certains moteurs de l'Adroit, ont été majoritairement détectés et isolés avec succès. De plus, pour pallier à l'incertitude et au caractère flou des relations expertes utilisées dans la procédure d'isolation, une validation des relations de cause à effet a été réalisée, dans le cadre de cette thèse, par la réalisation d'un modèle analytique de simulation de défauts. / This thesis is carried out within an industrial framework (BMCI) which aims to enhance the availability of equipments on board ships. In this work, a data-based method for fault detection is combined with a knowledge-based method for fault isolation. The presented approach is generic and characterized by the ability to be applied to all the Diesel engine subsystems, to different kind of Diesel engines and can also be extended to other equipments. Moreover, this approach is tolerant regarding differences in instrumentation. This approach is tested upon the detection and isolation of the most hazardous and frequent faults which subject Diesel engines. This approach intends to make diagnosis upon the entire Diesel engine including all the subsystems and the existing interactions between the subsystems. The proposed approach is tested upon a test bench and upon the Diesel engines of the DCNS military vessel textquotedblleft Adroit". Most of the introduced faults on the test bench and the appeared faults on the Adroit engines have been successfully detected and isolated. In addition, to deal with uncertainties and fuzziness of the causal relationships given by maintenance experts, a model is developed. This model aims to validate these causal relationships used in the isolation part of the diagnosis approach.
164

Régulation post traductionnelle du co-transporteur potassium-chlorure KCC2 / Post-translational regulation of potassium-chloride co-transporter KCC2

Friedel, Perrine 16 June 2014 (has links)
Le co-transporteur potassium-chlorure 2, KCC2, contrôle la concentration intracellulaire des ion chlorure (Cl-) dans les neurones matures et régule ainsi la force inhibitrice de l'acide γ-amino butyrique (GABA) et de la glycine, principaux neurotransmetteurs inhibiteurs du système nerveux central. Plusieurs troubles neurologiques sont associés à une diminution de l'expression de KCC2, qui se traduit par l'hyperexcitabilité du réseau neuronal. L'objectif de ce travail de thèse était d'identifier et caractériser les éléments structuraux de la protéine qui sont impliqués dans la régulation de son activité d'un point de vue physiologique et pathologique. J'ai développé de nouvelles approches pour enregistrer l'activité de transporteur d'ions ainsi que l'expression membranaire de KCC2. Ces outils m'ont permis de caractériser de nouveaux éléments structuraux qui régulent le fonctionnement de cette protéine, à savoir, son insertion dans la membrane plasmique, son internalisation ou encore son activité intrinsèque de transporteur d'ions. Enfin, nous avons montré que deux mutations (R952H et R1049C), identifiées chez des patients atteints d'épilepsie idiopathique généralisée (EIG), entrainent la diminution de l'expression membranaire de la protéine et de sa fonction de transporteur de Cl- in vitro. Nos résultats changent la vision actuelle du rôle fonctionnel des régions de KCC2, soulignent l'importance d'étudier l'expression membranaire de la protéine, conjointement à son activité de transporteur, et enfin, démontrent pour la première fois que des mutations sur le gène KCC2, retrouvées chez des patients atteints d'EGI, peuvent perturber le fonctionnement du transporteur. / The potassium chloride co-transporter 2, KCC2, controls the intracellular chloride (Cl-) concentration in mature neurons and thus regulates the inhibitory forces of γ-amino butyrique (GABA) and glycine, the major inhibitory neurotransmitters in the central nervous system. Several neurological disorders are associated with down-regulation of KCC2 expression, resulting in hyperexcitability of neural network. The aim of this thesis was to identify and characterize the structural elements of the protein involved in the regulation of its activity under physiological and pathological conditions. I developed new approaches to record ion-transport activity and membrane expression of KCC2. These tools allowed me to characterize new structural elements regulating the functioning of the protein, namely insertion into plasma membrane, internalisation or intrinsic activity of ion-transport. Finally, we showed that two mutations (R952H and R1049C) identified in patients with idiopathic generalized epilepsy (IGE), cause the decrease in membrane protein expression and its function of Cl-transporter in vitro. Our results change the current view on the functional role of KCC2 regions, emphasize the importance of studying membrane protein expression, together with its transporter activity, and finally, demonstrate for the first time that mutations in the KCC2 gene found in patients with EGI, may interfere with transporter function.
165

Caractérisation des neurones bulbo-spinaux PKD2L1+ qui contactent le liquide céphalo-rachidien / Characterization of medullospinal cerebrospinal fluid contacting neurons PKD2L1+

Orts-Del'immagine, Adeline 20 May 2014 (has links)
Chez les vertébrés, les neurones qui contactent le LCR (NcLCR) sont présents autour des cavités ventriculaires et tout le long du canal central (cc). Par la combinaison d'enregistrements électrophysiologiques sur tranche de tronc cérébral et d'analyses immunohistochimiques, nous avons réalisé la première caractérisation de cette population neuronale chez la souris adulte. Nous montrons que les NcLCR sont présents autour du cc au niveau du complexe vagal dorsal (CVD), une structure bulbaire impliquée dans la régulation des fonctions autonomes, où ils sont principalement GABAergiques, reçoivent des afférences synaptiques GABA/Glycinergiques et expriment le canal PKD2L1 ("polycystin kidney disease 2-like 1"), un membre de la famille des canaux TRP ("transient receptor potential"). Nous montrons que l'activité de PKD2L1 est modulée par les variations de pH et d'osmolarité et que son augmentation module l'excitabilité des NcLCR. Finalement, nous démontrons que les NcLCR existent dans un état de maturité intermédiaire caractérisé par propriétés fonctionnelles de neurones matures combinées à la conservation de l'expression de marqueurs d'immaturités.Les NcLCR étant stratégiquement positionné entre le LCR et le parenchyme, ils pourraient détecter des signaux circulant grâce à l'activation de PKD2L1 puis distribuer le message collecté à leurs partenaires. Un tel rôle, apparaît particulièrement intéressant au niveau du CVD, un site de régulation majeur des fonctions autonomes et pourrait être démontré par l'identification du réseau neuronal où les NcLCR sont intégrés. / In vertebrates, cerebrospinal fluid contacting neurons (CSF-cN) are present around the ventricular cavities and along the central canal (cc). In this study, by the combination of whole cell patch-clamp recordings on brainstem slice and immunohistochemistry analysis, we realize the first characterization of this neuronal population in adult mice. We show that CSF-cN are present around the cc in the dorsal vagal complex (DVC), a major hindbrain structure regulating autonomic functions. There, CSF-cN are mostly GABAergics, receive GABA- and glycinergic synaptic entries and express functional polycystin kidney disease 2-like 1 (PKD2L1) channels. These channels are a subtype of the transient receptor potential (TRP) channels superfamily and this study represent the first analysis of PKD2L1 properties in a native system. We show that PKD2L1 channel activity is modulated by variations in extracellular pH and osmolarity and in turn, an enhanced activity of only few PKD2L1 channels participates in the modulation of CSF-cN excitability. Finally, we demonstrate that CSFcN exhibit another interesting property since they exist in an intermediate stage of maturity by displaying many mature functional properties combined to the conservation of the expression of immature markers.Because CSF-cN are strategically positioned between CSF and parenchyma, they could detect circulating signals through PKD2L1 activation and convey the collected messages to cellular partners. Such a role might be particularly relevant at the level of the DVC a major regulatory site for autonomic functions and should be demonstrated by identifying and characterizing the neuronal network CSFcN are involved in.
166

Approches pour l'apprentissage incrémental et la génération des images / Approaches for incremental learning and image generation

Shmelkov, Konstantin 29 March 2019 (has links)
Cette thèse explore deux sujets liés dans le contexte de l'apprentissage profond : l'apprentissage incrémental et la génération des images. L'apprentissage incrémental étudie l'entrainement des modèles dont la fonction objective évolue avec le temps (exemple : Ajout de nouvelles catégories à une tâche de classification). La génération d'images cherche à apprendre une distribution d'images naturelles pour générer de nouvelles images ressemblant aux images de départ.L’apprentissage incrémental est un problème difficile dû au phénomène appelé l'oubli catastrophique : tout changement important de l’objectif au cours de l'entrainement provoque une grave dégradation des connaissances acquises précédemment. Nous présentons un cadre d'apprentissage permettant d'introduire de nouvelles classes dans un réseau de détection d'objets. Il est basé sur l’idée de la distillation du savoir pour lutter les effets de l’oubli catastrophique : une copie fixe du réseau évalue les anciens échantillons et sa sortie est réutilisée dans un objectif auxiliaire pour stabiliser l’apprentissage de nouvelles classes. Notre framework extrait ces échantillons d'anciennes classes à la volée à partir d'images entrantes, contrairement à d'autres solutions qui gardent un sous-ensemble d'échantillons en mémoire.Pour la génération d’images, nous nous appuyons sur le modèle du réseau adverse génératif (en anglais generative adversarial network ou GAN). Récemment, les GANs ont considérablement amélioré la qualité des images générées. Cependant, ils offrent une pauvre couverture de l'ensemble des données : alors que les échantillons individuels sont de grande qualité, certains modes de la distribution d'origine peuvent ne pas être capturés. De plus, contrairement à la mesure de vraisemblance couramment utilisée pour les modèles génératives, les méthodes existantes d'évaluation GAN sont axées sur la qualité de l'image et n'évaluent donc pas la qualité de la couverture du jeu de données. Nous présentons deux approches pour résoudre ces problèmes.La première approche évalue les GANs conditionnels à la classe en utilisant deux mesures complémentaires basées sur la classification d'image - GAN-train et GAN-test, qui approchent respectivement le rappel (diversité) et la précision (qualité d'image) des GANs. Nous évaluons plusieurs approches GANs récentes en fonction de ces deux mesures et démontrons une différence de performance importante. De plus, nous observons que la difficulté croissante du jeu de données, de CIFAR10 à ImageNet, indique une corrélation inverse avec la qualité des GANs, comme le montre clairement nos mesures.Inspirés par notre étude des modèles GANs, la seconde approche applique explicitement la couverture d'un jeux de données pendant la phase d'entrainement de GAN. Nous développons un modèle génératif combinant la qualité d'image GAN et l'architecture VAE dans l'espace latente engendré par un modèle basé sur le flux, Real-NVP. Cela nous permet d’évaluer une vraisemblance correcte et d’assouplir simultanément l’hypothèse d’indépendance dans l’espace RVB qui est courante pour les VAE. Nous obtenons le score Inception et la FID en concurrence avec les GANs à la pointe de la technologie, tout en maintenant une bonne vraisemblance pour cette classe de modèles. / This dissertation explores two related topics in the context of deep learning: incremental learning and image generation. Incremental learning studies training of models with the objective function evolving over time, eg, addition of new categories to a classification task. Image generation seeks to learn a distribution of natural images for generating new images resembling original ones.Incremental learning is a challenging problem due to the phenomenon called catastrophic forgetting: any significant change to the objective during training causes a severe degradation of previously learned knowledge. We present a learning framework to introduce new classes to an object detection network. It is based on the idea of knowledge distillation to counteract catastrophic forgetting effects: fixed copy of the network evaluates old samples and its output is reused in an auxiliary loss to stabilize learning of new classes. Our framework mines these samples of old classes on the fly from incoming images, in contrast to other solutions that keep a subset of samples in memory.On the second topic of image generation, we build on the Generative Adversarial Network (GAN) model. Recently, GANs significantly improved the quality of generated images. However, they suffer from poor coverage of the dataset: while individual samples have great quality, some modes of the original distribution may not be captured. In addition, existing GAN evaluation methods are focused on image quality, and thus do not evaluate how well the dataset is covered, in contrast to the likelihood measure commonly used for generative models. We present two approaches to address these problems.The first method evaluates class-conditional GANs using two complementary measures based on image classification - GAN-train and GAN-test, which approximate recall (diversity) and precision (quality of the image) of GANs respectively. We evaluate several recent GAN approaches based on these two measures, and demonstrate a clear difference in performance. Furthermore, we observe that the increasing difficulty of the dataset, from CIFAR10 over CIFAR100 to ImageNet, shows an inverse correlation with the quality of the GANs, as clearly evident from our measures.Inspired by our study of GAN models, we present a method to explicitly enforce dataset coverage during the GAN training phase. We develop a generative model that combines GAN image quality with VAE architecture in the feature space engendered by a flow-based model Real-NVP. This allows us to evaluate a valid likelihood and simultaneously relax the independence assumption in RGB space which is common for VAEs. We achieve Inception score and FID competitive with state-of-the-art GANs, while maintaining good likelihood for this class of models.
167

Learning Deep Representations : Toward a better new understanding of the deep learning paradigm / Apprentissage de représentations profondes : vers une meilleure compréhension du paradigme d'apprentissage profond

Arnold, Ludovic 25 June 2013 (has links)
Depuis 2006, les algorithmes d’apprentissage profond qui s’appuient sur des modèles comprenant plusieurs couches de représentations ont pu surpasser l’état de l’art dans plusieurs domaines. Les modèles profonds peuvent être très efficaces en termes du nombre de paramètres nécessaires pour représenter des opérations complexes. Bien que l’entraînement des modèles profonds ait été traditionnellement considéré comme un problème difficile, une approche réussie a été d’utiliser une étape de pré-entraînement couche par couche, non supervisée, pour initialiser des modèles profonds supervisés. Tout d’abord, l’apprentissage non-supervisé présente de nombreux avantages par rapport à la généralisation car il repose uniquement sur des données non étiquetées qu’il est facile de trouver. Deuxièmement, la possibilité d’apprendre des représentations couche par couche, au lieu de toutes les couches à la fois, améliore encore la généralisation et réduit les temps de calcul. Cependant, l’apprentissage profond pose encore beaucoup de questions relatives à la consistance de l’apprentissage couche par couche, avec de nombreuses couches, et à la difficulté d’évaluer la performance, de sélectionner les modèles et d’optimiser la performance des couches. Dans cette thèse, nous examinons d’abord les limites de la justification variationnelle actuelle pour l’apprentissage couche par couche qui ne se généralise pas bien à de nombreuses couches et demandons si une méthode couche par couche peut jamais être vraiment consistante. Nous constatons que l’apprentissage couche par couche peut en effet être consistant et peut conduire à des modèles génératifs profonds optimaux. Pour ce faire, nous introduisons la borne supérieure de la meilleure probabilité marginale latente (BLM upper bound), un nouveau critère qui représente la log-vraisemblance maximale d’un modèle génératif profond quand les couches supérieures ne sont pas connues. Nous prouvons que la maximisation de ce critère pour chaque couche conduit à une architecture profonde optimale, à condition que le reste de l’entraînement se passe bien. Bien que ce critère ne puisse pas être calculé de manière exacte, nous montrons qu’il peut être maximisé efficacement par des auto-encodeurs quand l’encodeur du modèle est autorisé à être aussi riche que possible. Cela donne une nouvelle justification pour empiler les modèles entraînés pour reproduire leur entrée et donne de meilleurs résultats que l’approche variationnelle. En outre, nous donnons une approximation calculable de la BLM upper bound et montrons qu’elle peut être utilisée pour estimer avec précision la log-vraisemblance finale des modèles. Nous proposons une nouvelle méthode pour la sélection de modèles couche par couche pour les modèles profonds, et un nouveau critère pour déterminer si l’ajout de couches est justifié. Quant à la difficulté d’entraîner chaque couche, nous étudions aussi l’impact des métriques et de la paramétrisation sur la procédure de descente de gradient couramment utilisée pour la maximisation de la vraisemblance. Nous montrons que la descente de gradient est implicitement liée à la métrique de l’espace sous-jacent et que la métrique Euclidienne peut souvent être un choix inadapté car elle introduit une dépendance sur la paramétrisation et peut entraîner une violation de la symétrie. Pour pallier ce problème, nous étudions les avantages du gradient naturel et montrons qu’il peut être utilisé pour restaurer la symétrie, mais avec un coût de calcul élevé. Nous proposons donc qu’une paramétrisation centrée peut rétablir la symétrie avec une très faible surcharge computationnelle. / Since 2006, deep learning algorithms which rely on deep architectures with several layers of increasingly complex representations have been able to outperform state-of-the-art methods in several settings. Deep architectures can be very efficient in terms of the number of parameters required to represent complex operations which makes them very appealing to achieve good generalization with small amounts of data. Although training deep architectures has traditionally been considered a difficult problem, a successful approach has been to employ an unsupervised layer-wise pre-training step to initialize deep supervised models. First, unsupervised learning has many benefits w.r.t. generalization because it only relies on unlabeled data which is easily found. Second, the possibility to learn representations layer by layer instead of all layers at once improves generalization further and reduces computational time. However, deep learning is a very recent approach and still poses a lot of theoretical and practical questions concerning the consistency of layer-wise learning with many layers and difficulties such as evaluating performance, performing model selection and optimizing layers. In this thesis we first discuss the limitations of the current variational justification for layer-wise learning which does not generalize well to many layers. We ask if a layer-wise method can ever be truly consistent, i.e. capable of finding an optimal deep model by training one layer at a time without knowledge of the upper layers. We find that layer-wise learning can in fact be consistent and can lead to optimal deep generative models. To do this, we introduce the Best Latent Marginal (BLM) upper bound, a new criterion which represents the maximum log-likelihood of a deep generative model where the upper layers are unspecified. We prove that maximizing this criterion for each layer leads to an optimal deep architecture, provided the rest of the training goes well. Although this criterion cannot be computed exactly, we show that it can be maximized effectively by auto-encoders when the encoder part of the model is allowed to be as rich as possible. This gives a new justification for stacking models trained to reproduce their input and yields better results than the state-of-the-art variational approach. Additionally, we give a tractable approximation of the BLM upper-bound and show that it can accurately estimate the final log-likelihood of models. Taking advantage of these theoretical advances, we propose a new method for performing layer-wise model selection in deep architectures, and a new criterion to assess whether adding more layers is warranted. As for the difficulty of training layers, we also study the impact of metrics and parametrization on the commonly used gradient descent procedure for log-likelihood maximization. We show that gradient descent is implicitly linked with the metric of the underlying space and that the Euclidean metric may often be an unsuitable choice as it introduces a dependence on parametrization and can lead to a breach of symmetry. To mitigate this problem, we study the benefits of the natural gradient and show that it can restore symmetry, regrettably at a high computational cost. We thus propose that a centered parametrization may alleviate the problem with almost no computational overhead.
168

Nanostructuration d'électrodes en interface avec le vivant / Study of nanostructured electrodes interfacing with biological cells

Bibari, Olivier 08 March 2012 (has links)
Au cours de ce travail de thèse, je présente les résultats de travaux de recherche visant à la fabrication et au développement d'une nouvelle génération d'implants cérébraux permettant l'enregistrement stable dans le temps de signaux électrophysiologiques. L'objectif est d'offrir une solution technologique pour le développement de nouvelles applications chroniques utiles pour l'investigation du fonctionnement du cerveau (ex : dynamique des réseaux de neurones, traitement de l'information) mais aussi nécessaires pour la mise au point de nouvelles technologies, de type Brain Computer Interface (BCI), qui devraient, à terme, permettre d'augmenter l'autonomie des patients atteints de troubles moteurs ou victimes d'accident ayant conduit à un handicap physique.Nous rapportons, à travers diverses études expérimentales, des arguments soutenant l'utilisation de matériaux nanostructurés et en particulier les nanotubes de carbone, pour permettre d'améliorer les performances électriques et pour diminuer leur impact sur la réponse immunitaire du cerveau induite par l'implantation d'un corps étranger. Ceci représente la principale limitation à l'utilisation d'implants de mesure sur de longues périodes.Notre étude couvre ainsi l'ensemble des problématiques relatives aux implants cérébraux, en abordant les techniques de fabrication, le protocole de caractérisation électrique et enfinl'évaluation biologique in vitro et in vivo.Dans un premier temps, nous avons développé une matrice de microélectrodes nanostructurées en utilisant les techniques de microfabrication. Ceci a permis de mettre en avant la diminution de l'impédance interfaciale des électrodes liée à l'augmentation de leurs surfaces développées et, par conséquent, l'amélioration de la qualité du signal due à la réduction du niveau de bruit de la mesure. Une analyse électrochimique complémentaire, nous a dans le même temps, permis d'établir un modèle qualitatif représentant les différents phénomènes mis en jeu et soulignant l'importance des phénomènes diffusifs lors de la mesure et leurs éventuelles conséquences in vivo.Cette première génération d'électrodes nous a également permis de mener une campagne de tests in vitro pour évaluer la cytotoxicité des nanotubes à partir de différents modèles cellulaires: cultures de lignées neuronales (NG108-15) et cellules primaires (cellules gliales7et neurones du cortex ou de l'hippocampe). Suite à ces expériences, aucune forme de toxicité n'a été décelée. Bien au contraire, l'évolution des cellules gliales pendant la culture tend à défendre l'idée que les nanotubes de carbone ont le potentiel de réduire la réaction immunitaire du cerveau. Nous avons testé ce phénomène in vivo grâce à l'analyse histologique de cerveaux de rats après une implantation sous-durale d'un mois avec des échantillons en nitrure de titane (TiN) avec ou sans nanotubes de carbone. Nos résultats confirment une réduction significative de la cicatrice gliale lors d'implantations avec des échantillons nanostructurés.Ces résultats suggèrent un possible impact des nanotubes de carbone sur la stabilité de la mesure dans le temps, autrement dit sur sa « biostabilité ». Nous avons donc implanté un macaque Fascicularis avec un système comportant 16 électrodes en TiN et 16 électrodes nanostructurées de 1mm², amincies à 25μm et montées sur un substrat en polyimide flexible.L'étude qui se situe dans le cadre du projet Neurolink (financé par l'ANR/PNANO),représente la première validation expérimentale sur une longue période et démontre les avantages tant électriques que biologiques de l'utilisation des nanotubes de carbone comme interface entre l'électrode et les neurones. / During this work of thesis, I present the results of research works aiming at the manufacturing and to the development of a new generation of intellectual implants allowing the stable recording in the time of signals électrophysiologiques. The objective is to offer a technological solution for the development of new useful chronic applications for the investigation of the functioning of the brain (ex: dynamics of the networks of neurones, data processing) but also necessities for the development of new technologies, Brain Computer Interface ( BCI), which should, eventually, allow to increase the autonomy of the patients reached(affected) by driving disorders(confusions) or the victims of accident having led(driven) to a physical handicap. [résumé incomplet]
169

Modélisation de populations neuronales pour l'intégration visuo-motrice : dynamiques et décisions / Modeling of neural populations for visuo-motor integration : Dynamics and decisions

Taouali, Wahiba 26 September 2012 (has links)
Dans le contexte de l'énaction et dans une approche globale de la perception, nous nous sommes intéressés à étudier calcul neuronal permettant de comprendre les relations entre les structures dans le cerveau et leurs fonctions. Nous avons d'abord examiné les problèmes calculatoires liés à la discrétisation des équations différentielles qui régissent les systèmes étudiés et aux schémas d'évaluation synchrones et asynchrones. Nous nous sommes, ensuite, intéressés à un niveau fonctionnel élémentaire: la transformation de représentations sensorielles spatiales en actes moteurs temporels dans le cadre du système visuo-moteur. Nous avons proposé un modèle minimaliste d'encodage automatique des cibles visuelles de saccades qui se concentre sur le le flux visuel de la rétine vers le colliculus supérieur. Ce modèle, basé sur sur des règles locales simples au sein d'une population homogène, permet de reproduire et d'expliquer plusieurs résultats d'expériences biologiques ce qui en fait un modèle de base efficace et robuste. Enfin, nous avons abordé un niveau fonctionnel plus global en proposant un modèle de la boucle motrice des ganglions de la base permettant d'intégrer des flux sensoriels, moteurs et motivationnels en vue d'une décision globale reposant sur des évaluations locales. Ce modèle met en exergue un processus adaptatif de sélection de l'action et d'encodage de contexte via des mécanismes originaux lui permettant en particulier de constituer la brique de base pour les autres boucles cortico-basales. Les deux modèles présentent des dynamiques intéressantes à étudier que ce soit d'un point de vue biologique ou d'un point de vue informatique computationnel / Within the context of enaction and a global approach to perception, we focused on the characteristics of neural computation necessary to understand the relationship between structures in the brain and their functions. We first considered computational problems related to the discretization of differential equations that govern the studied systems and the synchronous and asynchronous evaluation schemes. Then, we investigated a basic functional level : the transformation of spatial sensory representations into temporal motor actions within the visual-motor system. We focused on the visual flow from the retina to the superior colliculus to propose a minimalist model of automatic encoding of saccades to visual targets. This model, based on simple local rules (CNFT and logarithmic projection) in a homogeneous population and using a sequential processing, reproduces and explains several results of biological experiments. It is then considered as a robust and efficient basic model. Finally, we investigated a more general functional level by proposing a computational model of the basal ganglia motor loop. This model integrates sensory, motor and motivational flows to perform a global decision based on local assessments. We implemented an adaptive process for action selection and context encoding through an innovative mechanism that allows to form the basic circuit for other cortico-basal loops. This mechanism allows to create internal representations according to the enactive approach that opposes the computer metaphor of the brain. Both models have interesting dynamics to study from whether a biological point of view or a computational numerical one
170

Méthode de calcul et implémentation d’un processeur neuromorphique appliqué à des capteurs évènementiels / Computational method and neuromorphic processor design applied to event-based sensors

Mesquida, Thomas 20 December 2018 (has links)
L’étude du fonctionnement de notre système nerveux et des mécanismes sensoriels a mené à la création de capteurs événementiels. Ces capteurs ont un fonctionnement qui retranscrit les atouts de nos yeux et oreilles par exemple. Cette thèse se base sur la recherche de méthodes bio-inspirés et peu coûteuses en énergie permettant de traiter les données envoyées par ces nouveaux types de capteurs. Contrairement aux capteurs conventionnels, nos rétines et cochlées ne réagissent qu’à l’activité perçue dans l’environnement sensoriel. Les implémentations de type « rétine » ou « cochlée » artificielle, que nous appellerons capteurs dynamiques, fournissent des trains d’évènements comparables à des impulsions neuronales. La quantité d’information transmise est alors étroitement liée à l’activité présentée, ce qui a aussi pour effet de diminuer la redondance des informations de sortie. De plus, n’étant plus contraint à suivre une cadence d’échantillonnage, les événements créés fournissent une résolution temporelle supérieure. Ce mode bio-inspiré de retrait d’information de l’environnement a entraîné la création d’algorithmes permettant de suivre le déplacement d’entité au niveau visuel ou encore reconnaître la personne parlant ou sa localisation au niveau sonore, ainsi que des implémentations d’environnements de calcul neuromorphiques. Les travaux que nous présentons s’appuient sur ces nouvelles idées pour créer de nouvelles solutions de traitement. Plus précisément, les applications et le matériel développés s’appuient sur un codage temporel de l’information dans la suite d'événements fournis par le capteur. / Studying how our nervous system and sensory mechanisms work lead to the creation of event-driven sensors. These sensors follow the same principles as our eyes or ears for example. This Ph.D. focuses on the search for bio-inspired low power methods enabling processing data from this new kind of sensor. Contrary to legacy sensors, our retina and cochlea only react to the perceived activity in the sensory environment. The artificial “retina” and “cochlea” implementations we call dynamic sensors provide streams of events comparable to neural spikes. The quantity of data transmitted is closely linked to the presented activity, which decreases the redundancy in the output data. Moreover, not being forced to follow a frame-rate, the created events provide increased timing resolution. This bio-inspired support to convey data lead to the development of algorithms enabling visual tracking or speaker recognition or localization at the auditory level, and neuromorphic computing environment implementation. The work we present rely on these new ideas to create new processing solutions. More precisely, the applications and hardware developed rely on temporal coding of the data in the spike stream provided by the sensors.

Page generated in 0.0533 seconds