• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 8
  • 8
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement du contrôle moteur de la parole : une étude longitudinale d'un enfant francophone âge de 7 à 16 mois, à partir d'un corpus audio-visuel

Lalevée, Claire 17 December 2010 (has links) (PDF)
La première année de vie est une période cruciale pour le développement de la parole chez l'enfant. Le babillage, étape clé dans ce développement, apparaît vers 6 mois sous une forme quasi-similaire chez tous les enfants du monde quel que soit le langage environnant. Durant cette période, l'enfant ne contrôle pas la nature de ses productions et n'a pas encore acquis les capacités pour produire les unités phonologiques de sa langue maternelle. Avec l'apparition de ses premiers mots autour de 12 mois, c'est-à-dire de productions verbales désignant de façon stable un référent identifiable, l'enfant a parcouru un chemin développemental durant lequel il a acquis de nouvelles capacités motrices, articulatoires et phonologiques. Nous nous sommes intéressées à l'apparition de ces capacités en adoptant une démarche à la croisée des approches scientifiques actuelles de type bottom-up (MacNeilage, 1998) et top-down (Fikkert & al. 2004, Wauquier, 2005, 2006) En effet, il nous semble que les productions de parole ne peuvent pas s'expliquer hors du cadre articulatoire et moteur. Mais il nous paraît pour autant indispensable de prendre en considération les caractéristiques structurelles et les contraintes linguistiques de l'input (Vihman, 1996). Pour nous, l'enfant doit donc s'adapter à sa langue maternelle en fonction de ses capacités motrices et articulatoires qui évolueront avec la croissance et la maturation cognitive, tout en comparant constamment ses productions à sa langue maternelle. Pour évaluer ces propositions théoriques, nous avons élaboré une base de données des productions vocales d'un enfant francophone âgé de 7 à 16 mois à partir d'un corpus audio-visuel. Notre questionnement porte sur la nature des premiers mots. En effet, si le contrôle des oscillations mandibulaires peut bien être considéré comme la structure de base de la parole, l'enfant ne pourra pas produire de syllabe adulte tant qu'il n'aura pas acquis trois contrôles supplémentaires à celui de la mandibule : (i) le contrôle du vélum qui permet d'obtenir un conduit vocal globalement oral pour produire des séquences consonnes-voyelles distinctes, (ii) le contrôle de la coordination oro-laryngéee qui permet d'obtenir la distinction voisée/non voisée, et (iii) le contrôle du rythme mandibulaire qui va permettre à l'enfant d'adapter ses productions au patron prosodique de sa langue maternelle.
2

Localisation et suivi de visages à partir d'images et de sons : une approche Bayésienne temporelle et commumative / From images and sounds to face localization and tracking : a switching dynamical Bayesian framework

Drouard, Vincent 18 December 2017 (has links)
Dans cette thèse, nous abordons le problème de l’estimation de pose de visage dans le contexte des interactions homme-robot. Nous abordons la résolution de cette tâche à l’aide d’une approche en deux étapes. Tout d’abord en nous inspirant de [Deleforge 15], nous proposons une nouvelle façon d’estimer la pose d’un visage, en apprenant un lien entre deux espaces, l’espace des paramètres de pose et un espace de grande dimension représentant les observations perçues par une caméra. L’apprentissage de ce lien se fait à l’aide d’une approche probabiliste, utilisant un mélange de regressions affines. Par rapport aux méthodes d’estimation de pose de visage déjà existantes, nous incorporons de nouvelles informations à l’espace des paramètres de pose, ces additions sont nécessaires afin de pouvoir prendre en compte la diversité des observations, comme les differents visages et expressions mais aussi lesdécalages entre les positions des visages détectés et leurs positions réelles, cela permet d’avoir une méthode robuste aux conditions réelles. Les évaluations ont montrées que cette méthode permettait d’avoir de meilleurs résultats que les méthodes de regression standard et des résultats similaires aux méthodes de l’état de l’art qui pour certaines utilisent plus d’informations, comme la profondeur, pour estimer la pose. Dans un second temps, nous développons un modèle temporel qui utilise les capacités des traqueurs pour combiner l’information du présent avec celle du passé. Le but à travers cela est de produire une estimation de la pose plus lisse dans le temps, mais aussi de corriger les oscillations entre deux estimations consécutives indépendantes. Le modèle proposé intègre le précédent modèle de régression dans une structure de filtrage de Kalman. Cette extension fait partie de la famille des modèles dynamiques commutatifs et garde tous les avantages du mélange de regressionsaffines précédent. Globalement, le modèle temporel proposé permet d’obtenir des estimations de pose plus précises et plus lisses sur une vidéo. Le modèle dynamique commutatif donne de meilleurs résultats qu’un modèle de suivi utilsant un filtre de Kalman standard. Bien qu’appliqué à l’estimation de pose de visage le modèle presenté dans cette thèse est très général et peut être utilisé pour résoudre d’autres problèmes de régressions et de suivis. / In this thesis, we address the well-known problem of head-pose estimationin the context of human-robot interaction (HRI). We accomplish this taskin a two step approach. First, we focus on the estimation of the head pose from visual features. We design features that could represent the face under different orientations and various resolutions in the image. The resulting is a high-dimensional representation of a face from an RGB image. Inspired from [Deleforge 15] we propose to solve the head-pose estimation problem by building a link between the head-pose parameters and the high-dimensional features perceived by a camera. This link is learned using a high-to-low probabilistic regression built using probabilistic mixture of affine transformations. With respect to classic head-pose estimation methods we extend the head-pose parameters by adding some variables to take into account variety in the observations (e.g. misaligned face bounding-box), to obtain a robust method under realistic conditions. Evaluation of the methods shows that our approach achieve better results than classic regression methods and similar results thanstate of the art methods in head pose that use additional cues to estimate the head pose (e.g depth information). Secondly, we propose a temporal model by using tracker ability to combine information from both the present and the past. Our aim through this is to give a smoother estimation output, and to correct oscillations between two consecutives independent observations. The proposed approach embeds the previous regression into a temporal filtering framework. This extention is part of the family of switching dynamic models and keeps all the advantages of the mixture of affine regressions used. Overall the proposed tracker gives a more accurate and smoother estimation of the head pose on a video sequence. In addition, the proposed switching dynamic model gives better results than standard tracking models such as Kalman filter. While being applied to the head-pose estimation problem the methodology presented in this thesis is really general and can be used to solve various regression and tracking problems, e.g. we applied it to the tracking of a sound source in an image.
3

Egocentric Audio-Visual Scene Analysis : a machine learning and signal processing approach / Analyse audio-visuelle de la scène d'un point de vue égocentrique : une approche par de l'apprentissage automatique et du traitement du signal.

Alameda-Pineda, Xavier 15 October 2013 (has links)
Depuis les vingt dernières années, l'industrie a développé plusieurs produits commerciaux dotés de capacités auditives et visuelles. La grand majorité de ces produits est composée d'un caméscope et d'un microphone embarqué (téléphones portables, tablettes, etc). D'autres, comme la Kinect, sont équipés de capteurs de profondeur et/ou de petits réseaux de microphones. On trouve également des téléphones portables dotés d'un système de vision stéréo. En même temps, plusieurs systèmes orientés recherche sont apparus (par exemple, le robot humanoïde NAO). Du fait que ces systèmes sont compacts, leurs capteurs sont positionnés près les uns des autres. En conséquence, ils ne peuvent pas capturer la scène complète, mais qu'un point de vue très particulier de l'interaction sociale en cours. On appelle cela "Analyse Égocentrique de Scènes Audio-Visuelles''.Cette thèse contribue à cette thématique de plusieurs façons. D'abord, en fournissant une base de données publique qui cible des applications comme la reconnaissance d'actions et de gestes, localisation et suivi d'interlocuteurs, analyse du tour de parole, localisation de sources auditives, etc. Cette base a été utilisé en dedans et en dehors de cette thèse. Nous avons aussi travaillé le problème de la détection d'événements audio-visuels. Nous avons montré comme la confiance en une des modalités (issue de la vision en l'occurrence), peut être modélisée pour biaiser la méthode, en donnant lieu à un algorithme d'espérance-maximisation visuellement supervisé. Ensuite, nous avons modifié l'approche pour cibler la détection audio-visuelle d'interlocuteurs en utilisant le robot humanoïde NAO. En parallèle aux travaux en détection audio-visuelle d'interlocuteurs, nous avons développé une nouvelle approche pour la reconnaissance audio-visuelle de commandes. Nous avons évalué la qualité de plusieurs indices et classeurs, et confirmé que l'utilisation des données auditives et visuelles favorise la reconnaissance, en comparaison aux méthodes qui n'utilisent que l'audio ou que la vidéo. Plus tard, nous avons cherché la meilleure méthode pour des ensembles d'entraînement minuscules (5-10 observations par catégorie). Il s'agit d'un problème intéressant, car les systèmes réels ont besoin de s'adapter très rapidement et d'apprendre de nouvelles commandes. Ces systèmes doivent être opérationnels avec très peu d'échantillons pour l'usage publique. Pour finir, nous avons contribué au champ de la localisation de sources sonores, dans le cas particulier des réseaux coplanaires de microphones. C'est une problématique importante, car la géométrie du réseau est arbitraire et inconnue. En conséquence, cela ouvre la voie pour travailler avec des réseaux de microphones dynamiques, qui peuvent adapter leur géométrie pour mieux répondre à certaines tâches. De plus, la conception des produits commerciaux peut être contrainte de façon que les réseaux linéaires ou circulaires ne sont pas bien adaptés. / Along the past two decades, the industry has developed several commercial products with audio-visual sensing capabilities. Most of them consists on a videocamera with an embedded microphone (mobile phones, tablets, etc). Other, such as Kinect, include depth sensors and/or small microphone arrays. Also, there are some mobile phones equipped with a stereo camera pair. At the same time, many research-oriented systems became available (e.g., humanoid robots such as NAO). Since all these systems are small in volume, their sensors are close to each other. Therefore, they are not able to capture de global scene, but one point of view of the ongoing social interplay. We refer to this as "Egocentric Audio-Visual Scene Analysis''.This thesis contributes to this field in several aspects. Firstly, by providing a publicly available data set targeting applications such as action/gesture recognition, speaker localization, tracking and diarisation, sound source localization, dialogue modelling, etc. This work has been used later on inside and outside the thesis. We also investigated the problem of AV event detection. We showed how the trust on one of the modalities (visual to be precise) can be modeled and used to bias the method, leading to a visually-supervised EM algorithm (ViSEM). Afterwards we modified the approach to target audio-visual speaker detection yielding to an on-line method working in the humanoid robot NAO. In parallel to the work on audio-visual speaker detection, we developed a new approach for audio-visual command recognition. We explored different features and classifiers and confirmed that the use of audio-visual data increases the performance when compared to auditory-only and to video-only classifiers. Later, we sought for the best method using tiny training sets (5-10 samples per class). This is interesting because real systems need to adapt and learn new commands from the user. Such systems need to be operational with a few examples for the general public usage. Finally, we contributed to the field of sound source localization, in the particular case of non-coplanar microphone arrays. This is interesting because the geometry of the microphone can be any. Consequently, this opens the door to dynamic microphone arrays that would adapt their geometry to fit some particular tasks. Also, because the design of commercial systems may be subject to certain constraints for which circular or linear arrays are not suited.
4

Menina mulher da pele preta - projeto de série televisiva que discute questões de gênero e raça ligados a mulher negra

Lima, Renato Candido de 04 November 2011 (has links)
Esta dissertação em mestrado consiste na construção dramatúrgica de um projeto de série televisiva que dialoga questões de gênero e raça atrelados a representação da pessoa negra no audiovisual brasileiro. \"Menina Mulher da Pele Preta\" é o nome desta série e ela desenvolve cinco histórias de cinco mulheres negras protagonistas de diferentes idades com suas cinco diferentes realidades sociais e contextos. Seu título dialoga com a música \"Essa Menina Mulher da Pele Preta\" composta pelo cantor/compositor Jorge Ben, músico negro de grande referência para cultura brasileira. Apresento como parte da dissertação, o episódio piloto \"Jennifer\" no DVD em anexo. Neste capítulo, conta-se a história de uma adolescente filha de mãe negra e pai branco (filha de mãe solteira) moradora de uma região periférica da Zona Norte de São Paulo. Os roteiros dos cinco episódios compõem a primeira parte da dissertação. A criação da série parte de minha avaliação crítica sobre produções audiovisuais contemporâneas de grande visibilidade que retrataram espaços periféricos. Esta análise também compreende situações biográficas ocorridas comigo na relação entre periferia e universidade. Assim, com um texto ensaístico apresentado na segunda parte desta dissertação, eu me situo no debate contemporâneo sobre a política e a poética das expressões audiovisuais da periferia, de negros, para negros e sobre negros. Esta dissertação dialoga com dois textos acadêmicos recentes: Da política a poética de certas formas audiovisuais, livre docência da Professora Livre Docente Esther Império Hamburger e A Periferia nas Séries Televisivas Cidade dos Homens e Antônia, dissertação da Cientista Social e Mestre em Ciências da Comunicação Ananda Stücker. Eles se inserem num amplo debate acerca da necessidade de projetos audiovisuais atentos ao dilema da representação do outro na periferia. / Cette thèse de master propose la construction dramaturgique d\'une série télévisée qui parle de questions de genre et de race liées à la représentation audiovisuel brésilien du peuple noir. Menina Mulher da Pele Preta est le nom de cette série télévisée et elle développe cinq histoires de cinq protagonistes femmes noires de différents âges avec ses cinq différentes réalités sociales et contextes. La référence pour le titre de cette série télévisée est la chanson titre Essa Menina Mulher da Pele Preta écrit par le chanteur / compositeur Jorge Ben, un musicien noir de grande référence pour la culture brésilienne. J\'introduis dans le cadre de la thèse, l\'épisode pilote Jennifer sur le DVD ci-joint. Ce chapitre raconte l\'histoire de Jennifer, une fille adolescente d\'une mère noire et père blanc (fille de mère célibataire) qui vit dans un banlieu nord de la ville de São Paulo. Les scénarios des cinq épisodes comprenent la première partie de la dissertation. La création de la série part de ma évaluation critique des productions audiovisuelles contemporaines qui dépeint très visible les espaces périphériques. Cet analyse comprend également mes situations biographiques dans la relation entre la périphérie et l\'université. Ainsi, avec un essai présentés dans la seconde partie de cette thèse, je me situe dans le débat contemporain sur la politique et poétique audio-visuel des expressions périphériques des Noirs, pour les Noirs et sur les Noirs,. Cette thèse repond à deux récents documents universitaires: La thèse Da política e poética de certas formas audiovisuais, écrit par la professeur resident Esther Império Hamburger, et la thèse de master La périphérie dans séries télévisées Cité d\'hommes et Antonia, de la Maîtrise en Sciences de la communication Ananda Stücker. Ils partent d\'un large débat sur la nécessité de projets audiovisuels conscients du dilemme de la représentation de l\'autre dans la périphérie.
5

Modèles de Mélanges Conjugués pour la Modélisation de la Perception Visuelle et Auditive

Khalidov, Vasil 18 October 2010 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la modélisation de la perception audio-visuelle avec une tête robotique. Les problèmes associés, notamment la calibration audio-visuelle, la détection, la localisation et le suivi d'objets audio-visuels sont étudiés. Une approche spatio-temporelle de calibration d'une tête robotique est proposée, basée sur une mise en correspondance probabiliste multimodale des trajectoires. Le formalisme de modèles de mélange conjugué est introduit ainsi qu'une famille d'algorithmes d'optimisation efficaces pour effectuer le regroupement multimodal. Un cas particulier de cette famille d'algorithmes, notamment l'algorithme EM conjugue, est amélioré pour obtenir des propriétés théoriques intéressantes. Des méthodes de détection d'objets multimodaux et d'estimation du nombre d'objets sont développées et leurs propriétés théoriques sont étudiées. Enfin, la méthode de regroupement multimodal proposée est combinée avec des stratégies de détection et d'estimation du nombre d'objets ainsi qu'avec des techniques de suivi pour effectuer le suivi multimodal de plusieurs objets. La performance des méthodes est démontrée sur des données simulées et réelles issues d'une base de données de scénarios audio-visuels réalistes (base de données CAVA).
6

Poïétique de la création sonore au cinéma : la figure de l’artiste-poïéticien

Forest, Pierre-Olivier 01 1900 (has links)
Nous proposons, dans ce mémoire, d’explorer les possibilités pratiques et pédagogiques d’une approche autopoïétique de la création sonore au cinéma. Notre principal souci sera de saisir les modalités de l’ascèse propre aux artistes qui se livrent à une telle activité, comprise comme un « apprentissage de soi par soi » (Foucault), afin de faire celui qui peut faire l’œuvre (processus de subjectivation), et le rôle descriptif et opératoire de cet exercice - en tant qu’effort pour penser de façon critique son propre savoir-faire -, dans le faire-œuvre et l’invention de possibles dans l’écriture audio-visuelle cinématographique. Pour ce faire, d’une part, nous étudierons, à partir de témoignages autopoïétiques, le rapport réflexif de trois créateurs sonores à leur pratique et leur effort pour penser (et mettre en place) les conditions d’une pratique et d’une esthétique du son filmique comme forme d’art sonore dans un contexte audio-visuel, alors qu’ils travaillent dans un cadre normalisant : Randy Thom, Walter Murch et Franck Warner. D’autre part, nous recourrons à différentes considérations théoriques (la théorie de l’art chez Deleuze et Guattari, la « surécoute » chez Szendy, l’histoire de la poïétique à partir de Valéry, etc.) et pratiques (la recherche musicale chez Schaeffer, la relation maître-apprenti, les rapports entre automatisme et pensée dans le cinéma moderne chez Artaud et Godard, etc.), afin de contextualiser et d’analyser ces expériences de création, avec l’objectif de problématiser la figure de l’artiste-poïéticien sur un plan éthique dans le sillage de la théorie des techniques de soi chez Foucault. / It is our aim, in this study, to explore the practical and pedagogical possibilities of an auto-poietic approach to sound designing in cinema. Our main concern is to grasp the modalities of the asceticism unique to artists of this trade, understood as a apprenticeship of the self, by the self (Foucault) in order to generate the one who can make the work of art, and the descriptive and operational roles of this exercise - as a means of producing critical thought with respect to one’s own know-how-, in the making of the film and the invention of possibilities in audio-visual cinematographic “writing”. To do this, firstly, based on various forms of autopoietic testimony, we study the reflexive relation of three sound designers (Randy Thom, Walter Murch and Frank Warner) with respect to their practice and their efforts to think (and put in place) the conditions of a practice and an esthetics of film sound as a form of sound art in the audio-visual context, while these are working in normative framework. Secondly, we will use various theoretical (the art theories of Deleuze and Guattari, the “surécoute” of Szendy, the history of poietic from Valéry, etc.) and practical (Schaeffer’s musical research, the master-student relationship, the relationship between automatism and thought in the modern cinemas of Artaud and Godard, etc.) considerations to help contextualize and analyze these experiences of artistic creation, with the objective of problematizing the figure of the poietic-artist in the wake of Foucault’s theories on the techniques of self.
7

Du son et de la musique à la concrétion sonore : structuration audio du conflit en jeu vidéo

Martin, Ambrune 08 1900 (has links)
Ce mémoire emprunte à la ludomusicologie tout en s’inscrivant dans le cadre des études du jeu vidéo et des études cinématographiques. Il est une exploration du sonore à l’intérieur d’une situation de conflit présente dans un jeu vidéo. Nous y appréhendons la construction sonore de la situation de conflit, caractérisée par un combat entre un personnage jouable et un antagoniste. Nous posons les problématiques suivantes : de quelle manière le sonore se construit-il dans une situation de conflit vidéoludique? Qu’est-ce que cette construction apporte au joueur ou à la joueuse? En prenant appui sur le cinéma puis le cinéma d’animation, nous envisageons le son dans sa construction audio-visuelle, rattaché à une image mouvante. Il apparaît rapidement que le son en rapport à l’image possède des fonctions qui permettent à l’auditeur-spectateur d’appréhender, voire d’amplifier à la fois l’histoire et les émotions. À travers le cognitivisme, nous transposons ensuite ces fonctions vers le jeu vidéo, en prenant en compte le paradigme de la jouabilité. En nous intéressant au joueur, nous partons de ses attitudes d’écoute pour proposer la construction d’une concrétion sonore, un ensemble de sons et de musiques inhérents à toute situation audio-visuelle. Il ne s’agit plus de séparer sons, musique et bruits, mais bien de les hiérarchiser en fonction des besoins du joueur, qui sont déterminés par la situation de jeu. Une étude de cas nous permet d’expliciter la concrétion sonore. Nous précisons enfin les enjeux relatifs à la concrétion sonore dans le cadre de la situation de conflit. Il apparaît au fil de nos recherches que le son, les bruits et la musique possèdent des fonctions qui dépendent moins de leur structure que de l’assemblage sonore complet. De nombreux exemples présenteront des strates sonores aux multiples fonctions. La musique comme le son peuvent constituer aussi bien une aide qu’un frein à la jouabilité. Des techniques de production (volume, spatialisation, complexité du sonore) permettent au joueur de hiérarchiser la concrétion sonore pour profiter d’une meilleure expérience audio-visuelle. / This dissertation is the result of research in ludomusicology, game studies and cinema studies. It is an exploration of sound in the context of a conflict situation present in a video game. We apprehend the sound construction of the conflict situation, characterized by a fight between a playable character and an antagonist. We propose the following questions: how is sound constructed in a video game conflict situation? What does this construction bring to the player? By studying the cinema and then animation, we consider sound in its audio-visual structure, linked to a moving image. It quickly appears that the sound in relation to the image has functions that allow the listener-spectator to apprehend, even amplify both the story and the emotions. Through cognitivism, we then transpose these functions to video games, taking into account the paradigm of playability. By focusing on the player, we start from his listening attitudes to suggest the construction of a sound concretion, a set of sounds and music inherent to any audio-visual situation. It is no longer a question of separating sounds, music and noises, but rather of prioritizing them according to the player's needs, which are determined by the gaming situation. A case study allows us to explain the sound concretion. Finally, we specify the stakes related to sound concretion in the context of the conflict situation. It appears through our research that sound, noises and music have functions that depend less on their structure than on the entire sound assembly. Many examples will present sound layers with multiple functions. Music and sound can be both an aid and a hindrance to playability. Production techniques (volume, spatialization, sound complexity) allow the player to prioritize the sound concretion to enjoy a better audio-visual experience.
8

Investigating the comparative effects of adaptation on supra and infragranular layers with visual and acoustic stimulation in cat’s visual cortex

Chanauria, Nayan 08 1900 (has links)
Dans le cortex visuel primaire (V1 ou l’aire 17) du chat, les neurones répondent aux orientations spécifiques des objets du monde extérieur et forment les colonnes d'orientation dans la zone V1. Un neurone répondant à une orientation horizontale sera excité par le contour horizontal d'un objet. Cette caractéristique de V1 appelée sélectivité d'orientation a été explorée pour étudier les effets de l'adaptation. Suivant un schéma d’entraînement (adaptation), le même neurone ayant initialement répondu à l’orientation horizontale répondra désormais à une orientation oblique. Dans cette thèse, nous étudions les propriétés d'ajustement d'orientation de neurones individuels dans des couches superficielles et plus profondes de V1 dans deux environnements d'adaptation. En raison de la grande interconnectivité entre les neurones de V1, nous émettons l'hypothèse que non seulement les neurones individuels sont affectés par l'adaptation, mais que tout le cortex est reprogrammé par l'adaptation. Des enregistrements extracellulaires ont été effectués sur des chats anesthésiés. Les activités neuronales ont été enregistrées simultanément aux couches 2/3 et à la 5/6 à l'aide d'une électrode de tungstène. Les neurones ont été adaptés à la fois par stimulation visuelle et son répétitif selon deux protocoles différents. Dans les deux cas, une plage stimulante constituée de sinusoïdes à défilement a été présentée pour évoquer les réponses dans V1 et générer des courbes de réglage d'activité multi-unités. La connectivité fonctionnelle entre les neurones enregistrés a été démontrée par un corrélogramme croisé entre les décharges cellulaires captées simultanément. En réponse à l'adaptation visuelle, les neurones des couches 2/3 et 5/6 ont montré des glissements attractifs et répulsifs classiques. En revanche en comparant le comportement des neurones de l'une et l'autre couche, on a observé une tendance équivalente. Les corrélogrammes croisés entre les trains de neurones des couches 2/3 et 5/6 ont révélé des décharges synchronisées entre les neurones. Durant l'adaptation au son, en l'absence totale de stimuli visuel, le glissement des courbes d’accord a été observés chez l'une et l'autre couche indiquant ainsi un changement de la sélectivité de l'orientation. Toutefois, il faut prendre note du fait que les cellules des deux couches ont un glissement aux directions opposées ce qui dénote un comportement indépendant. Nos résultats indiquent que les réponses des neurones du cortex V1 peuvent être évoqués par stimulation directe ou indirecte. La différence de réponses à différents environnements d'adaptation chez les neurones des couches 2/3 et 5/6 indiquent que les neurones de l'aire V1 peuvent choisir de se comporter de la même façon ou différemment lorsque confrontés à divers’ stimuli sensoriels. Ceci suggère que les réponses dans V1 sont dépendantes du stimulus environnemental. Aussi, les décharges synchronisées des neurones de la couche 2/3 et de la couche 5/6 démontre une connectivité fonctionnelle entre les paires de neurones. En définitive on pourrait affirmer que les neurones visuels subissent une altération de leur sélectivité en construisant de nouvelles cartes de sélectivité. À la lumière de nos résultats on pourrait concevoir que le cortex en entier serait multi sensoriel compte tenu de la plasticité entre les zones sensorielles. / In the cat primary visual cortex (V1 or area17), neurons fundamentally respond to orientations of the objects in the outside world. Neurons responding to specific orientations form the orientation columns in V1. A neuron responding to a horizontal orientation will get optimally excited towards the outline of a horizontal object. This feature of the visual cortex known as orientation selectivity has been continuously explored to study the effects of adaptation. Following a training paradigm called adaptation, the same neuron that was inherently responding to the horizontal orientation will respond to an oblique orientation. In this thesis, we seek to examine the orientation tuning properties of individual neurons in superficial and deeper layers of V1 in different adaptation environments. Due to the extensive interconnectivity between V1 neurons, we hypothesize that not only do individual neurons get affected by adaptation paradigm, but the whole cortex is reprogramed. To this aim, extracellular recordings were performed in conventionally prepared anesthetized cats. Neural activities were recorded simultaneously from layer 2/3 and layer 5/6 using a tungsten multichannel electrode. Neurons were adapted with a visual adapter (visual adaptation) and a repetitive sound (sound adaptation) in two different settings. Both types of adaptations were performed uninterrupted for 12 minutes. In both settings, sine-wave drifting gratings were presented to evoke responses in V1 and generate tuning curves from the recorded multiunit activity. The functional connectivity between the recorded neurons was revealed by computing cross-correlation between individual neuron pairs. In response to visual adaptation, layer 2/3 and 5/6 neurons displayed classical attractive and repulsive shifts. On comparing the behaviour of the neurons in either layer, an equivalent tendency was observed. Cross-correlograms between the spike trains of neurons in layers 2/3 and 5/6 revealed synchronized firing between the neurons suggesting coordinated dynamics of the co-active neurons and their functional connections. During sound adaptation, where the visual adapter was completely absent, shifts in the tuning curves were observed in either layer indicating a novel orientation selectivity. However, it is noteworthy that cells in both layers shifted in opposite directions indicating independent behaviour. V1 neurons might have an additional role besides processing visual stimuli. The visual neurons may have demonstrated multisensory properties when stimulated indirectly through neighbouring sensory regions. Our results indicate that primary visual neurons can be evoked by direct or indirect stimulation. The difference in the responses of layer 2/3 and layer 5/6 neurons towards the different adaptation environments indicate that neurons in V1 may behave similar or different towards the different sensory stimulus. This suggests that V1 responses are stimulus dependent. Additionally, the synchronized firing of layer 2/3 and layer 5/6 neurons towards visual adapter signify an existence of functional connectivity between the neuron pairs. Together, it can be summarised that visual neurons undergo an alteration of selectivity by building new orientation maps that ultimately potentiates plasticity within sensory regions that are highly suggestive of entire cortex being multisensory.

Page generated in 0.031 seconds