• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 11
  • 3
  • Tagged with
  • 44
  • 21
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Les locuteurs d’une langue tonale sont-ils de meilleurs musiciens? Effet potentiel de la connaissance native d’une langue à tons sur la perception du contraste du pitch

Li, Na 11 1900 (has links)
Ce mémoire consiste à offre un survol des études neuropsychologiques et électrophysiologiques concernant l’interaction possible entre le traitement du langage et la musique. Le but principal est de déterminer les raisons possibles pour lesquelles des locuteurs d’une langue à tons auraient une meilleure capacité dans la perception du contraste du pitch en musique par rapport aux individus qui ont pour langue maternelle une langue à intonation. Dans un premier temps, nous discutons du traitement neuronal de la prosodie et de la musique, tentant de montrer le chevauchement du traitement cérébral des deux domaines. Ensuite, nous présentons des notions d’une langue tonale ainsi que le traitement neuronal des tons lexicaux. Après, nous discutons des effets de transfert de la capacité du traitement du pitch en linguistique et en musique, en nous focalisant sur l’influence de la connaissance native d’une langue tonale sur la perception musicale. Pour ce faire, l’encodage du pitch et la localisation hémisphérique du traitement des tons lexicaux et la musique serons discutés. / This thesis gives an overview of neuropsychological and electrophysiological studies about the possible interaction between the processing of language and music. Our main purpose is to examine the possible reasons for which tone language speakers have a better capacity in perceiving pitch contrast in music than native speakers of an intonational language. First, we discuss the neural processing of prosody and music, attempting to show an overlap between the two domains. Next, we present the concept of a tone langue and the neural processing of lexical tones. Afterwards, we discuss the transfer effects of the processing capacity of pitch in linguistic and music by focusing on the influence of a knowledge of a tone language on the musical perception. To do this, the encoding of pitch and the hemispheric specialization will be discussed.
22

Développement de nouvelles expériences de corrélation en RMN haute-résolution mettant en œuvre un encodage spatial fréquentiel de l'échantillon / Development of new correlation experiments in high resolution NMR using a spatial frequency encoding of the sample

Pitoux, Daisy 22 June 2015 (has links)
La plupart des développements qui ont été effectués ces dernières années dans le domaine de la RMN rapide ont permis d’accélérer considérablement l’acquisition des expériences multidimensionnelles. Cependant, dans le cas de l’étude des interactions proton-proton, qui constituent des sondes structurales précieuses des molécules, l’ensemble du processus analytique demeure une tâche difficile et longue pour les chimistes. Une raison est la complexité et la quantité des informations rendues disponibles qui contribue au profil spectral global, même dans le cas de molécules de petites et moyennes tailles. En l’état de l’art actuel, il était difficile d’optimiser simultanément la résolution des spectres de corrélations et la durée d’analyse nécessaires pour les acquérir et les exploiter. Ce projet de thèse avait pour but de développer une approche RMN nouvelle et générale basée sur un encodage spatial fréquentiel de l’échantillon afin de simplifier et d’accélérer l’étude de molécules plus ou moins complexes. L’encodage spatial fréquentiel permet de contrôler sélectivement les évolutions de spins dans des régions localisées de l’échantillon et de les combiner dans des spectres RMN haute résolution dans lesquels le contenu analytique est aisément accessible. Dans une première partie, la théorie de l’encodage spatial en fréquence est présentée. Une méthode de simulation du signal RMN encodé est présentée, puis utilisée pour décrire la localisation du processus d’excitation sélective d’un système de spin modèle, en allant de l’analyse d’une cohérence unique vers la reconstruction du spectre encodé à travers le tube RMN. En parallèle, l’influence du champ magnétique sur la largeur de coupe et de sensibilité de ce type d’expériences est également étudiée grâce à cet outil de simulation. Dans une deuxième partie, deux développements méthodologiques sont présentés. Tout d’abord, l’expérience PCR-COSY donne accès, en un seul spectre, à la mesure totalement éditée et attribuable des couplages scalaires proton-proton pour une molécule donnée. Ensuite, l’expérience push-G-SERF permet de mesurer l’ensemble des couplages impliquant un proton sélectionné à partir d’un spectre présentant des signaux J-résolus dans la dimension indirecte et -résolus dans la dimension directe du spectre. Dans une troisième partie, les expériences basées sur un encodage spatial de l’échantillon sont appliquées à l’analyse conformationnelle d’un saccharide synthétique. Tout d’abord, les avantages et inconvénients de la mise en œuvre des techniques d’encodage spatial en fréquence à très haut champ sont discutés. Enfin, une stratégie d’analyse conformationnelle basée sur la spectroscopie J-éditée est présentée et appliquée avec succès à l’étude de cet oligosaccharide. / Most of the developments that have been made during the last years in the field of fast NMR have allowed for considerably accelerating the acquisition of multidimensional experiments. However, the analysis of proton-proton spin interactions, which are very important structural probes in molecules, still constitutes a tedious and time-consuming analytical process for most of the chemists. One reason is the complexity and the high number of homonuclear couplings that contribute to the overall lineshape in proton spectra, even for small or medium-sized compounds. It is thus nowadays very difficult to optimize both the resolution of correlation spectra, and the experimental time needed to acquire them, using state of the art high resolution methods. This thesis project aimed at developing a novel and general approach based on a spatial frequency encoding of the NMR sample in order to simplify and thus to accelerate the analysis of complex molecular systems. Spatial frequency encoding consists in controlling selectively spin evolutions in localized regions of the sample, and in combining them into high resolution experiments whose analytical content is easily accessible. In a first part, the theory of spatial frequency encoding is presented. A general method for simulating the encoded NMR signal is introduced, and it is applied to describe the localized selective excitation process of a model spin system, from the analysis of a single spin coherence, to the reconstruction of the whole NMR spectrum encoded throughout the sample. The magnetic field dependence of the slice selection process, as well as the overall sensitivity is also addressed through this simulation tool. In a second part, two methodological developments are presented. Firstly, the PCR-COSY experiment gives access, in a single spectrum, to a fully edited and assignable measurement of all the proton-proton scalar couplings in a given molecule. Secondly, the push-G-SERF experiment allows for measuring all the couplings involving a selected proton on correlations showing a J-resolved and a -resolved structure in the indirect and direct domain of the resulting 2D spectrum, respectively. In a third part, high-resolution experiments based on a spatial frequency encoding of the sample are applied to the conformational analysis of a synthetic saccharide. First, advantages and drawbacks of an implementation of spatial frequency encoded techniques at very high field are discussed. Then, a conformational analysis strategy based on J-edited spectroscopy is introduced, and successfully applied to the study of this oligosaccharide.
23

Logique de séparation et vérification déductive

Bobot, François 12 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans la démarche de preuve de programmes à l'aide de vérification déductive. La vérification déductive consiste à produire, à partir des sources d'un programme, c'est-à-dire ce qu'il fait, et de sa spécification, c'est-à-dire ce qu'il est sensé faire, une conjecture qui si elle est vraie alors le programme et sa spécification concordent. On utilise principalement des démonstrateurs automatiques pour montrer la validité de ces formules. Quand ons'intéresse à la preuve de programmes qui utilisent des structures de données allouées en mémoire, il est élégant et efficace de spécifier son programme en utilisant la logique de séparation qui est apparu il y a une dizaine d'année. Cela implique de prouver des conjectures comportant les connectives de la logique de séparation, or les démonstrateurs automatiques ont surtout fait des progrès dans la logique du premier ordre qui ne les contient pas.Ce travail de thèse propose des techniques pour que les idées de la logique de séparation puissent apparaître dans les spécifications tout en conservant la possibilité d'utiliser des démonstrateurs pour la logique du premier ordre. Cependant les conjectures que l'ont produit ne sont pas dans la même logique du premier ordre que celles des démonstrateurs. Pour permettre une plus grande automatisation, ce travail de thèse a également défini de nouvelles conversions entre la logique polymorphe du premier ordre et la logique multi-sortée dupremier ordre utilisé par la plupart des démonstrateurs.La première partie a donné lieu à une implémentation dans l'outil Jessie, la seconde a donné lieu à une participation conséquente à l'écriture de l'outil Why3 et particulièrement dans l'architecture et écriture des transformations qui implémentent ces simplifications et conversions.
24

Analyse de nouvelles primitives cryptographiques pour les schémas Diffie-Hellman

Kammerer, Jean-Gabriel 23 May 2013 (has links) (PDF)
L'objet de cette thèse est l'étude de diverses primitives cryptographiques utiles dans des protocoles Diffie-Hellman. Nous étudions tout d'abord les protocoles Diffie-Helmman sur des structures commutatives ou non. Nous en proposons une formulation unifiée et mettons en évidence les différents problèmes difficiles associés dans les deux contextes. La première partie est consacrée à l'étude de pseudo-paramétrisations de courbes algébriques en temps constant déterministe, avec application aux fonctions de hachage vers les courbes. Les propriétés des courbes algébriques en font une structure de choix pour l'instanciation de protocoles reposant sur le problème Diffie-Hellman. En particulier, ces protocoles utilisent des fonctions qui hachent directement un message vers la courbe. Nous proposons de nouvelles fonctions d'encodage vers les courbes elliptiques et pour de larges classes de fonctions hyperelliptiques. Nous montrons ensuite comment l'étude de la géométrie des tangentes aux points d'inflexion des courbes elliptiques permet d'unifier les fonctions proposées tant dans la littérature que dans cette thèse. Dans la troisième partie, nous nous intéressons à une nouvelle instanciation de l'échange Diffie-Hellman. Elle repose sur la difficulté de résoudre un problème de factorisation dans un anneau de polynômes non-commutatifs. Nous montrons comment un problème de décomposition Diffie-Hellman sur un groupe non-commutatif peut se ramener à un simple problème d'algèbre linéaire pourvu que les éléments du groupe admettent une représentation par des matrices. Bien qu'elle ne soit pas applicable directement au cas des polynômes tordus puisqu'ils n'ont pas d'inverse, nous profitons de l'existence d'une notion de divisibilité pour contourner cette difficulté. Finalement, nous montrons qu'il est possible de résoudre le problème Diffie-Hellman sur les polynômes tordus avec complexité polynomiale.
25

Codage des sons dans le nerf auditif en milieu bruyant : taux de décharge versus information temporel / Sound coding in the auditory nerve : rate vs timing

Huet, Antoine 14 December 2016 (has links)
Contexte : Les difficultés de compréhension de la parole dans le bruit représente la principale plainte des personnes malentendantes. Cependant, peu d’études se sont intéressées aux mécanismes d’encodage des sons en environnement bruyant. Ce faisant, nos travaux ont portés sur les stratégies d’encodage des sons dans le nerf auditif dans environnements calme et bruyant en combinant des techniques électrophysiologiques et comportementales chez la gerbille.Matériel et méthodes : L’enregistrement unitaire de fibres du nerf auditif a été réalisé en réponse à des bouffées tonales présentées dans un environnement silencieux ou en présence d’une bruit de fond continu large bande. Les seuils audiométriques comportementaux ont été mesurés dans les mêmes conditions acoustiques, par une approche basée sur l’inhibition du reflex acoustique de sursaut.Résultats : Les données unitaires montrent que la cochlée utilise 2 stratégies d’encodage complémentaires. Pour des sons de basse fréquence (<3,6 kHz), la réponse en verrouillage de phase des fibres de l’apex assure un encodage fiable et robuste du seuil auditif. Pour des sons plus aigus (>3,6 kHz), la cochlée utilise une stratégie basée sur le taux de décharge ce qui requiert une plus grande diversité fonctionnelle de fibres dans la partie basale de la cochlée. Les seuils auditifs comportementaux obtenus dans les mêmes conditions de bruit se superposent parfaitement au seuil d’activation des fibres validant ainsi les résultats unitaires.Conclusion : Ce travail met en évidence le rôle capital de l’encodage en verrouillage de phase chez des espèces qui vocalisent au-dessous de 3 kHz, particulièrement en environnement bruyant. Par contre, l’encodage de fréquences plus aiguës repose sur le taux de décharge. Ce résultat met l’accent sur la difficulté d’extrapoler des résultats obtenus sur des modèles murins qui communique dans les hautes fréquences (> à 4 kHz) à l’homme dont le langage se situe entre 0,3 et 3 kHz. / Background: While hearing problems in noisy environments are the main complaints of hearing-impaired people, only few studies focused on cochlear encoding mechanisms in such environments. By combining electrophysiological experiments with behavioral ones, we studied the sound encoding strategies used by the cochlea in a noisy background.Material and methods: Single unit recordings of gerbil auditory nerve were performed in response to tone bursts, presented at characteristic frequencies, in a quiet environment and in the presence of a continuous broadband noise. The behavioral audiogram was measured in the same conditions, with a method based on the inhibition of the acoustic startle response.Results: Single unit data shows that the cochlea used 2 complementary strategies to encode sound. For low frequency sounds (<3.6 kHz), the phase-locked response from the apical fibers ensure a reliable and robust encoding of the auditory threshold. For high frequencies sounds, basal fibers use a strategy based on the discharge rate, which requires a larger heterogeneity of fibers at the base of the cochlea. The behavioral audiogram measured in the same noise condition overlaps perfectly with the fibers’ threshold. This result validates our predictions made from the single fiber recordings.Conclusion: This work highlights the major role of the phase locked neuronal response for animal species that vocalize below 3 kHz (as human), especially in noisy backgrounds. At the opposite, high frequency sound encoding is based on rate information. This result emphasizes the difficulty to transpose results from murine model which communicate in the high frequencies (> 4 kHz) to human whose language is between 0.3 and 3 kHz.
26

Temporal coherency in video tone mapping / Influence de la cohérence temporelle dans les techniques de Vidéo Tone Mapping

Boitard, Ronan 16 October 2014 (has links)
L'un des buts principaux de l'imagerie numérique est d'une part la capture et d'autre part la reproduction de scènes réelles ou synthétiques sur des dispositifs d'affichage aux capacités restreintes. Les techniques d'imagerie traditionnelles sont limitées par la gamme de luminance qu'elles peuvent capturer et afficher. L'imagerie à grande gamme de luminance (High Dynamic Range – HDR) vise à dépasser cette limitation en capturant, représentant et affichant les quantités physique de la lumière présente dans une scène. Cependant, les technologies d'affichage existantes ne vont pas disparaitre instantanément, la compatibilité entre ces nouveaux contenus HDR et les contenus classiques est donc requise. Cette compatibilité est assurée par une opération de réduction des gammes de luminance (tone mapping) qui adapte les contenus HDR aux capacités restreintes des écrans. Bien que de nombreux opérateurs de tone mapping existent, ceux-ci se focalisent principalement sur les images fixes. Les verrous scientifiques associés au tone mapping de vidéo HDR sont plus complexes du fait de la dimension temporelle. Les travaux recherche menés dans la thèse se sont focalisés sur la préservation de la cohérence temporelle du vidéo tone mapping. Deux principaux axes de recherche ont été traités : la qualité subjective de contenus tone mappés et l'efficacité de la compression des vidéos HDR. En effet, tone mapper individuellement chaque image d'une séquence vidéo HDR engendre des artefacts temporels. Ces artefacts affectent la qualité visuelle de la vidéo tone mappée et il est donc nécessaire de les minimiser. Au travers de tests effectués sur des vidéos HDR avec différents opérateurs de tone mapping, nous avons proposé une classification des artefacts temporels en six catégories. Après avoir testé les opérateurs de tone mapping vidéo existants sur les différents types d'artefacts temporels, nous avons observé que seulement trois des six types d'artefacts étaient résolus. Nous avons donc créé une technique de post-traitement qui permet de réduire les 3 types d'artefacts non-considérés. Le deuxième aspect considéré dans la thèse concerne les relations entre compression et tone mapping. Jusque là, les travaux effectués sur le tone mapping et la vidéo compression se focalisaient sur l'optimisation du tone mapping de manière à atteindre des taux de compression élevés. Ces techniques modifient fortement le rendu, c'est à dire l'aspect de la vidéo, modifiant ainsi l'intention artistique initiale en amont dans la chaine de distribution (avant la compression). Dans ce contexte, nous avons proposé une technique qui permet de réduire l'entropie d'une vidéo tone mappée sans en modifier son rendu. Notre méthode adapte la quantification afin d'accroitre les corrélations entre images successives d'une vidéo. / One of the main goals of digital imagery is to improve the capture and the reproduction of real or synthetic scenes on display devices with restricted capabilities. Standard imagery techniques are limited with respect to the dynamic range that they can capture and reproduce. High Dynamic Range (HDR) imagery aims at overcoming these limitations by capturing, representing and displaying the physical value of light measured in a scene. However, current commercial displays will not vanish instantly hence backward compatibility between HDR content and those displays is required. This compatibility is ensured through an operation called tone mapping that retargets the dynamic range of HDR content to the restricted dynamic range of a display device. Although many tone mapping operators exist, they focus mostly on still images. The challenges of tone mapping HDR videos are more complex than those of still images since the temporal dimensions is added. In this work, the focus was on the preservation of temporal coherency when performing video tone mapping. Two main research avenues are investigated: the subjective quality of tone mapped video content and their compression efficiency. Indeed, tone mapping independently each frame of a video sequence leads to temporal artifacts. Those artifacts impair the visual quality of the tone mapped video sequence and need to be reduced. Through experimentations with HDR videos and Tone Mapping Operators (TMOs), we categorized temporal artifacts into six categories. We tested video tone mapping operators (techniques that take into account more than a single frame) on the different types of temporal artifact and we observed that they could handle only three out of the six types. Consequently, we designed a post-processing technique that adapts to any tone mapping operator and reduces the three types of artifact not dealt with. A subjective evaluation reported that our technique always preserves or increases the subjective quality of tone mapped content for the sequences and TMOs tested. The second topic investigated was the compression of tone mapped video content. So far, work on tone mapping and video compression focused on optimizing a tone map curve to achieve high compression ratio. These techniques changed the rendering of the video to reduce its entropy hence removing any artistic intent or constraint on the final results. That is why, we proposed a technique that reduces the entropy of a tone mapped video without altering its rendering.
27

Development and applications of a new reverse genetics method for the generation of single-stranded positive-sense RNA viruses / Développement et application d'une nouvelle méthode de génétique inverse pour la production de virus ARN simple brin de polarité positive

Aubry, Fabien 12 December 2014 (has links)
La génétique inverse est devenue une méthode clé pour la production de virus à ARN génétiquement modifiés et pour comprendre les propriétés cellulaires et biologiques des virus. Cependant les méthodes les plus fréquemment utilisées, basées sur le clonage de génomes viraux complets dans des plasmides, sont laborieuses et imprévisibles. La première partie de cette thèse présente des études sur la mise au point d'un nouveau système de génétique inverse, appelé méthode ISA (Amplicons-Sous génomique-Infectieux), qui permet la génération, en quelques jours, de virus infectieux sauvages et génétiquement modifiés appartenant à trois familles différentes de virus à ARN simple brin de polarité positive, avec une grande maîtrise des séquences virales. Dans la deuxième partie de cette thèse, nous avons appliqué pour la première fois à un arbovirus (CHIKV), le ré-encodage des codons - une méthode développée récemment et très excitante pour le développement de vaccins vivants atténués. En utilisant une approche aléatoire de ré-encodage des codons qui attribue au hasard des codons sur la base de la séquence en acides aminés correspondante, nous avons mis en évidence des pertes importantes de fitness réplicatif sur des cellules de primates et d'arthropodes. La diminution du fitness réplicatif est en corrélation avec le degré de ré-encodage, une observation qui peut aider à la modulation de l'atténuation virale. En utilisant l'expérience acquise avec le CHIKV, nous avons transposé avec succès ce mécanisme d'atténuation au JEV et amélioré notre maîtrise du processus d'atténuation en utilisant une combinaison de la synthèse de novo et de la méthode ISA. / Reverse genetics has become a key methodology for producing genetically modified RNA viruses and deciphering cellular and viral biological properties, but the most commonly used methods, based on the preparation of plasmid-based complete viral genomes, are laborious and unpredictable. The first part of this thesis presents studies relating to the development of a new reverse genetics system, designated the ISA (Infectious-Subgenomic-Amplicons) method, which enabled the generation of both wild-type and genetically modified infectious viruses belonging to three different families of positive, single stranded RNA viruses within days with great control of the viral sequences. In the second part of this thesis, we applied for the first time to an arbovirus (CHIKV), codon re-encoding - a recently developed and very exciting method for the development of live attenuated vaccines. Using a random codon re-encoding approach which randomly attributed nucleotide codons based on their corresponding amino acid sequence, we identified major fitness losses of CHIKV in both primate and arthropod cells. The decrease of replicative fitness correlated with the extent of re-encoding, an observation that may assist in the modulation of viral attenuation. Detailed analysis of these observed replicative fitness losses indicated that they are the consequence of several independent re-encoding induced events. Using the experience acquired on the CHIKV, we successfully transposed this attenuation mechanism to JEV and improved our control of the attenuation process by using a combination of de novo synthesis and the ISA method.
28

Atténuation virale par ré-encodage des codons : applications aux virus Chikungunya et de l'encéphalite à tiques / Viral attenuation by codon re-encoding : application to chikungunya and tick-borne encephalitis viruses

Fabritus, Lauriane de 14 April 2015 (has links)
Le ré-encodage aléatoire des codons à grande échelle est une nouvelle méthode d'atténuation virale qui consiste en l'insertion d'un grand nombre de mutations synonymes, individuellement peu délétères, de façon aléatoire dans une ou plusieurs régions codantes d'un virus. Cette approche permet de diminuer de façon significative et modulable le fitness réplicatif des virus in cellulo et in vivo, ainsi que la pathogénicité du virus chez la souris, tout en induisant une protection immunitaire spécifique et efficace lors d'une nouvelle infection par le virus sauvage. Les virus ré-encodés présentent également une grande stabilité et une absence de réversion ce qui en font des candidats vaccins très prometteurs en termes d'efficacité et de fiabilité pour la conception de candidats vaccins vivants atténués contre une grande variété de virus à ARN. La combinaison du ré-encodage aléatoire et d'une nouvelle méthode de génétique inverse permettant de générer de nouveaux virus en quelques jours: ISA (Amplicon Subgenomique Infectieux), est une approche prometteuse qui pourrait aider au développement de vaccins vivants atténués de nouvelle génération en un temps record. / Large-scale random codon re-encoding is a new method of viral attenuation consisting in the insertion of a high number of slightly deleterious synonymous mutations, randomly, in one or several coding regions of a virus. This approach significantly reduces the replicative fitness of re-encoded viruses in cellulo and in vivo, as viral pathogenicity, while inducing a specific and effective immune response in mice against a new infection with wild-type viruses. Re-encoded viruses also present a high stability and an absence of reversion, making them promising vaccine candidates in term of reliability and efficiency for the conception of new vaccine candidates against a wide variety of RNA viruses. Combination of random re-encoding with a new method of revers genetics allowing to generate new viruses in days : ISA (Infectious Subgenomic Amplicons) would be very helpful to develop new-generation vaccine candidates.
29

Versatilité et infaisabilité : vers la fin des théories computationnelles du comportement moteur / Versatility and intractability : towards the end of computational theories of motor behavior

Flament Fultot, Martin 08 November 2019 (has links)
Le comportement moteur est un phénomène où les différentes composantes d’un système biologique sont organisées de façon à assurer la coordination d’un mouvement intentionnel. Selon les théories computationnelles, le comportement est défini comme un problème moteur dont la solution peut être trouvée par des systèmes divisés de manière hiérarchique. Les composantes traitent et communiquent entre elles de l’information représentant les aspects pertinents du problème moteur (positions, trajectoires, vitesses, forces, etc.) lesquels sont censés être organisés à leur tour selon une hiérarchie d’abstraction et de complexité ascendante. Le défi est de faire face à quatre problèmes centraux du comportement : a) Le nombre élevé de degrés de liberté et d’interactions ; b) La redondance des degrés de liberté ; c) L’anticipation des effets du mouvement ; d) L’incertitude dans l’information. Les théories computationnelles classiques proposent des schémas explicatifs composés d’un agencement de différents modèles internes (prospectifs et inverses). Plus récemment, l’approche bayésienne propose un schéma hiérarchique plus homogène lequel est censé faire face aussi à l’incertitude de l’information. Cette recherche démontre que les théories computationnelles, y compris l’approche bayésienne, sont paralysées par un dilemme insurmontable : soit elles peuvent passer à l’échelle de manière computationnellement faisable - les calculs peuvent être réalisés en un temps raisonnable - mais dans ce cas elles ne peuvent pas reproduire la versatilité caractéristique du comportement des êtres vivants ; soit elles aspirent à reproduire la versatilité biologique mais alors elles sont infaisables. / Motor behavior is a phenomenon where the components making up a biological system are organized so as to ensure the coordination of a purposeful movement. According to computational theories, behavior is defined as a motor problem the solution of which can be found by systems divided hierarchically. The components process and communicate information representing the relevant variables of the motor problem (positions, trajectories, velocities, forces, etc.) which are, in turn, assumed to be organized as a hierarchy of increasing abstraction and complexity. The challenge is to tackle the four core problems of behavior: a) The high number of degrees of freedom and their interactions; b) The redundancy of degrees of freedom; c) The anticipation of the effects of movement; d) The uncertainty in information. Classical computational theories advance explanatory schemas made of structured sets of internal models (forward and inverse). More recently, the Bayesian approach advances a more homogeneous hierarchical schema which is supposed to account for uncertainty in information. This research shows that computational theories, including the Bayesian approach, are crippled by an unsolvable dilemma: The first horn is that if the models can scale up while staying computationally tractable, i.e. the computations can be carried out in a reasonable amount of time, then they fail to reproduce the versatility which characterizes the behavior of living beings. The second horn is that if the models aspire to reproduce biological versatility, then they are intractable.
30

A multiscale model to account for orientation selectivity in natural images

Ladret, Hugo J. 02 1900 (has links)
Cotutelle entre l’université de Montréal et d’Aix-Marseille / Cette thèse vise à comprendre les fondements et les fonctions des calculs probabilistes impliqués dans les processus visuels. Nous nous appuyons sur une double stratégie, qui implique le développement de modèles dans le cadre du codage prédictif selon le principe de l'énergie libre. Ces modèles servent à définir des hypothèses claires sur la fonction neuronale, qui sont testées à l'aide d'enregistrements extracellulaires du cortex visuel primaire. Cette région du cerveau est principalement impliquée dans les calculs sur les unités élémentaires des entrées visuelles naturelles, sous la forme de distributions d'orientations. Ces distributions probabilistes, par nature, reposent sur le traitement de la moyenne et de la variance d'une entrée visuelle. Alors que les premières ont fait l'objet d'un examen neurobiologique approfondi, les secondes ont été largement négligées. Cette thèse vise à combler cette lacune. Nous avançons l'idée que la connectivité récurrente intracorticale est parfaitement adaptée au traitement d'une telle variance d'entrées, et nos contributions à cette idée sont multiples. (1) Nous fournissons tout d'abord un examen informatique de la structure d'orientation des images naturelles et des stratégies d'encodage neuronal associées. Un modèle empirique clairsemé montre que le code neuronal optimal pour représenter les images naturelles s'appuie sur la variance de l'orientation pour améliorer l'efficacité, la performance et la résilience. (2) Cela ouvre la voie à une étude expérimentale des réponses neurales dans le cortex visuel primaire du chat à des stimuli multivariés. Nous découvrons de nouveaux types de neurones fonctionnels, dépendants de la couche corticale, qui peuvent être liés à la connectivité récurrente. (3) Nous démontrons que ce traitement de la variance peut être compris comme un graphe dynamique pondéré conditionné par la variance sensorielle, en utilisant des enregistrements du cortex visuel primaire du macaque. (4) Enfin, nous soutenons l'existence de calculs de variance (prédictifs) en dehors du cortex visuel primaire, par l'intermédiaire du noyau pulvinar du thalamus. Cela ouvre la voie à des études sur les calculs de variance en tant que calculs neuronaux génériques soutenus par la récurrence dans l'ensemble du cortex. / This thesis aims to understand the foundations and functions of the probabilistic computations involved in visual processes. We leverage a two-fold strategy, which involves the development of models within the framework of predictive coding under the free energy principle. These models serve to define clear hypotheses of neuronal function, which are tested using extracellular recordings of the primary visual cortex. This brain region is predominantly involved in computations on the elementary units of natural visual inputs, in the form of distributions of oriented edges. These probabilistic distributions, by nature, rely on processing both the mean and variance of a visual input. While the former have undergone extensive neurobiological scrutiny, the latter have been largely overlooked. This thesis aims to bridge this knowledge gap. We put forward the notion that intracortical recurrent connectivity is optimally suited for processing such variance of inputs, and our contributions to this idea are multi-faceted. (1) We first provide a computational examination of the orientation structure of natural images and associated neural encoding strategies. An empirical sparse model shows that the optimal neural code for representing natural images relies on orientation variance for increased efficiency, performance, and resilience. (2) This paves the way for an experimental investigation of neural responses in the cat's primary visual cortex to multivariate stimuli. We uncover novel, cortical-layer-dependent, functional neuronal types that can be linked to recurrent connectivity. (3) We demonstrate that this variance processing can be understood as a dynamical weighted graph conditioned on sensory variance, using macaque primary visual cortex recordings. (4) Finally, we argue for the existence of (predictive) variance computations outside the primary visual cortex, through the Pulvinar nucleus of the thalamus. This paves the way for studies on variance computations as generic weighting of neural computations, supported by recurrence throughout the entire cortex.

Page generated in 0.0536 seconds