1 |
Risque avec normalisation aléatoire et test adaptatif dans le modèle additif.Chiabrando, Fabien 03 July 2008 (has links) (PDF)
Cette thèse est consacrée à l'amélioration de l'estimation d'une fonction ou signal f, par le biais d'une approche voisine à l'approche minimax. Cette démarche est motivée par la construction de régions de confiance, pour f, plus fines que celle obtenues via l'approche d'estimation dans le cadre minimax. En effet, nous nous intéressons ici à estimer des fonctions de plusieurs variables (on notera d leur nombre) pouvant être intégrées en pratique dans des modèles économiques, biologiques et autres domaines pouvant mettre en jeu un nombre conséquent de critères quantitatifs. De manière générale et contrairement au problème paramétrique, lorsque la valeur du paramètre d est grande, l'efficacité des résultats minimax s'en ressent. Ce phénomène est connu au sein de la communauté statistique sous le nom de "malédiction de la dimension" (curse of dimensionality).<br /><br />Afin de ne pas pénaliser l'estimation en grande dimension ou de manière générale dans des modèles où l'approche minimax n'est pas satisfaisante (sur des espaces fonctionnels trop massifs), Lepski a developpé une approche alternative. Celle-ci se base sur l'idée simple d'adapter la méthode d'estimation en fonction des résultats de tests d'hypothèses 'accélératrices'. Cette démarche utilise des résultats issus de la théorie des tests afin d'envisager une estimation adaptative. Elle va nous amener à introduire le concept de risque avec normalisation aléatoire. Ainsi nous nous consacrerons par la suite à résoudre deux types de problèmes statistiques fortement reliés
|
2 |
Analyse statistique des données issues des biopuces à ADNPeyre, Julie 20 September 2005 (has links) (PDF)
Cette thèse est consacrée à l'analyse statistique des données issues des biopuces à ADN. Nous nous intéressons ici à trois problématiques liées aux données du transcriptôme.<br /><br /> Dans un premier chapitre, nous étudions le problème de la normalisation des données dont l'objectif est d'éliminer les variations parasites entre les échantillons des populations pour ne conserver que les variations expliquées par les phénomènes biologiques. Nous présentons plusieurs méthodes existantes pour lesquelles nous proposons des améliorations. Pour guider le choix d'une méthode de normalisation, une méthode de simulation de données de biopuces est mise au point.<br /><br /> Dans un deuxième chapitre, nous abordons le problème de la détection de gènes différentiellement exprimés entre deux séries d'expériences. On se ramène ici à un problème de test d'hypothèses multiples. Plusieurs approches sont envisagées : sélection de modèles et pénalisation, méthode FDR basée sur une décomposition en ondelettes des statistiques de test ou encore seuillage bayésien.<br /> <br /> Dans le dernier chapitre, nous considérons les problèmes de classification supervisée pour les données de biopuces. Pour remédier au problème du "fléau de la dimension", nous avons développé une méthode semi-paramétrique de réduction de dimension, basée sur la maximisation d'un critère de vraisemblance locale dans les modèles linéaires généralisés en indice simple. L'étape de réduction de dimension est alors suivie d'une étape de régression par polynômes locaux pour effectuer la classification supervisée des individus considérés.
|
3 |
Amélioration des services vidéo fournis à travers les réseaux radio mobilesBouchireb, Khaled 25 June 2010 (has links) (PDF)
Cette thèse est dédiée à l'étude des systèmes de communications pour application aux services vidéo fournis par les réseaux radio mobiles. Ce travail met l'accent sur les systèmes point à multipoints et propose plusieurs améliorations : Dans un premier temps, on définit un système qui combine le décodage robuste aux retransmissions ARQ, et ce de telle façon à réduire le nombre de retransmissions tout en gardant le même niveau de qualité. Contrairement aux systèmes actuels (avec ou sans retransmissions), ce systèmes offre également la possibilité de choisir le compromis débit/qualité via un paramètre du système. Par la suite, on considère les sytèmes de transmission d'une vidéo scalable vers plusieurs terminaux. Des extensions des systèmes Go-Back-N (GBN) Automatic Repeat reQuest (ARQ) et Selective Repeat (SR) ARQ sont étudiées et comparées à un nouveau système. On montre que ce dernier limite les besoins de bufferisation au niveau du terminal récepteur tout en ayant des performances optimales (en termes de quantité de données transmises avec succès sur une période donnée). Finalement, on montre que même sous une contrainte débit on peut utiliser les retransmissions dans les communications point à multipoints à condition de ne pas dépasser une certaine limite sur le nombre d'utilisateurs. Si l'utilisation des retransmissions ARQ est introduite dans les sytèmes de Multicast/Broadcast 3GPP et/ou WiMAX, le système pourra garantir une qualité nominale à un certain nombre d'utilisateurs, ce qui n'est pas le cas des systèmes de Multicast/Broadcast actuels.
|
4 |
L'électrophysiologie temps-réel en neuroscience cognitive : vers des paradigmes adaptatifs pour l'étude de l'apprentissage et de la prise de décision perceptive chez l'hommeSanchez, Gaëtan 27 June 2014 (has links) (PDF)
Aujourd'hui, les modèles computationnels de l'apprentissage et de la prise de décision chez l'homme se sont raffinés et complexifiés pour prendre la forme de modèles génératifs des données psychophysiologiques de plus en plus réalistes d'un point de vue neurobiologique et biophysique. Dans le même temps, le nouveau champ de recherche des interfaces cerveau-machine (ICM) s'est développé de manière exponentielle. L'objectif principal de cette thèse était d'explorer comment le paradigme de l'électrophysiologie temps-réel peut contribuer à élucider les processus d'apprentissage et de prise de décision perceptive chez l'homme. Au niveau expérimental, j'ai étudié les décisions perceptives somatosensorielles grâce à des tâches de discrimination de fréquence tactile. En particulier, j'ai montré comment un contexte sensoriel implicite peut influencer nos décisions. Grâce à la magnétoencéphalographie (MEG), j'ai pu étudier les mécanismes neuronaux qui sous-tendent cette adaptation perceptive. L'ensemble de ces résultats renforce l'hypothèse de la construction implicite d'un a priori ou d'une référence interne au cours de l'expérience. Aux niveaux théoriques et méthodologiques, j'ai proposé une vue générique de la façon dont l'électrophysiologie temps-réel pourrait être utilisée pour optimiser les tests d'hypothèses, en adaptant le dessin expérimental en ligne. J'ai pu fournir une première validation de cette démarche adaptative pour maximiser l'efficacité du dessin expérimental au niveau individuel. Ce travail révèle des perspectives en neurosciences fondamentales et cliniques ainsi que pour les ICM
|
5 |
L'électrophysiologie temps-réel en neuroscience cognitive : vers des paradigmes adaptatifs pour l'étude de l'apprentissage et de la prise de décision perceptive chez l'homme / Real-time electrophysiology in cognitive neuroscience : towards adaptive paradigms to study perceptual learning and decision making in humansSanchez, Gaëtan 27 June 2014 (has links)
Aujourd’hui, les modèles computationnels de l'apprentissage et de la prise de décision chez l'homme se sont raffinés et complexifiés pour prendre la forme de modèles génératifs des données psychophysiologiques de plus en plus réalistes d’un point de vue neurobiologique et biophysique. Dans le même temps, le nouveau champ de recherche des interfaces cerveau-machine (ICM) s’est développé de manière exponentielle. L'objectif principal de cette thèse était d'explorer comment le paradigme de l'électrophysiologie temps-réel peut contribuer à élucider les processus d'apprentissage et de prise de décision perceptive chez l’homme. Au niveau expérimental, j'ai étudié les décisions perceptives somatosensorielles grâce à des tâches de discrimination de fréquence tactile. En particulier, j'ai montré comment un contexte sensoriel implicite peut influencer nos décisions. Grâce à la magnétoencéphalographie (MEG), j'ai pu étudier les mécanismes neuronaux qui sous-tendent cette adaptation perceptive. L’ensemble de ces résultats renforce l'hypothèse de la construction implicite d’un a priori ou d'une référence interne au cours de l'expérience. Aux niveaux théoriques et méthodologiques, j'ai proposé une vue générique de la façon dont l'électrophysiologie temps-réel pourrait être utilisée pour optimiser les tests d'hypothèses, en adaptant le dessin expérimental en ligne. J'ai pu fournir une première validation de cette démarche adaptative pour maximiser l'efficacité du dessin expérimental au niveau individuel. Ce travail révèle des perspectives en neurosciences fondamentales et cliniques ainsi que pour les ICM / Today, psychological as well as physiological models of perceptual learning and decision-making processes have recently become more biologically plausible, leading to more realistic (and more complex) generative models of psychophysiological observations. In parallel, the young but exponentially growing field of Brain-Computer Interfaces (BCI) provides new tools and methods to analyze (mostly) electrophysiological data online. The main objective of this PhD thesis was to explore how the BCI paradigm could help for a better understanding of perceptual learning and decision making processes in humans. At the empirical level, I studied decisions based on tactile stimuli, namely somatosensory frequency discrimination. More specifically, I showed how an implicit sensory context biases our decisions. Using magnetoencephalography (MEG), I was able to decipher some of the neural correlates of those perceptual adaptive mechanisms. These findings support the hypothesis that an internal perceptual-reference builds up along the course of the experiment. At the theoretical and methodological levels, I propose a generic view and method of how real-time electrophysiology could be used to optimize hypothesis testing, by adapting the experimental design online. I demonstrated the validity of this online adaptive design optimization (ADO) approach to maximize design efficiency at the individual level. I also discussed the implications of this work for basic and clinical neuroscience as well as BCI itself
|
6 |
Inférence statistique dans un modèle à variances isolées de grande dimensionPassemier, Damien 04 December 2012 (has links) (PDF)
Cette thèse s'intéresse à l'estimation statistique dans un modèle à variances isolées (modèle spike) de grande dimension. La théorie des matrices aléatoires permet de prendre en compte cette spécificité, puisque la plupart des résultats limites s'appliquent aux matrices dont la taille tend vers l'infini. Une part importante de ces résultats concerne la matrice de covariance empirique. Dans un premier temps, nous nous intéressons à l'estimation du nombre de facteurs/spikes. La différence de comportement des valeurs propres de la matrice de covariance empirique, selon que l'on considère celles correspondant aux spikes ou non, nous permet de construire un estimateur. Ce dernier correspond à la différence de deux valeurs propres consécutives ordonnées. Nous établissons la consistance de l'estimateur dans le cas où toutes les spikes sont distinctes, et le comparons à deux méthodes existantes à travers des simulations. L'estimateur dépend d'un seuil qui doit remplir certaines conditions. Dans la suite, nous étendons le résultat de consistance au cas d'égalité et améliorons l'estimateur en changeant de seuil. Dans un second temps, nous considérons les estimateurs du maximum de vraisemblance d'un modèle à facteurs strict à variance homoscédastique. En utilisant un théorème limite pour les statistiques spectrales linéaires, nous corrigeons l'estimateur de la variance commune en grande dimension en donnant l'expression de son biais et en établissant sa loi limite. Nous présentons une version corrigée du test du rapport de vraisemblance d'adéquation à un modèle à facteurs. Finalement, nous construisons un test d'égalité de deux spikes.
|
7 |
A theoretical and experimental dissociation of two models of decision‐makingCarland, Matthew A. 08 1900 (has links)
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche. / Decision‐making is a computational process of fundamental importance to many aspects of animal behavior. The prevailing model in the experimental study of decision‐making is the drift‐diffusion model, which has a long history and accounts for a broad range of behavioral and neurophysiological data. However, an alternative model – called the urgency‐gating model – has been offered which can account equally well for much of the same data in a more parsimonious and theoretically‐sound manner. In what follows, we will first trace the origins and development of the DDM, as well as give a brief overview of the manner in which it has supplied an explanatory framework for a large number of behavioral and physiological studies in the domain of decision‐making. In so doing, we will attempt to build a strong and clear case for its strengths so that it can be fairly and rigorously compared to potential alternative models. We will then re‐examine a number of the implicit and explicit theoretical assumptions made by the drift‐diffusion model, as well as highlight some of its empirical shortcomings. This analysis will serve as the contextual backdrop for our introduction and discussion of the urgency‐gating model. Finally, we present a novel experiment, the methodological design of which uniquely affords a decisive empirical dissociation of the models, the results of which illustrate the empirical and theoretical shortcomings of the drift‐diffusion model and instead offer clear support for the urgency‐gating model. We finish by discussing the potential for the urgency gating model to shed light on a number of clinical disorders, highlighting a number of future directions for research.
|
8 |
Modélisation et détection statistiques pour la criminalistique numérique des imagesThai, Thanh Hai 28 August 2014 (has links) (PDF)
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux jouent maintenant un rôle de plus en plus important dans la vie de tous les jours. De la même manière, les logiciels sophistiqués de retouche d'images se sont démocratisés et permettent aujourd'hui de diffuser facilement des images falsifiées. Ceci pose un problème sociétal puisqu'il s'agit de savoir si ce que l'on voit a été manipulé. Cette thèse s'inscrit dans le cadre de la criminalistique des images numériques. Deux problèmes importants sont abordés : l'identification de l'origine d'une image et la détection d'informations cachées dans une image. Ces travaux s'inscrivent dans le cadre de la théorie de la décision statistique et roposent la construction de détecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme. Afin d'atteindre une performance de détection élevée, il est proposé d'exploiter les propriétés des images naturelles en modélisant les principales étapes de la chaîne d'acquisition d'un appareil photographique. La éthodologie, tout au long de ce manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de vraisemblance dans le contexte idéal où tous les aramètres du modèle sont connus. Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés afin de construire le test du rapport de vraisemblance généralisé dont les erformances statistiques sont analytiquement établies. De nombreuses expérimentations sur des images simulées et réelles permettent de souligner la pertinence de l'approche proposée.
|
9 |
Catalogage de petits débris spatiaux en orbite basse par observations radars isoléesCastaings, Thibaut 21 January 2014 (has links) (PDF)
Les débris spatiaux sont devenus une menace considérable pour la viabilité des satellites opérationnels en orbite basse. Afin de pouvoir éviter des collisions accidentelles, des systèmes de surveillance de l'espace existent mais sont limités en performances de détection pour les objets de petite taille (diamètre inférieur à 10cm), ce qui pousse à l'étude de nouvelles solutions. Cette thèse a pour objectif d'appuyer la faisabilité d'un système radar au sol utilisant un champ de veille étroit pour le catalogage de petits débris en orbite basse. Un tel système fournirait en effet des observations dites " isolées ", c'est-à-dire qu'une orbite n'est pas immédiatement déductible de chacune d'entre elles. Le grand nombre combinaisons nécessaires est alors prohibitif en termes de temps de calcul pour la résolution de ce problème de pistage. Nous proposons dans ces travaux une nouvelle méthode pour initialiser les pistes, c'est-à-dire associer des observations isolées avec une faible ambiguïté et en déduire des orbites précises. Les pistes ainsi obtenues sont combinées et filtrées grâce à un algorithme de pistage multicible que nous avons adapté aux particularités du problème. Avec un taux de couverture de plus de 80% obtenu en temps réel sur 3 jours pour des scénarios de 500 à 800 objets en plus d'un fort taux de fausses alarmes, les performances de la méthode proposée tendent à prouver la faisabilité du système envisagé. Afin d'extrapoler les résultats obtenus à de plus fortes densités d'observations, nous proposons un modèle de complexité combinatoire calibré sur les performances de l'algorithme aux faibles densités. L'apport d'un second capteur identique est également étudié et met en évidence un point de compromis entre réactivité et complexité combinatoire, ce qui offre un degré de liberté supplémentaire dans la conception d'un tel système.
|
Page generated in 0.0439 seconds