• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 6
  • 1
  • Tagged with
  • 20
  • 10
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Percevoir le monde sous le stroboscope attentionnel : Études psychophysiques et électroencéphalographiques

Dubois, Julien 02 September 2011 (has links) (PDF)
Notre expérience du monde est fluide, continue. Pourtant, elle pourrait reposer sur un échantillonage discret, par l'attention, de l'information sensorielle entrante. Sous illumination continue un observateur portant attention à une roue à rayons en rotation peut percevoir des inversions illusoires; ceci semble être un artéfact d'aliasing temporel, suggérant que la perception du mouvement par l'attention utilise des échantillons. Nous avons cherché des signes d'aliasing dans d'autres tâches, mais avons rencontré des obstacles pratiques. La périodicité présumée de l'attention nous a mené à prédire que des positions spatiales attendues simultanément devraient être échantillonnées tour à tour. Nous avons des résultats psychophysiques allant à l'encontre d'une division soutenue de l'attention spatiale. Nous avons également étudié certains désordres pathologiques de la perception du mouvement, compatibles avec des mécanismes perceptuels discrets. Certaines oscillations cérébrales sont certainement à l'origine des périodicités découvertes. Un rythme fronto‐central à environ 7hz nous a permis de prédire si un sujet détecterait un stimulus visuel très faible apparaissant à une position attendue. Nous avons aussi cherché une influence phasique de l'activité spontanée du cerveau sur le jugement de simultanéité. Enfin, nous avons voulu suivre la position de l'attention spatiale en temps réel dans un paradigme où le sujet devait porter attention à deux endroits simultanément. Ce travail a révélé des périodicités de l'attention et de la perception; il reste à faire pour parvenir à une compréhension théorique complète de la façon dont ces rythmes forment notre expérience.
12

Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Lafaye de Micheaux, Pierre January 2002 (has links)
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
13

L’autobiographie sérielle (« serial autobiography ») dans l’œuvre d’Andrej Belyj / « Serial Autobiography in Andrej Bely’s œuvre »

Levina Parker, Maria 12 November 2013 (has links)
Dans ma thèse, j’analyse la pratique de l’« autobiographie sérielle » et autofiction dans les mémoires et les romans d’Andrej Belyj.Andrej Belyj, qui dans ses mémoires et dans ses romans réécrit de manière constante son enfance et sa vie, peut être considéré comme auteur engagé dans la création d'une «sérielle» autobiographie. Ce processus de réinvention de soi est caractérisé par remodelage et déplacement de son ego et de ses relations avec les parents, avec ses connaissances marquantes et avec ses proches amis, aussi que par les changements des points de vue mystiques, religieux et philosophiques (philosophie néo-kantienne, anthroposophie, etc.). Des identités multiples et des récits sont articulés comme les constituants d'une séquence autobiographique toujours inachevée et qui ne peut jamais aboutir à la conclusion ou à la signification définitive. La construction par Belyj de sa propre identité apparaît sous forme de développement des «variations sur un thème» (Belyj, « Zapiski chudaka »), où chaque nouvelle variation entre en dialogue avec les précédentes en les éliminant partiellement. Les mémoires et les romans de Belyj représentent sa vie comme une série de thèses et antithèses, autrement dit comme une narration dialectique de la vie montante en spirale. / My dissertation examines the practice of serial autobiography and autofiction in Andrej Bely’s prose including his memoirs and novels. Andrej Bely who in his memoirs and fiction constantly rewrites his childhood and life may be said to be engaged in creating serial autobiography. This process is characterized by the reinvention, recreation and relocation of his self and his relationships with his parents, significant others, and close friends.A series of identities and stories are constructed as the constituents of an incomplete, or open, autobiographical sequence which never can reach a conclusion or final signification. Bely’s creation of self-identity presents itself as the development of “variations of a theme” (Bely, Zapiski chudaka) in which every consequent variation engages in a dialogue with and partially cancels the preceding ones. Bely’s memoirs and novels present his life as series of theses and antitheses, in other words as a spirally ascending dialectical life-narrative.
14

Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Lafaye De Micheaux, Pierre 16 December 2002 (has links) (PDF)
On construit un test d'ajustement de la normalité pour les innovations d'un modèle ARMA( p,q ) de tendance et moyenne connues, basé sur l'approche du test lisse dépendant des données et simple à appliquer. Une vaste étude de simulation est menée pour étudier ce test pour des tailles échantillonnales modérées. Notre approche est en général plus puissante que les tests existants. Le niveau est tenu sur la majeure partie de l'espace paramétrique. Cela est en accord avec les résultats théoriques montrant la supériorité de l'approche du test lisse dépendant des données dans des contextes similaires. Un test d'indépendance (ou d'indépendance sérielle) semi-paramétrique entre des sous-vecteurs de loi normale est proposé, mais sans supposer la normalité jointe de ces marginales. La statistique de test est une fonctionnelle de type Cramér-von Mises d'un processus défini à partir de la fonction caractéristique empirique. Ce processus est défini de façon similaire à celui de Ghoudi et al. (2001) construit à partir de la fonction de répartition empirique et utilisé pour tester l'indépendance entre des marginales univariées. La statistique de test peut être représentée comme une V-statistique. Il est convergent pour détecter toute forme de dépendance. La convergence faible du processus est établie. La distribution asymptotique des fonctionnelles de Cramér-von Mises est approchée par la méthode de Cornish-Fisher au moyen d'une formule de récurrence pour les cumulants et par le calcul numérique des valeurs propres dans la formule d'inversion. La statistique de test est comparée avec celle de Wilks pour l'hypothèse paramétrique d'indépendance dans le modèle MANOVA à un facteur avec effets aléatoires.
15

La dynamique spatio-temporelle de l'attention dans la lecture

Achouline, Augustin 09 1900 (has links)
Un grand nombre d’études examinant les aspects cognitifs et neurobiologiques de la lecture ont étés conduites dans les dernières décennies. Cependant, la stratégie qui sous-tend l’identification de mots pour des lecteurs experts et la manière dont l’attention visuo-spatiale est déployée dans le temps et l’espace visuel demeurent méconnues. L’étude de Blais et al. (2009) nous apporte une avancée significative dans nos connaissances à ce sujet. La présente étude se propose d’étendre leur investigation initiale à l’aide d’un protocole capable de spécifier comment l’information visuelle est extraite dans l’espace et dans le temps au cours d’une tache de reconnaissance de mot chez des lecteurs neurotypiques. 16 étudiants ont été testés à l’aide d’une tâche inspirée de la méthode des « Bulles ». Ils devaient lire des mots français de cinq lettres présentés pendants 200 ms et échantillonnés dans l’espace-temps avec un ratio signal/bruit variant aléatoirement et de manière indépendante pour chaque position de lettre. Un bloc de 150 essais de pratique était d’abord complété, pendant lequel le ratio signal/bruit était ajusté de manière à maintenir le taux de succès à 51%. Ensuite, quatre blocs de 150 essais chacun étaient complétés, eux même suivis d’un nouveau bloc de 75 essais d’entrainement afin de réajuster le ratio signal/bruit maximum. Enfin, quatre blocs additionnels de 150 essais chacun étaient complétés. Les analyses examinent comment les variations temporelles du ratio signal/bruit déterminent le taux d’acuité des participants. Des images de classification dans le domaine temporel ont été construites pour chaque participant en soustrayant la somme pondérée des profils temporels de ratio signal/bruit des essais incorrects de ceux associes à une réponse correcte. Nous avons également construit des images de classification dans le domaine temps-fréquence qui indiquent la contribution de bandes de fréquences spécifiques pour l’efficacité d’encodage en fonction du temps. Les images de classifications individuelles étaient transformées en scores Z afin d’être sur une même échelle et pouvoir ainsi calculer des moyennes de groupes. La significativité statistique était déterminée par l’application du test Pixel. Les résultats suggèrent un processus d’extraction des lettres sériel, dans lequel l’ordre des lettres est fonction de la valeur diagnostique de cette lettre pour l’identification correcte du mot. Ces observations sont inconsistantes avec un modèle d’extraction parallèle, généralement admis pour expliquer l’absence d’effet de longueur de mot dans la lecture experte. Elles semblent en effet indiquer un mode de traitement sériel des lettres à l’intérieur duquel le traitement de plusieurs lettres conjointes reste possible. L’absence d’effet de longueur du mot dans un contexte de traitement sériel serait expliquée par l’hypothèse que le nombre de lettres à identifier (et/ou le nombre de fixations attentionnelles requis) demeure fixe, quelque soit la longueur du mot. Cependant, cette hypothèse reste encore à étayer; en testant ce protocole sur des mots de différentes longueurs. / A vast number of studies examining the cognitive and neurobiological aspects of reading have been conducted in the past decades. However, the strategy underlying expert word identification and the way visuospatial attention is deployed across time and space remains unknown. The study from Blais et al. (2009) offered a significant advance to our knowledge in this regard. The present study extends this initial investigation by using a protocol which can specify how visual information is extracted in space and time during visual word recognition in neurotypical readers. 16 students were tested using an adaptation of the « Bubbles » technique. Participants read five-letter French words exposed for 200 ms and sampled in space-time by random signal-to-noise ratio (SNR) variations which were independent for each letter position. Participants first completed a 150-trial practice session during which the maximum allowable SNR was adjusted in order to maintain accuracy at about 51% correct. Then, four experimental blocks of 150 trials each were completed. This was followed by a 75-trial practice block to readjust the maximum allowable SNR. Finally, four additional blocks of 150 experimental trials each were conducted. Data analyses examined how the temporally varying signal/noise determined the response accuracy of participants. Classification images in the temporal domain were constructed for each participant by subtracting the weighted sum of the temporal profiles of signal/noise ratios of incorrect trials from those associated with correct responses. We also constructed classification images in the time-frequency domain which indicate the contribution of particular frequencies as a function of time to processing effectiveness. Individual classification images were transformed into Z scores to put them on the same scale, thereby allowing the calculation of group means. Statistical significance was determined by the application of the Pixel test. The results suggest a serial processing of letter extraction information in which the order of letters is a function of the diagnostic value of that letter for word identification. These observations are inconsistent with a parallel processing model, which is the generally accepted account for the invariant latency of expert visual word recognition as a function of word length. These would seem to indicate a serial processing of letters within which several joint letters are still possible. The absence of word length effect in the serial processing would be explained by the number of letters (and/or the number of attention attachments required) which remains constant whatever the length of the word. However, this hypothesis still need to be substantiated by testing this protocol on words of different lengths.
16

Méthodes de Bootstrap pour les modèles à facteurs

Djogbenou, Antoine A. 07 1900 (has links)
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement. / This thesis develops bootstrap methods for factor models which are now widely used for generating forecasts since the seminal paper of Stock and Watson (2002) on diffusion indices. These models allow the inclusion of a large set of macroeconomic and financial variables as predictors, useful to span various information related to economic agents. My thesis develops econometric tools that improves inference in factor-augmented regression models driven by few unobservable factors estimated from a large panel of observed predictors. It is subdivided into three complementary chapters. The two first chapters are joint papers with Sílvia Gonçalves and Benoit Perron. In the first chapter, we study how bootstrap methods can be used to make inference in h-step forecasting models which generally involve serially correlated errors. It thus considers bootstrap inference in a factor-augmented regression context where the errors could potentially be serially correlated. This generalizes results in Gonçalves and Perron (2013) and makes the bootstrap applicable to forecasting contexts where the forecast horizon is greater than one. We propose and justify two residual-based approaches, a block wild bootstrap (BWB) and a dependent wild bootstrap (DWB). Our simulations document improvement in coverage rates of confidence intervals for the coefficients when using BWB or DWB relative to both asymptotic theory and the wild bootstrap when serial correlation is present in the regression errors. The second chapter provides bootstrap methods for prediction intervals which allow relaxing the normality distribution assumption on innovations. We propose bootstrap prediction intervals for an observation h periods into the future and its conditional mean. We assume that these forecasts are made using a set of factors extracted from a large panel of variables. Because we treat these factors as latent, our forecasts depend both on estimated factors and estimated regression coefficients. Under regularity conditions, Bai and Ng (2006) proposed the construction of asymptotic intervals under Gaussianity of the innovations. The bootstrap allows us to relax this assumption and to construct valid prediction intervals under more general conditions. Moreover, even under Gaussianity, the bootstrap leads to more accurate intervals in cases where the cross-sectional dimension is relatively small as it reduces the bias of the ordinary least squares estimator as shown in a recent paper by Gonçalves and Perron (2014). The third chapter proposes two consistent model selection procedures for factor-augmented regressions in finite samples.We first demonstrate that the usual cross-validation is inconsistent, but that a generalization, leave-d-out cross-validation, selects the smallest basis of estimated factors for the space spanned by the true factors. The second proposed criterion is a generalization of the bootstrap approximation of the squared error of prediction of Shao (1996) to factor-augmented regressions which we also show is consistent. Simulation evidence documents improvements in the probability of selecting the smallest set of estimated factors than the usually available methods. An illustrative empirical application that analyzes the relationship between expected stock returns and macroeconomic and financial factors extracted from a large panel of U.S. macroeconomic and financial data is conducted. Our new procedures select factors that correlate heavily with interest rate spreads and with the Fama-French factors. These factors have strong predictive power for excess returns.
17

Application des nouvelles approches de cristallisation et de cristallographie sérielle à l’étude structurale de complexes enzymes : ARNt / Application of new crystallization approaches and serial crystallography to the structural study of enzyme/tRNA complexes

De Wijn, Raphaël 14 December 2018 (has links)
Cette thèse porte sur deux aspects complémentaires, le développement et l’implémentation de nouvelles approches de cristallisation et de cristallographie sérielle ainsi que leur mise en œuvre dans l’étude structurale de complexes enzymes : ARNt. La cristallographie est la méthode la plus employée en biologie structurale, mais elle présente encore des points délicats. Plusieurs méthodes avancées ont été déployées dans ce travail pour y pallier qui ont conduit à la résolution de la structure de l’ARNt nucléotidyltransférase du psychrophile Planococcus halocryophilus et à l’étude de son adaptation structurale au froid ; des puces microfluidiques de cristallisation qui ont servi à la résolution de plusieurs structures à température ambiante par cristallographie sérielle ; enfin le Xtal Controller utilisé pour l’étude d’évènements de nucléation et de croissance cristalline dans un but de préparation d’échantillons pour analyse sous rayonnement XFEL. Entre autres systèmes biologiques, cette thèse présente la caractérisation de deux familles d’inhibiteurs visant les aspartyl-ARNt synthétases, notamment du pathogène Pseudomonas aeruginosa. / This thesis focuses on two complementary aspects, the development and implementation of new approaches of crystallization and of serial crystallography as well as their use in the structural study of enzymes/tRNA complexes. Crystallography is the most used method in structural biology, but it presents delicate points. Different methods were implemented in this work to overcome these points, which led to the resolution of the structure of the CCA-adding enzyme of the psychrophilic organism Planococcus halocryophilus and to the study of its structural adaptation to the cold; novel microfluidic crystallization chips that have been used for the resolution of several structures by serial crystallography at room-temperature; finally the Xtal Controller used for the study of nucleation and crystal growth events with the purpose of preparing samples for analysis under XFEL radiation. Among other biological systems, this thesis presents the study and characterization of two families of inhibitors targeting aspartyl-tRNA synthetases, including the one of the pathogenic organism Pseudomonas aeruginosa.
18

Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Lafaye de Micheaux, Pierre 16 December 2002 (has links) (PDF)
On construit un test d'ajustement de la normalité<br />pour les innovations d'un modèle ARMA(p,q) de tendance et moyenne<br />connues, basé sur l'approche du test lisse dépendant des<br />données et simple à appliquer. Une vaste étude de simulation<br />est menée pour étudier ce test pour des<br />tailles échantillonnales modérées. Notre approche<br />est en général plus puissante que les tests existants. Le niveau est<br />tenu sur la majeure partie de l'espace paramétrique. Cela est en accord avec les résultats<br />théoriques montrant la supériorité de l'approche du test lisse<br />dépendant des données dans des contextes similaires.<br /><br />Un test d'indépendance (ou d'indépendance sérielle) semi-paramétrique entre des sous-vecteurs de loi normale est proposé, mais sans<br />supposer la normalité jointe de ces marginales. La statistique de test<br />est une fonctionnelle de type Cramér-von Mises d'un processus défini à<br />partir de la fonction caractéristique empirique. Ce processus est<br />défini de façon similaire à celui de Ghoudi et al. (2001) construit à<br />partir de la fonction de répartition empirique et utilisé pour tester<br />l'indépendance entre des marginales univariées. La statistique de test<br />peut être représentée comme une V-statistique. Il est convergent pour<br />détecter toute forme de dépendance. La convergence faible du processus<br />est établie. La distribution asymptotique des fonctionnelles de<br />Cramér-von Mises est approchée par la méthode de Cornish-Fisher au<br />moyen d'une formule de récurrence pour les cumulants et par le<br />calcul numérique des valeurs propres dans la formule d'inversion. La<br />statistique de test est comparée avec celle de Wilks pour <br />l'hypothèse paramétrique d'indépendance dans le modèle MANOVA à<br />un facteur avec effets aléatoires.
19

Essays on matching and preference aggregation

Bonkoungou, Somouaoga 02 1900 (has links)
No description available.
20

Tests de permutation d’indépendance en analyse multivariée

Guetsop Nangue, Aurélien 11 1900 (has links)
Cette thèse est rédigée par articles. Les articles sont rédigés en anglais et le reste de la thèse est rédigée en français. / Le travail établit une équivalence en termes de puissance entre les tests basés sur la alpha-distance de covariance et sur le critère d'indépendance de Hilbert-Schmidt (HSIC) avec fonction caractéristique de distribution de probabilité stable d'indice alpha avec paramètre d'échelle suffisamment petit. Des simulations en grandes dimensions montrent la supériorité des tests de distance de covariance et des tests HSIC par rapport à certains tests utilisant les copules. Des simulations montrent également que la distribution de Pearson de type III, très utile et moins connue, approche la distribution exacte de permutation des tests et donne des erreurs de type I précises. Une nouvelle méthode de sélection adaptative des paramètres d'échelle pour les tests HSIC est proposée. Trois simulations, dont deux sont empruntées de l'apprentissage automatique, montrent que la nouvelle méthode de sélection améliore la puissance des tests HSIC. Le problème de tests d'indépendance entre deux vecteurs est généralisé au problème de tests d'indépendance mutuelle entre plusieurs vecteurs. Le travail traite aussi d'un problème très proche à savoir, le test d'indépendance sérielle d'une suite multidimensionnelle stationnaire. La décomposition de Möbius des fonctions caractéristiques est utilisée pour caractériser l'indépendance. Des tests généralisés basés sur le critère d'indépendance de Hilbert-Schmidt et sur la distance de covariance en sont obtenus. Une équivalence est également établie entre le test basé sur la distance de covariance et le test HSIC de noyau caractéristique d'une distribution stable avec des paramètres d'échelle suffisamment petits. La convergence faible du test HSIC est obtenue. Un calcul rapide et précis des valeurs-p des tests développés utilise une distribution de Pearson de type III comme approximation de la distribution exacte des tests. Un résultat fascinant est l'obtention des trois premiers moments exacts de la distribution de permutation des statistiques de dépendance. Une méthodologie similaire a été développée pour le test d'indépendance sérielle d'une suite. Des applications à des données réelles environnementales et financières sont effectuées. / The main result establishes the equivalence in terms of power between the alpha-distance covariance test and the Hilbert-Schmidt independence criterion (HSIC) test with the characteristic kernel of a stable probability distribution of index alpha with sufficiently small scale parameters. Large-scale simulations reveal the superiority of these two tests over other tests based on the empirical independence copula process. They also establish the usefulness of the lesser known Pearson type III approximation to the exact permutation distribution. This approximation yields tests with more accurate type I error rates than the gamma approximation usually used for HSIC, especially when dimensions of the two vectors are large. A new method for scale parameter selection in HSIC tests is proposed which improves power performance in three simulations, two of which are from machine learning. The problem of testing mutual independence between many random vectors is addressed. The closely related problem of testing serial independence of a multivariate stationary sequence is also considered. The Möbius transformation of characteristic functions is used to characterize independence. A generalization to p vectors of the alpha -distance covariance test and the Hilbert-Schmidt independence criterion (HSIC) test with the characteristic kernel of a stable probability distributionof index alpha is obtained. It is shown that an HSIC test with sufficiently small scale parameters is equivalent to an alpha -distance covariance test. Weak convergence of the HSIC test is established. A very fast and accurate computation of p-values uses the Pearson type III approximation which successfully approaches the exact permutation distribution of the tests. This approximation relies on the exact first three moments of the permutation distribution of any test which can be expressed as the sum of all elements of a componentwise product of p doubly-centered matrices. The alpha -distance covariance test and the HSIC test are both of this form. A new selection method is proposed for the scale parameter of the characteristic kernel of the HSIC test. It is shown in a simulation that this adaptive HSIC test has higher power than the alpha-distance covariance test when data are generated from a Student copula. Applications are given to environmental and financial data.

Page generated in 0.0586 seconds