51 |
Contribution à l’amélioration des performances de décodage des turbo codes : algorithmes et architecture / Contribution to the improvement of the decoding performance of turbo codes : algorithms and architectureTonnellier, Thibaud 05 July 2017 (has links)
Les turbo codes sont une classe de codes correcteurs d’erreurs approchant la limite théorique de capacité formulée par Claude Shannon. Conjointement à leurs excellentes performances de décodage, la complexité calculatoire modérée des turbo décodeurs a permis leur inclusion dans de nombreux standards de communications numériques. Une des métriques permettant la caractérisation de codes correcteurs d’erreurs est l’évolution du taux d’erreurs binaires en fonction du rapport signal sur bruit. Dans le cadre des turbo codes, une courbe de performance de décodage comprend deux zones principales.Dans la première zone, une faible amélioration de la qualité du canal de transmission entraîne de grandes améliorations au niveau des performances de décodage. En revanche dans la seconde, une amélioration de cette qualité ne résulte qu’en une amélioration marginale des performances de décodage. Cette seconde région est nommée zone du plancher d’erreurs. Elle peut empêcher l’utilisation de turbo codes dans des contextes nécessitant de très faibles taux d’erreurs. C’est pourquoi la communauté scientifique a proposé différentes optimisations favorisant la construction de turbo codes atténuant ce plancher d’erreurs. Cependant, ces approches ne peuvent être considérées pour des turbocodes déjà standardisés. Dans ce contexte, cette thèse adresse le problème de la réduction du plancher d’erreurs en s’interdisant de modifier la chaîne de communications numériques du côté de l’émetteur.Pour ce faire, un état de l’art de méthodes de post-traitement de décodage est dressé pour les turbo codes. Il apparaît que les solutions efficaces sont coûteuses à mettre en oeuvre car elles nécessitent une multiplication des ressources calculatoires ou impactent fortement la latence globale de décodage.Dans un premier temps, deux algorithmes basés sur une supervision de l’évolution de métriques internes aux décodeurs, sont proposés. L’un deux permet d’augmenter la convergence du turbo décodeur. L’autre ne permet qu’une réduction marginale du plancher d’erreurs. Dans un second temps, il est observé que dans la zone du plancher d’erreurs, les trames décodées par le turbo décodeur sont très proches du mot de code originellement transmis. Ceci est démontré par une proposition de prédiction analytique de la distribution du nombre d’erreurs binaires par trame erronée. Cette dernière est réalisée grâce au spectre de distance du turbo code. Puisque ces erreurs binaires responsables du plancher d’erreurs sont peu nombreuses, une métrique permettant de les identifier est mise en oeuvre. Ceci mène alors à l’établissement d’un algorithme de décodage permettant de corriger des erreurs résiduelles. Cet algorithme, appelé algorithme Flip-and-Check se base sur un principe de création de mots candidats et de vérifications successives parun code détecteur d’erreurs. Grâce à cet algorithme de décodage, un abaissement du plancher d’erreurs d’un ordre de grandeur est obtenu pour les turbo codes de différents standards (LTE, CCSDS, DVB-RCS et DVB-RCS2), ce, tout en conservant une complexité calculatoire raisonnable.Finalement, une architecture matérielle de décodage implémentant l’algorithme Flipand-Check est présentée. Une étude préalable de l’impact des différents paramètres de l’algorithme est menée. Elle aboutit à la définition de valeurs optimales pour certains de ces paramètres. D’autres sont à adapter en fonction des gains visés en terme de performances de décodage. Cette architecture démontre alors la possible intégration de cet algorithme aux turbo décodeurs existants ; permettant alors d’abaisser le plancher d’erreurs des différents turbo codes présents dans les différents standards de télécommunication. / Since their introduction in the 90’s, turbo codes are considered as one of the most powerful error-correcting code. Thanks to their excellent trade-off between computational complexity and decoding performance, they were chosen in many communication standards. One way to characterize error-correcting codes is the evolution of the bit error rate as a function of signal-to-noise ratio (SNR). The turbo code error rate performance is divided in two different regions : the waterfall region and the error floor region. In the waterfall region, a slight increase in SNR results in a significant drop in error rate. In the error floor region, the error rate performance is only slightly improved as the SNR grows. This error floor can prevent turbo codes from being used in applications with low error rates requirements. Therefore various constructions optimizations that lower the error floor of turbo codes has been proposed in recent years by scientific community. However, these approaches can not be considered for already standardized turbo codes.This thesis addresses the problem of lowering the error floor of turbo codes without allowing any modification of the digital communication chain at the transmitter side. For this purpose, the state-of-the-art post-processing decoding method for turbo codes is detailed. It appears that efficient solutions are expensive to implement due to the required multiplication of computational resources or can strongly impact the overall decoding latency. Firstly, two decoding algorithms based on the monitoring of decoder’s internal metrics are proposed. The waterfall region is enhanced by the first algorithm. However, the second one marginally lowers the error floor. Then, the study shows that in the error floor region, frames decoded by the turbo decoder are really close to the word originally transmitted. This is demonstrated by a proposition of an analytical prediction of the distribution of the number of bits in errors per erroneous frame. This prediction rests on the distance spectrum of turbo codes. Since the appearance of error floor region is due to only few bits in errors, an identification metric is proposed. This lead to the proposal of an algorithm that can correct residual errors. This algorithm, called Flip-and-Check, rests on the generation of candidate words, followed by verification according to an error-detecting code. Thanks to this decoding algorithm, the error floor of turbo codes encountered in different standards (LTE, CCSDS, DVB-RCS and DVB-RCS2) is lowered by one order of magnitude. This performance improvement is obtained without considering an important computational complexity overhead. Finally, a hardware decoding architecture implementing the Flip-and-Check algorithm is presented. A preliminary study of the impact of the different parameters of this algorithm is carried out. It leads to the definition of optimal values for some of these parameters. Others has to be adapted according to the gains targeted in terms of decoding performance. The possible integration of this algorithm along with existing turbo decoders is demonstrated thanks to this hardware architecture. This therefore enables the lowering of the error floors of standardized turbo codes.
|
52 |
Contribution à l'étude du raisonnement et des stratégies dans le diagnostic de dépannage des systèmes réels et simulésLuc, Françoise January 1991 (has links)
Doctorat en sciences psychologiques / info:eu-repo/semantics/nonPublished
|
53 |
Nouvelle approche pour une implémentation matérielle à faible complexité du décodeur PGDBF / New direction on Low complexity implementation of Probabilisitic Gradient Descent Bit FlippingLe Trung, Khoa 03 May 2017 (has links)
L’algorithme de basculement de bits à descente de gradient probabiliste (Probabilistic Gradient Descent Bit Flipping :PGDBF) est récemment introduit comme un nouveau type de décodeur de décision forte pour le code de contrôle de parité à faible densité (Low Density Parity Check : LDPC) appliqué au canal symétrique binaire. En suivant précisément les étapes de décodage du décodeur déterministe Gradient Descent Bit-Flipping (GDBF), le PGDBF intègre en plus la perturbation aléatoire dans l'opération de basculement des Nœuds de Variables (VNs) et produit ainsi une performance de décodage exceptionnelle qui est meilleure que tous les décodeurs à basculement des bits (BF : Bit Flipping) connus dans la littérature, et qui approche les performances du décodeur de décision souple. Nous proposons dans cette thèse plusieurs implémentations matérielles du PGDBF, ainsi qu'une analyse théorique de sa capacité de correction d'erreurs. Avec une analyse de chaîne de Markov du décodeur, nous montrons qu’en raison de l'incorporation de la perturbation aléatoire dans le traitement des VNs, le PGDBF s'échappe des états de piégeage qui empêchent sa convergence. De plus, avec la nouvelle méthode d'analyse proposée, la performance du PGDBF peut être prédite et formulée par une équation de taux de trames erronées en fonction du nombre des itérations, pour un motif d'erreur donné. L'analyse fournit également des explications claires sur plusieurs phénomènes de PGDBF tels que le gain de re-décodage (ou de redémarrage) sur un motif d'erreur reçu. La problématique de l’implémentation matérielle du PGDBF est également abordée dans cette thèse. L’implémentation classique du décodeur PGDBF, dans laquelle un générateur de signal probabiliste est ajouté au-dessus du GDBF, est introduite avec une augmentation inévitable de la complexité du décodeur. Plusieurs procédés de génération de signaux probabilistes sont introduits pour minimiser le surcoût matériel du PGDBF. Ces méthodes sont motivées par l'analyse statistique qui révèle les caractéristiques critiques de la séquence aléatoire binaire requise pour obtenir une bonne performance de décodage et suggérer les directions possibles de simplification. Les résultats de synthèse montrent que le PGDBF déployé avec notre méthode de génération des signaux aléatoires n’a besoin qu’une très faible complexité supplémentaire par rapport au GDBF tout en gardant les mêmes performances qu’un décodeur PGDBF théorique. Une implémentation matérielle intéressante et particulière du PGDBF sur les codes LDPC quasicyclique (QC-LPDC) est proposée dans la dernière partie de la thèse. En exploitant la structure du QCLPDC, une nouvelle architecture pour implémenter le PGDBF est proposée sous le nom d'architecture à décalage des Nœuds de Variables (VNSA : Variable-Node Shift Architecture). En implémentant le PGDBF par VNSA, nous montrons que la complexité matérielle du décodeur est même inférieure à celle du GDBF déterministe tout en préservant la performance de décodage aussi élevée que celle fournie par un PGDBF théorique. Enfin, nous montrons la capacité de cette architecture VNSA à se généraliser sur d'autres types d'algorithmes de décodage LDPC. / Probabilistic Gradient Descent Bit Flipping (PGDBF) algorithm have been recently introduced as a new type of hard decision decoder for Low-Density Parity-Check Code (LDPC) applied on the Binary Symmetric Channel. By following precisely the decoding steps of the deterministic Gradient Descent Bit-Flipping (GDBF) decoder, PGDBF additionally incorporates a random perturbation in the ipping operation of Variable Nodes (VNs) and produces an outstanding decoding performance which is better to all known Bit Flipping decoders, approaching the performance of soft decision decoders. We propose in this thesis several hardware implementations of PGDBF, together with a theoretical analysis of its error correction capability. With a Markov Chain analysis of the decoder, we show that, due to the incorporation of random perturbation in VN processing, the PGDBF escapes from the trapping states which prevent the convergence of decoder. Also, with the new proposed analysis method, the PGDBF performance can be predicted and formulated by a Frame Error Rate equation as a function of the iteration, for a given error pattern. The analysis also gives a clear explanation on several phenomenons of PGDBF such as the gain of re-decoding (or restarting) on a received error pattern. The implementation issue of PGDBF is addressed in this thesis. The conventional implementation of PGDBF, in which a probabilistic signal generator is added on top of the GDBF, is shown with an inevitable increase in hardware complexity. Several methods for generating the probabilistic signals are introduced which minimize the overhead complexity of PGDBF. These methods are motivated by the statistical analysis which reveals the critical features of the binary random sequence required to get good decoding performance and suggesting the simpli cation directions. The synthesis results show that the implemented PGDBF with the proposed probabilistic signal generator method requires a negligible extra complexity with the equivalent decoding performance to the theoretical PGDBF. An interesting and particular implementation of PGDBF for the Quasi-Cyclic LPDC (QC-LPDC) is shown in the last part of the thesis. Exploiting the structure of QC-LPDC, a novel architecture to implement PGDBF is proposed called Variable-Node Shift Architecture (VNSA). By implementing PGDBF by VNSA, it is shown that the decoder complexity is even smaller than the deterministic GDBF while preserving the decoding performance as good as the theoretical PGDBF. Furthermore, VNSA is also shown to be able to apply on other types of LDPC decoding algorithms.
|
54 |
Quelles possibilités de remédiation pour la partie expression écrite du TFS4 ? : une étude en contexte universitaire chinois / Which possibilities of remediation for the TFS4 writing part ? : a study in chinese university contextBohec, Julie 29 June 2016 (has links)
Les étudiants chinois en deuxième année d’université qui ont le français pour spécialité doivent passer un examen national : le TFS4 (Test national de français comme spécialité niveau 4). Cet examen est important : il peut aider les étudiants à trouver un emploi puisqu’il est indiqué sur leur curriculum vitae et permet également de connaître leur niveau quelle que soit l’université d’origine ; prestigieuse ou non. Lors de notre recherche, nous n’avons trouvé aucun manuel disponible en Chine pouvant aider les étudiants à préparer la partie expression écrite du TFS4. Ainsi, comment aider les étudiants à s’améliorer dans cette compétence afin de mieux réussir cet examen national? Sur le terrain, notre cours d’expression écrite a permis de tester nos hypothèses. Par ailleurs, des cours d’autres enseignants ont été suivis et les étudiants ainsi que certains enseignants ont répondu à des questionnaires afin de connaître leur avis sur cette préparation. À partir de ces résultats, nous avons conçu une méthode ainsi que des fiches adaptées au niveau et aux besoins spécifiques du public. / The Chinese students in second year of bachelor degree whose major is French have to take a national exam: the TFS4 (national test of French as a major level 4). This exam is important: it can help students to find a job since it is written on their résumé and it also permits to know their level no matter how is the university they come from: prestigious or not. During our research, we did not find any textbook available in China that can help students to prepare the writing part of TFS4. So, how can we help students to improve this competence in order to succeed better in this national exam? In the universities, our writing class permitted to test our hypothesis. Otherwise, classes from other teachers have been watched and students as well as some teachers answered to questionnaires in order to know their opinion about the preparation. From these results, we designed a method as well as revision cards adapted to the level and needs of this specific public.
|
55 |
Error handling and energy estimation for error resilient near-threshold computing / Gestion des erreurs et estimations énergétiques pour les architectures tolérantes aux fautes et proches du seuilRagavan, Rengarajan 22 September 2017 (has links)
Les techniques de gestion dynamique de la tension (DVS) sont principalement utilisés dans la conception de circuits numériques pour en améliorer l'efficacité énergétique. Cependant, la réduction de la tension d'alimentation augmente l'impact de la variabilité et des erreurs temporelles dans les technologies nano-métriques. L'objectif principal de cette thèse est de gérer les erreurs temporelles et de formuler un cadre pour estimer la consommation d'énergie d'applications résistantes aux erreurs dans le contexte du régime proche du seuil (NTR) des transistors. Dans cette thèse, la détection et la correction d'erreurs basées sur la spéculation dynamique sont explorées dans le contexte de l'adaptation de la tension et de la fréquence d‘horloge. Outre la détection et la correction des erreurs, certaines erreurs peuvent être également tolérées et les circuits peuvent calculer au-delà de leurs limites avec une précision réduite pour obtenir une plus grande efficacité énergétique. La méthode de détection et de correction d'erreur proposée atteint 71% d'overclocking avec seulement 2% de surcoût matériel. Ce travail implique une étude approfondie au niveau des portes logiques pour comprendre le comportement des portes sous l'effet de modification de la tension d'alimentation, de la tension de polarisation et de la fréquence d'horloge. Une approche ascendante est prise en étudiant les tendances de l'énergie par rapport a l'erreur des opérateurs arithmétiques au niveau du transistor. En se basant sur le profilage des opérateurs, un flot d'outils est formulé pour estimer les paramètres d'énergie et d'erreur pour différentes configurations. Nous atteignons une efficacité énergétique maximale de 89% pour les opérateurs arithmétiques comme les additionneurs 8 bits et 16 bits au prix de 20% de bits défectueux en opérant en NTR. Un modèle statistique est développé pour que les opérateurs arithmétiques représentent le comportement des opérateurs pour différents impacts de variabilité. Ce modèle est utilisé pour le calcul approximatif dans les applications qui peuvent tolérer une marge d'erreur acceptable. Cette méthode est ensuite explorée pour unité d'exécution d'un processeur VLIW. L'environnement proposé fournit une estimation rapide des indicateurs d'énergie et d'erreurs d'un programme de référence par compilation simple d'un programme C. Dans cette méthode d'estimation de l'énergie, la caractérisation des opérateurs se fait au niveau du transistor, et l'estimation de l'énergie se fait au niveau fonctionnel. Cette approche hybride rend l'estimation de l'énergie plus rapide et plus précise pour différentes configurations. Les résultats d'estimation pour différents programmes de référence montrent une précision de 98% par rapport à la simulation SPICE. / Dynamic voltage scaling (DVS) technique is primarily used in digital design to enhance the energy efficiency by reducing the supply voltage of the design. However reduction in Vdd augments the impact of variability and timing errors in sub-nanometer designs. The main objective of this work is to handle timing errors, and to formulate a framework to estimate energy consumption of error resilient applications in the context of near-threshold regime (NTR). In this thesis, Dynamic Speculation based error detection and correction is explored in the context of adaptive voltage and clock overscaling. Apart from error detection and correction, some errors can also be tolerated or, in other words, circuits can be pushed beyond their limits to compute incorrectly to achieve higher energy efficiency. The proposed error detection and correction method achieves 71% overclocking with 2% additional hardware cost. This work involves extensive study of design at gate level to understand the behaviour of gates under overscaling of supply voltage, bias voltage and clock frequency (collectively called as operating triads). A bottom-up approach is taken: by studying trends of energy vs. error of basic arithmetic operators at transistor level. Based on the profiling of arithmetic operators, a tool flow is formulated to estimate energy and error metrics for different operating triads. We achieve maximum energy efficiency of 89% for arithmetic operators like 8-bit and 16-bit adders at the cost of 20% faulty bits by operating in NTR. A statistical model is developed for the arithmetic operators to represent the behaviour of the operators for different variability impacts. This model is used for approximate computing of error resilient applications that can tolerate acceptable margin of errors. This method is further explored for execution unit of a VLIW processor. The proposed framework provides quick estimation of energy and error metrics of a benchmark programs by simple compilation in a C compiler. In the proposed energy estimation framework, characterization of arithmetic operators is done at transistor level, and the energy estimation is done at functional level. This hybrid approach makes energy estimation faster and accurate for different operating triads. The proposed framework estimates energy for different benchmark programs with 98% accuracy compared to SPICE simulation.
|
56 |
Activation physiologique et perceptions erronées chez des joueurs réguliers et occasionnels de poker-vidéoCoulombe, Andrée 23 February 2022 (has links)
Cette étude compare les perceptions erronées et l'activation physiologique chez des joueurs réguliers et occasionnels de vidéo-poker et vérifie la relation entre ces deux variables. Vingt-quatre joueurs réguliers et occasionnels participent à une séance de poker-vidéo en milieu naturel. Le rythme cardiaque et le nombre de verbalisations inadéquates servent de variables dépendantes. Trois hypothèses sont postulées: 1) les joueurs réguliers présenteront une plus grande activation physiologique que les joueurs occasionnels. 2) Ils émetteront plus de verbalisations inadéquates et 3) une relation positive s'établira entre l'augmentation du rythme cardiaque et le nombre de verbalisations inadéquates. L'analyse des résultats confirme que les joueurs réguliers émettent plus de verbalisations inadéquates que les joueurs occasionnels et qu'une relation positive est observée entre l'activation physiologique et le nombre de verbalisations inadéquates. Cependant, les augmentations de rythme cardiaque sont équivalentes dans les deux groupes. La discussion souligne les implications théoriques et pratiques de ces résultats.
|
57 |
Interim trading bias in mutual fund performance evaluationGhali, Ali 17 November 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / Des recherches récentes sur les fonds communs de placement et les fonds spéculatifs montrent qu'il est important de tenir compte des transactions intérimaires, parce que les gestionnaires effectuent souvent des transactions au cours du mois en fonction de signaux d'information ou pour des raisons de liquidité. Cette thèse examine les effets du biais de transactions intérimaires sur la performance d'un large échantillon de fonds mutuels d'actions américaines gérés activement. Elle développe de nouvelles mesures ajustées pour le biais pour répondre à une série de questions dans le contexte de la performance des fonds communs de placement et du biais de transactions intérimaires. D'abord, en utilisant l'approche par facteur d'escompte stochastique (SDF), nous développons deux nouvelles mesures ajustées pour le biais de transactions intérimaires. Lorsque les rendements quotidiens des fonds sont disponibles, nous proposons une mesure basée sur la capitalisation d'alphas sous-périodiques quotidiens. Lorsque les rendements quotidiens des fonds ne sont pas disponibles, nous capturons les opportunités d'investissement intérimaires grâce aux données quotidiennes sur les facteurs de risque. Nous développons la mesure SDF capitalisée dans le temps, qui est une mesure alternative à l'approche basée sur l'agrégation des facteurs dans le temps, telle que proposée par la littérature. Nous démontrons la pertinence théorique et l'équivalence de la mesure basée sur la capitalisation temporelle des alphas et celle basée sur la capitalisation temporelle des SDFs dans la saisie des opportunités d'investissement intérimaires. Empiriquement, nous documentons l'importance du biais de transactions intérimaires en comparant les alphas estimés avec la mesure mensuelle non ajustée avec ceux estimés avec les mesures ajustées pour le biais. Nous montrons que le biais moyen à travers les fonds n'est pas différent de zéro. Cependant, plus de 25% des fonds observent des changements statistiquement significatifs de leur performance traditionnelle lorsque le biais est pris en compte. En comparaison, les deux mesures existantes détectent peu de biais significatifs. Deuxièmement, nous étudions la persistance du biais de transactions intérimaires dans la performance des fonds ainsi que sa relation avec divers attributs de fonds, styles d'investissement et indicateurs de marché. Nous examinons ces aspects non seulement pour le biais de transactions intérimaires, mais aussi pour la performance ajustée pour le biais. Nous constatons que le biais de transactions intérimaires est persistant à long terme uniquement pour les fonds ayant un biais positif. Lorsque nous examinons la persistance de l'alpha ajusté pour le biais, nous montrons que les fonds dont la performance passée est négative continuent à fournir un alpha négatif. Le résultat est inversé pour les fonds ayant des performances passées positives. Dans l'analyse des déterminants, nous utilisons à la fois une approche par portefeuille et une approche par régression. Dans l'ensemble, les résultats montrent que les petits fonds, les fonds jeunes et les fonds dont les gestionnaires ont peu d'expérience ont un biais de transactions intérimaires plus important. La rotation impliquée par les flux de liquidité et les avoirs liquides ont des relations positives, statistiquement et économiquement significatives, avec le biais de transactions intérimaires. Enfin, les fonds les plus actifs présentent un biais positif élevé. Lorsque nous étudions les déterminants de l'alpha ajusté du biais, nous obtenons des résultats qui sont généralement cohérents avec la littérature antérieure. Plus précisément, nous constatons que les fonds dont la volatilité, la sélectivité, le taux de rotation, le taux de rotation lié aux flux, les liquidités et les dépenses sont les plus élevés affichent une performance ajustée inférieure. La performance est légèrement améliorée pour les fonds qui sont matures, de grande taille et dont les gestionnaires sont expérimentés. Troisièmement, nous examinons la robustesse de nos conclusions sur le biais de transactions intérimaires. Nous nous concentrons principalement sur le pourcentage important de fonds dont la performance est significativement modifiée par les nouvelles mesures SDF capitalisées dans le temps, ainsi que sur la capacité supérieure des mesures capitalisée par rapport aux mesures agrégées à atténuer le problème du biais de transactions intérimaires. Nos tests confirment que ces résultats sont robustes aux spécifications alternatives, aux différents choix méthodologiques et aux problèmes d'échantillons finis. / Recent research on mutual funds and hedge funds documents the importance of accounting for interim trading, as managers often trade within each month based on information signals or for liquidity reasons. This thesis examines the effects of the interim trading bias on the performance of a large cross section of actively managed open-ended U.S. equity mutual funds. It develops new interim-trading-bias-adjusted measures to address a range of questions in the context of mutual fund performance and the interim trading bias. First, using the stochastic discount factor (SDF) approach, we develop two new interim-trading-bias-adjusted measures. When daily fund returns are available, we propose a measure based on the time-compounding of daily alphas. When daily fund returns are not available, we can instead capture the interim investment opportunities with daily factor data. We develop the time-compounded SDF measure, which is an alternative measure to the time-averaged factor approach proposed by the literature. We show the theoretical relevance and equivalence of our time-compounded alpha and time-compounded SDF measures in capturing interim investment opportunities. Empirically, we document the importance of the interim trading bias by comparing alphas estimated with an unadjusted monthly measure with those estimated with bias-adjusted measures. We show that the mean bias across funds is not different from zero. However, more that 25% of the funds have statistically significant changes in performance when controlling for the bias. By comparison, two existing measures detect few significant biases. Second, we study the persistence of the interim trading bias in fund performance and its relation with various fund attributes, investment styles and market indicators. We examine these aspects not only for the interim trading bias, but also for the performance adjusted for interim trading. We find that the interim trading bias is persistent in the long run only for funds with positive bias. When we look at the persistence of the bias-adjusted alpha, we show that funds with negative past performance continue to deliver negative alpha. The pattern is reversed for funds with positive past performance. In the determinant analysis, we use both a portfolio approach and a regression approach. Overall, the results show that small funds, young funds and funds with low manager tenure have larger interim trading bias. Flow-driven turnover and cash holdings have statistically and economically significant positive relations with the interim trading bias. Finally, funds that are the most active exhibit a high positive bias. When we investigate the determinants of the interim-trading-bias-adjusted alpha, we obtain results that are generally consistent with the prior literature. Specifically, we find that funds with the highest volatility, selectivity, turnover, flow-driven turnover, cash holdings and expenses exhibit lower adjusted performance. Performance is somewhat improved for funds that are mature, large and with experienced managers. Third, we examine the robustness of our findings on the interim trading bias. The main focuses are on the important percentage of funds that have their performance significantly changed by the new time-compounded SDF measures and on the superior ability of time-compounded measures over time-averaged measures in alleviating the problem of interim trading bias. Our checks confirm that these findings are robust to alternative specifications, various methodological choices and finite sample issues.
|
58 |
Développement d'algorithmes de Plasmode longitudinaux pour l'évaluation d'approches d'ajustement pour la confusion et illustration pour l'étude de l'effet d'une exposition cumulée aux stresseurs psychosociaux au travailSouli, Youssra 23 March 2024 (has links)
Le biais de confusion peut affecter tous les types d’études d’observation. Il apparaît lorsque la caractéristique étudiée est associée à un facteur de perturbation complémentaire et que ce dernier fait croire à l’existence d’une relation de cause à effet entre la caractéristique étudiée et l’issue. Des méthodes d’ajustement pour le biais de confusion, notamment les modèles structurels marginaux, peuvent être utilisées pour corriger ce type de biais. Ces modèles n’ont toutefois été utilisés qu’une seule fois pour l'étude de l’effet d’une exposition cumulative aux stresseurs psychosociaux au travail sur la pression artérielle. L’objectif principal de ce mémoire était de comparer différents estimateurs des paramètres d’un modèle structurel marginal à des approches classiques. Nous avons considéré les estimateurs par pondération inverse de la probabilité de traitement, le calcul-g, le maximum de vraisemblance ciblé avec et sans SuperLearner. Ces estimateurs ont d’abord été utilisés pour estimer l’effet d’une exposition cumulée aux stresseurs psychosociaux au travail sur la pression artérielle systolique dans le cadre d’une étude de cohorte prospective de 5 ans. Cette analyse a révélé des différences significatives entre les estimateurs. Puisqu’il s’agit de données réelles, il est toutefois impossible de déterminer quelle méthode produit les résultats les plus valides. Pour répondre à cette question, nous avons développé deux algorithmes de simulation de données longitudinales de type Plasmode, l’un utilisant des modèles paramétriques et l’autre utilisant des approches non paramétriques. Les simulations Plasmode combinent des données réelles et des données synthétiques pour étudier les propriétés dans un contexte connu, mais similaire au contexte réel. Au vue des résultats, nous avons conclu que les modèles structurels marginaux représentent des approches pertinentes pour estimer l’effet des stresseurs psychosociaux au travail. Nous recommandons particulièrement d’utiliser la méthode de maximum de vraisemblance ciblé avec et sans SuperLearner. Cependant, cela nécessite un effort supplémentaire en termes d’implantation de code et de temps d’exécution.
|
59 |
Can gamblers beat randomness? : an experimental study on sport bettingCantinotti, Michael 31 March 2021 (has links)
Although skills are not considered relevant in chance governed activities, only few studies have assessed to which extent sport expert skills in wagering are a manifestation of the illusion of control. Thus, the present paper examines: (1) if expert hockey bettors can make better predictions than random selection, (2) if expert hockey bettors can achieve greater monetary gains than what can be expected from chance, and (3) what kind of information and strategies hockey gamblers rely on when betting. Accordingly, 30 participants were asked to report their state lottery hockey bets on 6 occasions. They also filled in a questionnaire on sports wagering. Despite a rate accuracy greater than chance, the monetary gains of expert hockey gamblers are not significantly higher than what can be expected by chance. It is suggested that the information used by bettors, along with near-misses (level of precision), reinforce their perception of expertise and their illusion of control
|
60 |
Verbalisations erronées et prise de risques des joueurs de loterie vidéoCaron, Anne 27 February 2021 (has links)
Cette étude vérifie l'effet des verbalisations erronées émises par un compagnon de jeu sur la prise de risques des joueurs de loterie vidéo. L'échantillon est réparti aléatoirement en trois groupes et comprend 22 hommes et 10 femmes âgés d'au moins 18 ans, ne présentant aucun problème de jeu excessif et ayant joué aux loteries vidéo au cours des six derniers mois. Les participants jouent en compagnie d'un complice qui adopte trois comportements distincts selon le groupe, soit: (a) il verbalise des pensées erronées, (b) il verbalise des pensées adéquates concernant le jeu, ou (c) il ne parle pas. Les données indiquent que les joueurs exposés aux verbalisations erronées du complice prennent près de deux fois plus de risques que ceux des deux autres groupes (p < .05). Ces résultats constituent la première démonstration de l'hypothèse centrale de la conception cognitive du jeu: les pensées erronées favorisent directement des habitudes de jeu telles que la prise de risques. Les pensées erronées sont facilement transmissibles et ont une répercussion sur le comportement de jeu. La discussion soulève les implications pratiques et théoriques de ces résultats.
|
Page generated in 0.0736 seconds