• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 53
  • 13
  • 1
  • 1
  • 1
  • Tagged with
  • 200
  • 57
  • 33
  • 31
  • 31
  • 24
  • 21
  • 20
  • 19
  • 19
  • 19
  • 19
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Nouvelle approche pour une implémentation matérielle à faible complexité du décodeur PGDBF / New direction on Low complexity implementation of Probabilisitic Gradient Descent Bit Flipping

Le Trung, Khoa 03 May 2017 (has links)
L’algorithme de basculement de bits à descente de gradient probabiliste (Probabilistic Gradient Descent Bit Flipping :PGDBF) est récemment introduit comme un nouveau type de décodeur de décision forte pour le code de contrôle de parité à faible densité (Low Density Parity Check : LDPC) appliqué au canal symétrique binaire. En suivant précisément les étapes de décodage du décodeur déterministe Gradient Descent Bit-Flipping (GDBF), le PGDBF intègre en plus la perturbation aléatoire dans l'opération de basculement des Nœuds de Variables (VNs) et produit ainsi une performance de décodage exceptionnelle qui est meilleure que tous les décodeurs à basculement des bits (BF : Bit Flipping) connus dans la littérature, et qui approche les performances du décodeur de décision souple. Nous proposons dans cette thèse plusieurs implémentations matérielles du PGDBF, ainsi qu'une analyse théorique de sa capacité de correction d'erreurs. Avec une analyse de chaîne de Markov du décodeur, nous montrons qu’en raison de l'incorporation de la perturbation aléatoire dans le traitement des VNs, le PGDBF s'échappe des états de piégeage qui empêchent sa convergence. De plus, avec la nouvelle méthode d'analyse proposée, la performance du PGDBF peut être prédite et formulée par une équation de taux de trames erronées en fonction du nombre des itérations, pour un motif d'erreur donné. L'analyse fournit également des explications claires sur plusieurs phénomènes de PGDBF tels que le gain de re-décodage (ou de redémarrage) sur un motif d'erreur reçu. La problématique de l’implémentation matérielle du PGDBF est également abordée dans cette thèse. L’implémentation classique du décodeur PGDBF, dans laquelle un générateur de signal probabiliste est ajouté au-dessus du GDBF, est introduite avec une augmentation inévitable de la complexité du décodeur. Plusieurs procédés de génération de signaux probabilistes sont introduits pour minimiser le surcoût matériel du PGDBF. Ces méthodes sont motivées par l'analyse statistique qui révèle les caractéristiques critiques de la séquence aléatoire binaire requise pour obtenir une bonne performance de décodage et suggérer les directions possibles de simplification. Les résultats de synthèse montrent que le PGDBF déployé avec notre méthode de génération des signaux aléatoires n’a besoin qu’une très faible complexité supplémentaire par rapport au GDBF tout en gardant les mêmes performances qu’un décodeur PGDBF théorique. Une implémentation matérielle intéressante et particulière du PGDBF sur les codes LDPC quasicyclique (QC-LPDC) est proposée dans la dernière partie de la thèse. En exploitant la structure du QCLPDC, une nouvelle architecture pour implémenter le PGDBF est proposée sous le nom d'architecture à décalage des Nœuds de Variables (VNSA : Variable-Node Shift Architecture). En implémentant le PGDBF par VNSA, nous montrons que la complexité matérielle du décodeur est même inférieure à celle du GDBF déterministe tout en préservant la performance de décodage aussi élevée que celle fournie par un PGDBF théorique. Enfin, nous montrons la capacité de cette architecture VNSA à se généraliser sur d'autres types d'algorithmes de décodage LDPC. / Probabilistic Gradient Descent Bit Flipping (PGDBF) algorithm have been recently introduced as a new type of hard decision decoder for Low-Density Parity-Check Code (LDPC) applied on the Binary Symmetric Channel. By following precisely the decoding steps of the deterministic Gradient Descent Bit-Flipping (GDBF) decoder, PGDBF additionally incorporates a random perturbation in the ipping operation of Variable Nodes (VNs) and produces an outstanding decoding performance which is better to all known Bit Flipping decoders, approaching the performance of soft decision decoders. We propose in this thesis several hardware implementations of PGDBF, together with a theoretical analysis of its error correction capability. With a Markov Chain analysis of the decoder, we show that, due to the incorporation of random perturbation in VN processing, the PGDBF escapes from the trapping states which prevent the convergence of decoder. Also, with the new proposed analysis method, the PGDBF performance can be predicted and formulated by a Frame Error Rate equation as a function of the iteration, for a given error pattern. The analysis also gives a clear explanation on several phenomenons of PGDBF such as the gain of re-decoding (or restarting) on a received error pattern. The implementation issue of PGDBF is addressed in this thesis. The conventional implementation of PGDBF, in which a probabilistic signal generator is added on top of the GDBF, is shown with an inevitable increase in hardware complexity. Several methods for generating the probabilistic signals are introduced which minimize the overhead complexity of PGDBF. These methods are motivated by the statistical analysis which reveals the critical features of the binary random sequence required to get good decoding performance and suggesting the simpli cation directions. The synthesis results show that the implemented PGDBF with the proposed probabilistic signal generator method requires a negligible extra complexity with the equivalent decoding performance to the theoretical PGDBF. An interesting and particular implementation of PGDBF for the Quasi-Cyclic LPDC (QC-LPDC) is shown in the last part of the thesis. Exploiting the structure of QC-LPDC, a novel architecture to implement PGDBF is proposed called Variable-Node Shift Architecture (VNSA). By implementing PGDBF by VNSA, it is shown that the decoder complexity is even smaller than the deterministic GDBF while preserving the decoding performance as good as the theoretical PGDBF. Furthermore, VNSA is also shown to be able to apply on other types of LDPC decoding algorithms.
52

Quelles possibilités de remédiation pour la partie expression écrite du TFS4 ? : une étude en contexte universitaire chinois / Which possibilities of remediation for the TFS4 writing part ? : a study in chinese university context

Bohec, Julie 29 June 2016 (has links)
Les étudiants chinois en deuxième année d’université qui ont le français pour spécialité doivent passer un examen national : le TFS4 (Test national de français comme spécialité niveau 4). Cet examen est important : il peut aider les étudiants à trouver un emploi puisqu’il est indiqué sur leur curriculum vitae et permet également de connaître leur niveau quelle que soit l’université d’origine ; prestigieuse ou non. Lors de notre recherche, nous n’avons trouvé aucun manuel disponible en Chine pouvant aider les étudiants à préparer la partie expression écrite du TFS4. Ainsi, comment aider les étudiants à s’améliorer dans cette compétence afin de mieux réussir cet examen national? Sur le terrain, notre cours d’expression écrite a permis de tester nos hypothèses. Par ailleurs, des cours d’autres enseignants ont été suivis et les étudiants ainsi que certains enseignants ont répondu à des questionnaires afin de connaître leur avis sur cette préparation. À partir de ces résultats, nous avons conçu une méthode ainsi que des fiches adaptées au niveau et aux besoins spécifiques du public. / The Chinese students in second year of bachelor degree whose major is French have to take a national exam: the TFS4 (national test of French as a major level 4). This exam is important: it can help students to find a job since it is written on their résumé and it also permits to know their level no matter how is the university they come from: prestigious or not. During our research, we did not find any textbook available in China that can help students to prepare the writing part of TFS4. So, how can we help students to improve this competence in order to succeed better in this national exam? In the universities, our writing class permitted to test our hypothesis. Otherwise, classes from other teachers have been watched and students as well as some teachers answered to questionnaires in order to know their opinion about the preparation. From these results, we designed a method as well as revision cards adapted to the level and needs of this specific public.
53

Error handling and energy estimation for error resilient near-threshold computing / Gestion des erreurs et estimations énergétiques pour les architectures tolérantes aux fautes et proches du seuil

Ragavan, Rengarajan 22 September 2017 (has links)
Les techniques de gestion dynamique de la tension (DVS) sont principalement utilisés dans la conception de circuits numériques pour en améliorer l'efficacité énergétique. Cependant, la réduction de la tension d'alimentation augmente l'impact de la variabilité et des erreurs temporelles dans les technologies nano-métriques. L'objectif principal de cette thèse est de gérer les erreurs temporelles et de formuler un cadre pour estimer la consommation d'énergie d'applications résistantes aux erreurs dans le contexte du régime proche du seuil (NTR) des transistors. Dans cette thèse, la détection et la correction d'erreurs basées sur la spéculation dynamique sont explorées dans le contexte de l'adaptation de la tension et de la fréquence d‘horloge. Outre la détection et la correction des erreurs, certaines erreurs peuvent être également tolérées et les circuits peuvent calculer au-delà de leurs limites avec une précision réduite pour obtenir une plus grande efficacité énergétique. La méthode de détection et de correction d'erreur proposée atteint 71% d'overclocking avec seulement 2% de surcoût matériel. Ce travail implique une étude approfondie au niveau des portes logiques pour comprendre le comportement des portes sous l'effet de modification de la tension d'alimentation, de la tension de polarisation et de la fréquence d'horloge. Une approche ascendante est prise en étudiant les tendances de l'énergie par rapport a l'erreur des opérateurs arithmétiques au niveau du transistor. En se basant sur le profilage des opérateurs, un flot d'outils est formulé pour estimer les paramètres d'énergie et d'erreur pour différentes configurations. Nous atteignons une efficacité énergétique maximale de 89% pour les opérateurs arithmétiques comme les additionneurs 8 bits et 16 bits au prix de 20% de bits défectueux en opérant en NTR. Un modèle statistique est développé pour que les opérateurs arithmétiques représentent le comportement des opérateurs pour différents impacts de variabilité. Ce modèle est utilisé pour le calcul approximatif dans les applications qui peuvent tolérer une marge d'erreur acceptable. Cette méthode est ensuite explorée pour unité d'exécution d'un processeur VLIW. L'environnement proposé fournit une estimation rapide des indicateurs d'énergie et d'erreurs d'un programme de référence par compilation simple d'un programme C. Dans cette méthode d'estimation de l'énergie, la caractérisation des opérateurs se fait au niveau du transistor, et l'estimation de l'énergie se fait au niveau fonctionnel. Cette approche hybride rend l'estimation de l'énergie plus rapide et plus précise pour différentes configurations. Les résultats d'estimation pour différents programmes de référence montrent une précision de 98% par rapport à la simulation SPICE. / Dynamic voltage scaling (DVS) technique is primarily used in digital design to enhance the energy efficiency by reducing the supply voltage of the design. However reduction in Vdd augments the impact of variability and timing errors in sub-nanometer designs. The main objective of this work is to handle timing errors, and to formulate a framework to estimate energy consumption of error resilient applications in the context of near-threshold regime (NTR). In this thesis, Dynamic Speculation based error detection and correction is explored in the context of adaptive voltage and clock overscaling. Apart from error detection and correction, some errors can also be tolerated or, in other words, circuits can be pushed beyond their limits to compute incorrectly to achieve higher energy efficiency. The proposed error detection and correction method achieves 71% overclocking with 2% additional hardware cost. This work involves extensive study of design at gate level to understand the behaviour of gates under overscaling of supply voltage, bias voltage and clock frequency (collectively called as operating triads). A bottom-up approach is taken: by studying trends of energy vs. error of basic arithmetic operators at transistor level. Based on the profiling of arithmetic operators, a tool flow is formulated to estimate energy and error metrics for different operating triads. We achieve maximum energy efficiency of 89% for arithmetic operators like 8-bit and 16-bit adders at the cost of 20% faulty bits by operating in NTR. A statistical model is developed for the arithmetic operators to represent the behaviour of the operators for different variability impacts. This model is used for approximate computing of error resilient applications that can tolerate acceptable margin of errors. This method is further explored for execution unit of a VLIW processor. The proposed framework provides quick estimation of energy and error metrics of a benchmark programs by simple compilation in a C compiler. In the proposed energy estimation framework, characterization of arithmetic operators is done at transistor level, and the energy estimation is done at functional level. This hybrid approach makes energy estimation faster and accurate for different operating triads. The proposed framework estimates energy for different benchmark programs with 98% accuracy compared to SPICE simulation.
54

L'effet des connaissances en mathématiques sur les comportements de jeu et les perceptions erronées

Pelletier, Marie-France 17 May 2021 (has links)
L'objectif principal de cette étude est d'évaluer si les connaissances en mathématiques sont un facteur de protection face aux comportements de jeu et aux perceptions erronées. Deux groupes de participants qui différent quant à leur niveau de connaissances en mathématiques sont comparés en mesurant leurs perceptions et leurs comportements avant, pendant et après une situation de jeu. Pour ce faire, 60 participants (30 hommes, 30 femmes) ont répondu à un questionnaire évaluant leurs perceptions des jeux de hasard et d'argent et ils ont participé à deux tâches expérimentales, soit la production d'une séquence de pile ou face et une séance de jeu à la loterie vidéo. Les résultats démontrent que le groupe de participants ayant de bonnes connaissances en mathématiques a manifesté significativement plus de perceptions erronées avant l'expérimentation, bien que les deux groupes ont émis autant de comportements et de perceptions erronées pendant et après les séances de jeu. Par conséquent, l'importance des connaissances en mathématiques pour prévenir le jeu excessif est remise en question. Les implications théoriques et pratiques de ces résultats seront discutées en regard de la prévention du jeu excessif.
55

Inappropriate medication use in long-term care facility residents with advanced Alzheimer’s disease and other dementias

Yazdanmehr, Mehrdad 24 April 2018 (has links)
Les personnes atteintes de démence sévère, résidant dans un centre d’hébergement et de soins de longue durée (CHSLD) et approchant la fin de leur vie, ne reçoivent pas systématiquement des soins palliatifs, malgré que ce niveau de soins soit le plus approprié. La plupart de ces personnes reçoivent également un grand nombre de médicaments dont les effets indésirables peuvent contribuer à des souffrances évitables. Une approche axée sur les soins palliatifs serait possiblement associée à une réduction de la charge médicamenteuse et, du même coup, à une prescription plus appropriée. Les objectifs de ce projet de recherche étaient de décrire l’usage des médicaments chez les résidents atteints de démence sévère en CHSLD, de comparer leur usage de médicaments à des critères de pertinence et d’évaluer si la mise en œuvre d'une approche axée sur les soins palliatifs était associée aux médicaments prescrits. Cette étude décrit l’usage des médicaments chez 215 sujets atteints de démence sévère et en fin de vie qui ont participé à une étude d’intervention quasi expérimentale menée dans quatre CHSLD du Québec sur la mise en œuvre d'une approche axée sur les soins palliatifs. L’utilisation des médicaments a été comparée à trois listes de critères pertinents publiés, soit ceux de Holmes, Rancourt et Kröger, en utilisant des statistiques descriptives. Les analyses sur l’usage de 412 médicaments différents chez 120 sujets du groupe expérimental et 95 sujets du groupe témoin ont montré que cette approche axée sur les soins palliatifs n’est pas associée à une prescription plus appropriée des médicaments chez ces personnes particulièrement vulnérables. / Individuals with severe dementia in long-term care facilities (LTCFs) near the end of life do not systematically receive palliative care, although this would be the appropriate care level. Most of these people also receive large numbers of medications, and prescribing for them is often challenging. Implementing a palliative care approach may be an important step towards more appropriate medication use. The objectives of this research project were to describe medication use in LTCF residents with severe dementia, to compare this use to criteria of appropriateness, and to assess whether implementation of a palliative care approach was associated with medication prescribing. This study describes medication use in 215 LTCF residents with severe dementia near the end of life who participated in a quasi-experimental clinical trial on the implementation of a palliative care approach in four LTCFs in Quebec province. Using descriptive statistics, medication use has been compared to three sets of published criteria on appropriateness including those of Holmes, Rancourt and Kröger. Analysis on the use of 412 different medications on 120 subjects in the experimental LTCF and 95 subjects in the control LTCF showed that the palliative care approach was not associated with changes in medication prescribing for these particularly vulnerable individuals.
56

Évaluation et correction de perceptions erronées entretenues au sujet des loteries pseudo-actives

Savoie, Diane 25 October 2021 (has links)
Les conceptions sur les probabilités d'apparition d'événements incertains sont souvent erronées (Tversky & Kahneman, 1974). La première étude vérifie cette proposition en situation de jeu de hasard et d'argent en comparant l'utilisation de stratégies cognitives (heuristiques) chez des consommateurs réguliers et occasionnels de loteries pseudo-actives. Les résultats démontrent que les conceptions et les stratégies basées sur divers heuristiques, bien qu'elles soient présentes chez les sujets des deux groupes, se retrouvent plus fréquemment chez les acheteurs réguliers, confirmant l'effet de la familiarité et de l'exposition eu jeu. La deuxième étude tente de corriger ces conceptions erronées en simulant sur microordinateur un grand nombre de tirages de loterie. Les résultats indiquent une modification des conceptions et des habitudes de jeu suite à ce procédé. Cependant, les sujets bénéficieraient d'une intervention plus soutenue.
57

Correction cognitive des perceptions erronées lors de sessions de jeu à la roulette de casino

Giroux, Isabelle 01 February 2022 (has links)
Aux États-Unis et au Canada, près des deux tiers de la population jouent régulièrement aux jeux de hasard (Ladouceur, 1996; Volberg, 1996). Les études empiriques ont démontré que les perceptions erronées sont prédominantes chez les individus participant a une activité de jeu. Peu d'études ont tente de modifier ces fausses conceptions. Ce mémoire évalue l'impact d'un programme de correction cognitive sur des variables cognitives, comportementales et physiologiques reliées aux jeux de hasard. Deux études ont permis d'observer ces variables chez des joueurs participant a des séances de roulette. A l'aide d'un protocole expérimental a cas unique, la première étude a pour objectif de vérifier le nombre de pensées erronées émises par le sujet avant et après correction cognitive lors d'une séance de jeu. La correction cognitive est strictement axée sur le lien erroné de dépendance fait par les gens entre des évènements produits au hasard, totalement indépendants. Une première séance de roulette de casino est effectuée, suivie d'une relance une semaine plus tard. Les résultats indiquent que le programme d'intervention cognitive réduit le nombre de perceptions erronées chez les joueurs, mais les nouvelles perceptions adéquates ne se maintiennent pas au moment de la relance. La deuxième étude reprend le but de la première. Elle a aussi pour objectif de vérifier a l'aide d'un protocole expérimental a cas unique le nombre de pensées erronées après une séance de correction cognitive axée sur le lien de dépendance fait entre des évènements indépendants. De plus, le rythme cardiaque sera observe lors des verbalisations adéquates et erronées. Les résultats indiquent que le programme d'intervention cognitive réduit le nombre de perceptions erronées chez les joueurs, et que le rythme cardiaque semble varier selon le type de verbalisation. Les implications cliniques et théoriques de ces résultats sont discutées en relation avec la psychologie cognitive des jeux de hasard et d'argent.
58

Conceptions erronnées des jeux de hasard selon le niveau de connaissances en statistiques

Benhsain, Karim 20 April 2021 (has links)
L’enseignement de notions théoriques sur le hasard est un élément crucial en thérapie dans le traitement des joueurs excessifs. Le but de cette étude est de comparer en situation de jeu deux groupes qui diffèrent au niveau de leurs connaissances en statistiques et probabilités. 15 femmes et 15 hommes (N= 30; M= 21.3 ans) ont participé à cette recherche. Les participants ont à compléter un questionnaire pendant une séance de roulette américaine informatisée et sont comparés sur deux variables :(a) le nombre de perceptions erronées émises pendant la partie et (b) leur niveau de perception de contrôle. Les résultats ne nous permettent pas de rejeter l’hypothèse nulle. Les implications théoriques et pratiques de ces résultats sont discutées dans le contexte général de la psychologie des jeux de hasard et d’argent.
59

Activation physiologique et perceptions erronées chez des joueurs réguliers et occasionnels de poker-vidéo

Coulombe, Andrée 23 February 2022 (has links)
Cette étude compare les perceptions erronées et l'activation physiologique chez des joueurs réguliers et occasionnels de vidéo-poker et vérifie la relation entre ces deux variables. Vingt-quatre joueurs réguliers et occasionnels participent à une séance de poker-vidéo en milieu naturel. Le rythme cardiaque et le nombre de verbalisations inadéquates servent de variables dépendantes. Trois hypothèses sont postulées: 1) les joueurs réguliers présenteront une plus grande activation physiologique que les joueurs occasionnels. 2) Ils émetteront plus de verbalisations inadéquates et 3) une relation positive s'établira entre l'augmentation du rythme cardiaque et le nombre de verbalisations inadéquates. L'analyse des résultats confirme que les joueurs réguliers émettent plus de verbalisations inadéquates que les joueurs occasionnels et qu'une relation positive est observée entre l'activation physiologique et le nombre de verbalisations inadéquates. Cependant, les augmentations de rythme cardiaque sont équivalentes dans les deux groupes. La discussion souligne les implications théoriques et pratiques de ces résultats.
60

Interim trading bias in mutual fund performance evaluation

Ghali, Ali 17 November 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / Des recherches récentes sur les fonds communs de placement et les fonds spéculatifs montrent qu'il est important de tenir compte des transactions intérimaires, parce que les gestionnaires effectuent souvent des transactions au cours du mois en fonction de signaux d'information ou pour des raisons de liquidité. Cette thèse examine les effets du biais de transactions intérimaires sur la performance d'un large échantillon de fonds mutuels d'actions américaines gérés activement. Elle développe de nouvelles mesures ajustées pour le biais pour répondre à une série de questions dans le contexte de la performance des fonds communs de placement et du biais de transactions intérimaires. D'abord, en utilisant l'approche par facteur d'escompte stochastique (SDF), nous développons deux nouvelles mesures ajustées pour le biais de transactions intérimaires. Lorsque les rendements quotidiens des fonds sont disponibles, nous proposons une mesure basée sur la capitalisation d'alphas sous-périodiques quotidiens. Lorsque les rendements quotidiens des fonds ne sont pas disponibles, nous capturons les opportunités d'investissement intérimaires grâce aux données quotidiennes sur les facteurs de risque. Nous développons la mesure SDF capitalisée dans le temps, qui est une mesure alternative à l'approche basée sur l'agrégation des facteurs dans le temps, telle que proposée par la littérature. Nous démontrons la pertinence théorique et l'équivalence de la mesure basée sur la capitalisation temporelle des alphas et celle basée sur la capitalisation temporelle des SDFs dans la saisie des opportunités d'investissement intérimaires. Empiriquement, nous documentons l'importance du biais de transactions intérimaires en comparant les alphas estimés avec la mesure mensuelle non ajustée avec ceux estimés avec les mesures ajustées pour le biais. Nous montrons que le biais moyen à travers les fonds n'est pas différent de zéro. Cependant, plus de 25% des fonds observent des changements statistiquement significatifs de leur performance traditionnelle lorsque le biais est pris en compte. En comparaison, les deux mesures existantes détectent peu de biais significatifs. Deuxièmement, nous étudions la persistance du biais de transactions intérimaires dans la performance des fonds ainsi que sa relation avec divers attributs de fonds, styles d'investissement et indicateurs de marché. Nous examinons ces aspects non seulement pour le biais de transactions intérimaires, mais aussi pour la performance ajustée pour le biais. Nous constatons que le biais de transactions intérimaires est persistant à long terme uniquement pour les fonds ayant un biais positif. Lorsque nous examinons la persistance de l'alpha ajusté pour le biais, nous montrons que les fonds dont la performance passée est négative continuent à fournir un alpha négatif. Le résultat est inversé pour les fonds ayant des performances passées positives. Dans l'analyse des déterminants, nous utilisons à la fois une approche par portefeuille et une approche par régression. Dans l'ensemble, les résultats montrent que les petits fonds, les fonds jeunes et les fonds dont les gestionnaires ont peu d'expérience ont un biais de transactions intérimaires plus important. La rotation impliquée par les flux de liquidité et les avoirs liquides ont des relations positives, statistiquement et économiquement significatives, avec le biais de transactions intérimaires. Enfin, les fonds les plus actifs présentent un biais positif élevé. Lorsque nous étudions les déterminants de l'alpha ajusté du biais, nous obtenons des résultats qui sont généralement cohérents avec la littérature antérieure. Plus précisément, nous constatons que les fonds dont la volatilité, la sélectivité, le taux de rotation, le taux de rotation lié aux flux, les liquidités et les dépenses sont les plus élevés affichent une performance ajustée inférieure. La performance est légèrement améliorée pour les fonds qui sont matures, de grande taille et dont les gestionnaires sont expérimentés. Troisièmement, nous examinons la robustesse de nos conclusions sur le biais de transactions intérimaires. Nous nous concentrons principalement sur le pourcentage important de fonds dont la performance est significativement modifiée par les nouvelles mesures SDF capitalisées dans le temps, ainsi que sur la capacité supérieure des mesures capitalisée par rapport aux mesures agrégées à atténuer le problème du biais de transactions intérimaires. Nos tests confirment que ces résultats sont robustes aux spécifications alternatives, aux différents choix méthodologiques et aux problèmes d'échantillons finis. / Recent research on mutual funds and hedge funds documents the importance of accounting for interim trading, as managers often trade within each month based on information signals or for liquidity reasons. This thesis examines the effects of the interim trading bias on the performance of a large cross section of actively managed open-ended U.S. equity mutual funds. It develops new interim-trading-bias-adjusted measures to address a range of questions in the context of mutual fund performance and the interim trading bias. First, using the stochastic discount factor (SDF) approach, we develop two new interim-trading-bias-adjusted measures. When daily fund returns are available, we propose a measure based on the time-compounding of daily alphas. When daily fund returns are not available, we can instead capture the interim investment opportunities with daily factor data. We develop the time-compounded SDF measure, which is an alternative measure to the time-averaged factor approach proposed by the literature. We show the theoretical relevance and equivalence of our time-compounded alpha and time-compounded SDF measures in capturing interim investment opportunities. Empirically, we document the importance of the interim trading bias by comparing alphas estimated with an unadjusted monthly measure with those estimated with bias-adjusted measures. We show that the mean bias across funds is not different from zero. However, more that 25% of the funds have statistically significant changes in performance when controlling for the bias. By comparison, two existing measures detect few significant biases. Second, we study the persistence of the interim trading bias in fund performance and its relation with various fund attributes, investment styles and market indicators. We examine these aspects not only for the interim trading bias, but also for the performance adjusted for interim trading. We find that the interim trading bias is persistent in the long run only for funds with positive bias. When we look at the persistence of the bias-adjusted alpha, we show that funds with negative past performance continue to deliver negative alpha. The pattern is reversed for funds with positive past performance. In the determinant analysis, we use both a portfolio approach and a regression approach. Overall, the results show that small funds, young funds and funds with low manager tenure have larger interim trading bias. Flow-driven turnover and cash holdings have statistically and economically significant positive relations with the interim trading bias. Finally, funds that are the most active exhibit a high positive bias. When we investigate the determinants of the interim-trading-bias-adjusted alpha, we obtain results that are generally consistent with the prior literature. Specifically, we find that funds with the highest volatility, selectivity, turnover, flow-driven turnover, cash holdings and expenses exhibit lower adjusted performance. Performance is somewhat improved for funds that are mature, large and with experienced managers. Third, we examine the robustness of our findings on the interim trading bias. The main focuses are on the important percentage of funds that have their performance significantly changed by the new time-compounded SDF measures and on the superior ability of time-compounded measures over time-averaged measures in alleviating the problem of interim trading bias. Our checks confirm that these findings are robust to alternative specifications, various methodological choices and finite sample issues.

Page generated in 0.0536 seconds