• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 9
  • 3
  • Tagged with
  • 47
  • 47
  • 27
  • 26
  • 17
  • 11
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Prévention, contre-prévention et analyse d’impact : le cas du clonage de carte de débit

Wolfshagen, Paul-Alexandre 04 1900 (has links)
Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un crime économique en expansion contre lequel plusieurs organisations ont entrepris des actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des mesures de prévention situationnelle appliquées dans les succursales d’un commerce de détail et leur impact sur le processus décisionnel des délinquants impliquées dans le clonage de cartes de débit. Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide d’analyses de séries chronologiques interrompues. En complément des analyses statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des fraudes par carte de débit. Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis. Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans le choix de la cible, un déplacement dans le type de crime commis et, finalement, un déplacement tactique. Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et les déplacements générés, d’autres études s’avèrent nécessaires. / Context and objectives. Each year, economic crimes generate important economic and social losses. Many enterprises, including private enterprises, collaborated and introduced initiatives in order to combat this criminality. Fraud using automated payment cards is a crime in full expansion against which many organizations have taken actions. The objective of this dissertation is, on one hand, to improve the knowledge on the impact of preventive measures implemented in the branches of a retailer and, on the other hand, to estimate their impact on the criminal decision-making process. Methodology. The effect of preventive measures is assessed through interrupted time series analysis. In addition, members the retailer security staff were interviewed and a review of event reports associated with debit card fraud was performed. Results. The preventive measures were associated to various results. Depending on the preventive measure, one can observe either an increase or a decrease in the number of crimes performed. It is also observed that some measures have resulted in tactical and spatial displacements. Some offenders have also started to commit other types of crimes. Conclusion. The results suggest that the preventive measures implemented had a significant preventive effect on debit card crimes. However, the presence of many types of displacement shows that the offenders have adjusted to those preventive measures. In order to properly document this type of crime and associated displacements, additional studies are necessary.
32

Sur les tests lisses d'ajustement dans le context des series chronologiques

Tagne Tatsinkou, Joseph Francois 12 1900 (has links)
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)). / Several phenomena from natural and social sciences rely on distribution’s assumption among which the normal distribution is the most popular. The validity of that assumption is useful to setting up forecast intervals or for checking model adequacy of the underlying model. The goodness-of-fit procedures are tools to assess the adequacy of the data’s underlying assumptions. Autoregressive and moving average time series models are often used to find the mathematical behavior of these phenomena from natural and social sciences, and especially in the finance area. These models are based on some assumptions including normality distribution for the innovations. Normality assumption may be helpful for some testing procedures. Furthermore, stronger conclusions can be drawn from the adjusted model if the white noise can be assumed Gaussian. In this work, goodness-of-fit tests for checking normality for the innovations from autoregressive moving average time series models are proposed for both univariate and multivariate cases (ARMA and VARMA models). In our first project, a smooth test of normality for ARMA time series models with unknown mean based on a least square type estimator is proposed. We derive the asymptotic null distribution of the test statistic. The result here is an extension of the paper of Ducharme et Lafaye de Micheaux (2004), where they supposed the mean known and equal to zero. We use the least square type estimator proposed by Brockwell et Davis (1991, section 10.8) and we provide a rigorous proof that it is almost surely convergent. We show that the covariance matrix of the test is nonsingular regardless if the mean is known. We have also studied a data driven approach for the choice of the dimension of the family and we gave a finite sample approximation of the null distribution. Finally, the finite and asymptotic sample properties of the proposed test statistic are studied via a small simulation study. In the second project, goodness-of-fit tests for checking multivariate normality for the innovations from vector autoregressive moving average time series models are proposed. Since these time series models may rely on a large number of parameters, structured parameterization of the functional form is allowed. The methodology also relies on the smooth test paradigm and on families of orthonormal functions with respect to the multivariate normal density. It is shown that the smooth tests converge to convenient chi-square distributions asymptotically. An important special case makes use of Hermite polynomials, and in that situation we demonstrate that the tests are invariant under linear transformations. We observed that the test is not invariant under linear transformations with Legendre polynomials. A consistent data driven method is discussed to choose the family order from the data. In a simulation study, exact levels are studied and the empirical powers of the smooth tests are compared to those of other methods. Finally, an application to real data is provided, specifically on Canadian labour market data and annual global temperature. These works were exposed at several meeting (see for example Tagne, Duchesne and Lafaye de Micheaux (2013a, 2013b, 2014) for more details). A paper based on the first project is submitted in a refereed journal (see Duchesne, Lafaye de Micheaux et Tagne (2016)).
33

Effet de l’assouplissement du contrôle des armes à feu sur les homicides au Canada entre 1974 et 2016

Viau-Deschênes, Catherine 08 1900 (has links)
No description available.
34

La réaction sociale sur Twitter après un attentat terroriste : une analyse de l’attaque de Berlin

Caron, Marie-Jacques 08 1900 (has links)
No description available.
35

Self-organizing map quantization error approach for detecting temporal variations in image sets / Détection automatisée de variations critiques dans des séries temporelles d'images par algorithmes non-supervisées de Kohonen

Wandeto, John Mwangi 14 September 2018 (has links)
Une nouvelle approche du traitement de l'image, appelée SOM-QE, qui exploite quantization error (QE) des self-organizing maps (SOM) est proposée dans cette thèse. Les SOM produisent des représentations discrètes de faible dimension des données d'entrée de haute dimension. QE est déterminée à partir des résultats du processus d'apprentissage non supervisé du SOM et des données d'entrée. SOM-QE d'une série chronologique d'images peut être utilisé comme indicateur de changements dans la série chronologique. Pour configurer SOM, on détermine la taille de la carte, la distance du voisinage, le rythme d'apprentissage et le nombre d'itérations dans le processus d'apprentissage. La combinaison de ces paramètres, qui donne la valeur la plus faible de QE, est considérée comme le jeu de paramètres optimal et est utilisée pour transformer l'ensemble de données. C'est l'utilisation de l'assouplissement quantitatif. La nouveauté de la technique SOM-QE est quadruple : d'abord dans l'usage. SOM-QE utilise un SOM pour déterminer la QE de différentes images - typiquement, dans un ensemble de données de séries temporelles - contrairement à l'utilisation traditionnelle où différents SOMs sont appliqués sur un ensemble de données. Deuxièmement, la valeur SOM-QE est introduite pour mesurer l'uniformité de l'image. Troisièmement, la valeur SOM-QE devient une étiquette spéciale et unique pour l'image dans l'ensemble de données et quatrièmement, cette étiquette est utilisée pour suivre les changements qui se produisent dans les images suivantes de la même scène. Ainsi, SOM-QE fournit une mesure des variations à l'intérieur de l'image à une instance dans le temps, et lorsqu'il est comparé aux valeurs des images subséquentes de la même scène, il révèle une visualisation transitoire des changements dans la scène à l'étude. Dans cette recherche, l'approche a été appliquée à l'imagerie artificielle, médicale et géographique pour démontrer sa performance. Les scientifiques et les ingénieurs s'intéressent aux changements qui se produisent dans les scènes géographiques d'intérêt, comme la construction de nouveaux bâtiments dans une ville ou le recul des lésions dans les images médicales. La technique SOM-QE offre un nouveau moyen de détection automatique de la croissance dans les espaces urbains ou de la progression des maladies, fournissant des informations opportunes pour une planification ou un traitement approprié. Dans ce travail, il est démontré que SOM-QE peut capturer de très petits changements dans les images. Les résultats confirment également qu'il est rapide et moins coûteux de faire la distinction entre le contenu modifié et le contenu inchangé dans les grands ensembles de données d'images. La corrélation de Pearson a confirmé qu'il y avait des corrélations statistiquement significatives entre les valeurs SOM-QE et les données réelles de vérité de terrain. Sur le plan de l'évaluation, cette technique a donné de meilleurs résultats que les autres approches existantes. Ce travail est important car il introduit une nouvelle façon d'envisager la détection rapide et automatique des changements, même lorsqu'il s'agit de petits changements locaux dans les images. Il introduit également une nouvelle méthode de détermination de QE, et les données qu'il génère peuvent être utilisées pour prédire les changements dans un ensemble de données de séries chronologiques. / A new approach for image processing, dubbed SOM-QE, that exploits the quantization error (QE) from self-organizing maps (SOM) is proposed in this thesis. SOM produce low-dimensional discrete representations of high-dimensional input data. QE is determined from the results of the unsupervised learning process of SOM and the input data. SOM-QE from a time-series of images can be used as an indicator of changes in the time series. To set-up SOM, a map size, the neighbourhood distance, the learning rate and the number of iterations in the learning process are determined. The combination of these parameters that gives the lowest value of QE, is taken to be the optimal parameter set and it is used to transform the dataset. This has been the use of QE. The novelty in SOM-QE technique is fourfold: first, in the usage. SOM-QE employs a SOM to determine QE for different images - typically, in a time series dataset - unlike the traditional usage where different SOMs are applied on one dataset. Secondly, the SOM-QE value is introduced as a measure of uniformity within the image. Thirdly, the SOM-QE value becomes a special, unique label for the image within the dataset and fourthly, this label is used to track changes that occur in subsequent images of the same scene. Thus, SOM-QE provides a measure of variations within the image at an instance in time, and when compared with the values from subsequent images of the same scene, it reveals a transient visualization of changes in the scene of study. In this research the approach was applied to artificial, medical and geographic imagery to demonstrate its performance. Changes that occur in geographic scenes of interest, such as new buildings being put up in a city or lesions receding in medical images are of interest to scientists and engineers. The SOM-QE technique provides a new way for automatic detection of growth in urban spaces or the progressions of diseases, giving timely information for appropriate planning or treatment. In this work, it is demonstrated that SOM-QE can capture very small changes in images. Results also confirm it to be fast and less computationally expensive in discriminating between changed and unchanged contents in large image datasets. Pearson's correlation confirmed that there was statistically significant correlations between SOM-QE values and the actual ground truth data. On evaluation, this technique performed better compared to other existing approaches. This work is important as it introduces a new way of looking at fast, automatic change detection even when dealing with small local changes within images. It also introduces a new method of determining QE, and the data it generates can be used to predict changes in a time series dataset.
36

Contributions à la statistique des processus et à l'estimation fonctionnelle

Rachdi, Mustapha 07 November 2006 (has links) (PDF)
Dans cette HDR, notre objectif premier est de présenter nos travaux sur la statistique non paramétrique des processus stochastiques et sur l'estimation fonctionnelle. Plutôt que de vouloir insister sur les détails mathématiques de nos résultats, que l'on pourra toujours retrouver dans les articles correspondants, nous avons choisi de les présenter d'une façon synthétique. Sans prétendre à l'exhaustivité, nous nous sommes attachés à indiquer les articles historiques et à faire un choix de certains articles nous paraîssant les plus intéressants. Les techniques non paramétriques ont pris une importance de plus en plus grande depuis une trentaine d'années dans la recherche en statistique mathématique. Le nombre toujours croissant d'articles sur ce thème en témoigne. Il faut également signaler que le développement des moyens informatiques et la puissance actuelle de calcul des ordinateurs permettent d'élargir toujours plus le champs d'application de ces méthodes. Ce document est organisé en respectant des thématiques. En fait, nous avons classifié l'ensemble de nos travaux en six chapitres. Dans chacun de ces chapitres, nous indiquons les travaux concernés avant un bref historique, ensuite nous résumons les principaux résultats, les idées sous-jacentes, et ce qui a motivé ce travail. Nous scindons nos recherches en deux grandes parties : d'abord, l'estimation fonctionnelle et la statistique des processus en dimension finie (chapitres 1, 2, 3 et 4), et puis, l'analyse statistique des données fonctionnelles (chapitre 5). Le dernier chapitre de ce mémoire est le fruit de nos investigations avec l'équipe de Telecom Lille 1 sur la modélisation statistique du canal de transmission à 60 GHz dans les milieux confinés.
37

Comparaison qualitative et quantitative de modèles proie-prédateur à des données chronologiques en écologie

Jost, Christian 11 December 1998 (has links) (PDF)
La présente thèse compare deux modèles proie-prédateur avec les dynamiques temporelles de<br />systèmes observés en laboratoire ou sur le terrain. Le premier modèle suppose que la réponse<br />fonctionnelle dépend uniquement de la densité des proies, et présente donc les caractéristiques<br />des modèles où les abondances sont contrôlées "de haut en bas". Au contraire, le second<br />modèle considère que la réponse fonctionnelle dépend du ratio entre densité de proies et densité de prédateurs, et inclut donc une régulation des abondances "de bas en haut".L'analyse<br />mathématique de ce modèle ratio-dépendant fait apparaître des dynamiques de bord riches avec<br />de multiples attracteurs, dont l'un est l'origine (extinction des deux populations). La différence<br />majeure entre les deux modèles réside dans leurs prédictions sur la réponse d'un système à<br />l'enrichissement: déstabilisation, et augmentation de l'abondance à l'équilibre du prédateur<br />uniquement dans le modèle proie-dépendant, stabilité inchangée et augmentation de l'abondance<br />à l'équilibre des proies et des prédateurs dans le modèle ratio-dépendant. La comparaison de ces<br />deux modèles avec le modèle verbal PEG (décrivant la dynamique planctonique dans les lacs)<br />montre que tous deux peuvent rendre compte de cette dynamique si des changements saisonniers<br />sont introduits dans les valeurs d'un ou plusieurs paramètres. Nous comparons quantitativement<br />les deux modèles avec différents types de séries temporelles de systèmes proie-prédateur<br />par la méthode du maximum de vraisemblance. Les données concernant des protozoaires ou<br />des arthropodes (en laboratoire) sont en général mieux décrites par le modèle proie-dépendant.<br />Pour l'interaction phytoplancton-zooplancton, les deux modèles conviennent aussi bien l'un que<br />l'autre. Le fait d'utiliser les deux modèles peut alors permettre de détecter parmi les prédictions<br />celles qui sont sensibles à la prédateur-dépendance et, éventuellement, d'orienter des recherches<br />supplémentaires.
38

Analyse des bornes extrêmes et le contrôle des armes à feu : l’effet de la Loi C-68 sur les homicides au Québec

Linteau, Isabelle 12 1900 (has links)
Contexte et objectifs. En 1995, le gouvernement canadien a promulgué la Loi C-68, rendant ainsi obligatoire l’enregistrement de toutes les armes à feu et affermissant les vérifications auprès des futurs propriétaires. Faute de preuves scientifiques crédibles, le potentiel de cette loi à prévenir les homicides est présentement remis en question. Tout en surmontant les biais potentiels retrouvés dans les évaluations antérieures, l’objectif de ce mémoire est d’évaluer l’effet de la Loi C-68 sur les homicides au Québec entre 1974 et 2006. Méthodologie. L’effet de la Loi C-68 est évalué à l’aide d’une analyse des bornes extrêmes. Les effets immédiats et graduels de la Loi sont évalués à l’aide de 372 équations. Brièvement, il s’agit d’analyses de séries chronologiques interrompues où toutes les combinaisons de variables indépendantes sont envisagées afin d’éviter les biais relatifs à une spécification arbitraire des modèles. Résultats. L’introduction de la Loi C-68 est associée à une baisse graduelle des homicides commis à l’aide d’armes longues (carabines et fusils de chasse), sans qu’aucun déplacement tactique ne soit observé. Les homicides commis par des armes à feu à autorisation restreinte ou prohibées semblent influencés par des facteurs différents. Conclusion. Les résultats suggèrent que le contrôle des armes à feu est une mesure efficace pour prévenir les homicides. L’absence de déplacement tactique suggère également que l’arme à feu constitue un important facilitateur et que les homicides ne sont pas tous prémédités. D’autres études sont toutefois nécessaires pour clairement identifier les mécanismes de la Loi responsables de la baisse des homicides. / Context and objectives. Laws with extensive background checks and making mandatory the registration of all guns have been adopted by some governments to prevent firearms-related homicides. On the other hand, methodological flaws found in previous evaluations question the potential of such laws to prevent gun homicides. By taking into account previous limitations, the main objective of this study is to estimate the effect of Bill C-68 on homicides committed in the Province of Quebec, Canada, between 1974 and 2006. Methodology. Using extreme bounds analysis, we assess the effect of Bill C-68 on homicides. Estimates of the immediate and gradual effects of the law are based on a total of 372 equations. More precisely, interrupted time series analyses were conducted, using all possible variable combinations, in order to overcome biases related to model specification. Results. We found that Bill C-68 is associated with a significant and gradual decline in homicides committed with a long gun (either a riffle or a shotgun). The substitution effects are not robust with respect to different model specifications. Patterns observed in homicides involving restricted or prohibited firearms suggest that they are influenced by different factors, not considered in our analyses. Conclusion. Results suggest that enhanced firearm control laws are an effective tool to prevent homicides. The lack of tactical displacement supports the concept of firearm as a crime facilitator and suggests that all homicides are not carefully planned. Other studies are however needed to pinpoint law provisions accountable for the decrease in homicides.
39

Prévention, contre-prévention et analyse d’impact : le cas du clonage de carte de débit

Wolfshagen, Paul-Alexandre 04 1900 (has links)
Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un crime économique en expansion contre lequel plusieurs organisations ont entrepris des actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des mesures de prévention situationnelle appliquées dans les succursales d’un commerce de détail et leur impact sur le processus décisionnel des délinquants impliquées dans le clonage de cartes de débit. Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide d’analyses de séries chronologiques interrompues. En complément des analyses statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des fraudes par carte de débit. Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis. Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans le choix de la cible, un déplacement dans le type de crime commis et, finalement, un déplacement tactique. Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et les déplacements générés, d’autres études s’avèrent nécessaires. / Context and objectives. Each year, economic crimes generate important economic and social losses. Many enterprises, including private enterprises, collaborated and introduced initiatives in order to combat this criminality. Fraud using automated payment cards is a crime in full expansion against which many organizations have taken actions. The objective of this dissertation is, on one hand, to improve the knowledge on the impact of preventive measures implemented in the branches of a retailer and, on the other hand, to estimate their impact on the criminal decision-making process. Methodology. The effect of preventive measures is assessed through interrupted time series analysis. In addition, members the retailer security staff were interviewed and a review of event reports associated with debit card fraud was performed. Results. The preventive measures were associated to various results. Depending on the preventive measure, one can observe either an increase or a decrease in the number of crimes performed. It is also observed that some measures have resulted in tactical and spatial displacements. Some offenders have also started to commit other types of crimes. Conclusion. The results suggest that the preventive measures implemented had a significant preventive effect on debit card crimes. However, the presence of many types of displacement shows that the offenders have adjusted to those preventive measures. In order to properly document this type of crime and associated displacements, additional studies are necessary.
40

Structures et aléa en finance, une approche par la complexité algorithmique de l'information

Ma, Lin 23 November 2010 (has links) (PDF)
Cette thèse s'interroge sur les notions d'aléa et de régularité des variations boursières. Nous démontrons sur le plan théorique, la compatibilité des principales théories financières (cf. efficience informationnelle, finance comportementale et approche conventionnaliste) avec l'impossibilité de battre la stratégie "buy and hold". Cette impossibilité est confirmée par les études statistiques dans la mesure où les régularités identifiées dans les séries financières ne permettent pas de prédire le sens des variations futures. Les modèles économétriques disponibles à présent offrent souvent un "hit score" insuffisant (<60%) pour réussir des tentatives fructueuses de "market timing". Une contribution de ce travail se trouve dans l'introduction du concept de complexité algorithmique en finance. Une approche générale est proposée pour estimer la "complexité de Kolmogorov" des séries de rentabilités: après un processus "discrétisation-effacement", des algorithmes de compression sans perte sont utilisés pour détecter des structures régulières qui ne sont pas toujours visibles aux yeux des tests statistiques. En étudiant le degré d'aléa des principaux marchés internationaux à une fréquence "tick-by-tick", on constate une complexité plus élevée pour Euronext-Paris que pour le NYSE et le NASDAQ. Nous expliquons ce résultat par une auto-corrélation plus élevée des volatilités inter-journalières aux Etats-Unis qu'en France. L'inefficacité de "market timing" étant soutenue aussi bien par les théories financières que par les observations empiriques, nous définissons la notion de "battre le marché" dans ce sens spécifique avec un modèle mathématique qui s'inscrit dans le cadre de la calculabilité.

Page generated in 0.1378 seconds