• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 231
  • 105
  • 23
  • 2
  • 1
  • Tagged with
  • 354
  • 138
  • 118
  • 95
  • 76
  • 71
  • 70
  • 63
  • 52
  • 47
  • 37
  • 34
  • 34
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

La déformation de la loi d'Okun au cours du cycle économique / The asymmetry of Okun's law along business cycle

Stephan, Gaëtan 01 December 2014 (has links)
Cette thèse met en évidence l'aspect asymétrique de l'élasticité du chômage par rapport à la production aux Etats-Unis et en Europe. Une première partie de ce travail empirique revient sur une estimation de la valeur ``authentique'' du coefficient d'Okun corrigé du biais de publication. Nous employons une méta-analyse et nous montrons qu'un aspect important de déformation du coefficient réside dans le choix de la variable endogène. Dans le second chapitre, nous montrons que loi d'Okun implique dans ses fondements un comportement procyclique de la productivité générée par la pratique de la rétention de main d’œuvre. L'économie américaine présente une déformation significative du coefficient d’Okun au cours des récessions et reprises depuis le milieu des années 80, quand la productivité a perdu son caractère procyclique. En Allemagne et en France, à l’inverse, le coefficient d'Okun se déforme peu au cours du cycle. Cette spécificité européenne pourrait venir de la nature des fluctuations macroéconomiques. Ainsi, l'économie allemande enregistre des chocs macroéconomiques avec un fort caractère transitoire et persistant. Néanmoins, le reste des pays européens présentent des chocs de nature permanente. Dans le dernier chapitre, nous montrons que le PIB réel et le chômage peuvent partager une relation de cointégration asymétrique qui semble être associée à une courbe de Phillips asymétrique. / This dissertation aims at study asymmetry of elasticity of unemployment to output in United States and Europe. In the first chapter, we employ a meta-analysis to identify the ``authentic'' value of Okun's law coefficient beyond publication bias. We show that measure of Okun's coefficient depends about the choice of endogenous variable. In the second chapter, it appears that Okun's law implies a labor productivity procyclical as firm practices labor hoarding. According our estimates, Okun's law presents significative evidence of asymmetry during recessions and recoveries especially since the mid-1980s when positive correlation between real GDP and productivity has disappeared. Conversely, in France and Germany, we observe a more stable Okun's coefficient along business cycle. The nature of macroeconomic movements in Europe could potentially explain these findings. Germany supports transitory and persistent movements in real GDP and unemployment. Nevertheless, macroeconomic movements in other European countries are driven by permanents shocks. In last chapter, we investigate asymmetric cointregration in a sample of European countries (France, Germany and United Kingdom), we show that asymmetric cointegration between real GDP and unemployment seems to be linked to an asymmetric Phillip's curve.
252

Dynamiques neuro-gliales locales et réseaux complexes pour l'étude de la relation entre structure et fonction cérébrales. / Local neuro-glial dynamics and complex networks for the study of the relationship between brain structure and brain function

Garnier, Aurélie 17 December 2015 (has links)
L'un des enjeux majeurs actuellement en neurosciences est l'élaboration de modèles computationnels capables de reproduire les données obtenues expérimentalement par des méthodes d'imagerie et permettant l'étude de la relation structure-fonction dans le cerveau. Les travaux de modélisation dans cette thèse se situent à deux échelles et l'analyse des modèles a nécessité le développement d'outils théoriques et numériques dédiés. À l'échelle locale, nous avons proposé un nouveau modèle d'équations différentielles ordinaires générant des activités neuronales, caractérisé et classifié l'ensemble des comportements générés, comparé les sorties du modèle avec des données expérimentales et identifié les structures dynamiques sous-tendant la génération de comportements pathologiques. Ce modèle a ensuite été couplé bilatéralement à un nouveau compartiment modélisant les dynamiques de neuromédiateurs et leurs rétroactions sur l'activité neuronale. La caractérisation théorique de l'impact de ces rétroactions sur l'excitabilité a été obtenue en formalisant l'étude des variations d'une valeur de bifurcation en un problème d'optimisation sous contrainte. Nous avons enfin proposé un modèle de réseau, pour lequel la dynamique des noeuds est fondée sur le modèle local, incorporant deux couplages: neuronal et astrocytaire. Nous avons observé la propagation d'informations différentiellement selon ces deux couplages et leurs influences cumulées, révélé les différences qualitatives des profils d'activité neuronale et gliale de chaque noeud, et interprété les transitions entre comportements au cours du temps grâce aux structures dynamiques identifiées dans les modèles locaux. / A current issue in neuroscience is to elaborate computational models that are able to reproduce experimental data recorded with various imaging methods, and allowing us to study the relationship between structure and function in the human brain. The modeling objectives of this work are two scales and the model analysis need the development of specific theoretical and numerical tools. At the local scale, we propose a new ordinary differential equations model generating neuronal activities. We characterize and classify the behaviors the model can generate, we compare the model outputs to experimental data and we identify the dynamical structures of the neural compartment underlying the generation of pathological patterns. We then extend this approach to a new neuro-glial mass model: a bilateral coupling between the neural compartment and a new one modeling the impact of astrocytes on neurotransmitter concentrations and the feedback of these concentrations on neural activity is developed. We obtain a theoretical characterization of these feedbacks impact on neuronal excitability by formalizing the variation of a bifurcation value as a problem of optimization under constraint. Finally, we propose a network model, which node dynamics are based on the local neuro-glial mass model, embedding a neuronal coupling and a glial one. We numerically observe the differential propagations of information according to each of these coupling types and their cumulated impact, we highlight qualitatively distinct patterns of neural and glial activities of each node, and link the transitions between behaviors with the dynamical structures identified in the local models.
253

Applications of artificial intelligence in e-commerce and finance / Applications de l'intelligence artifcielle dans le commerce électronique et la finance

Jiao, Yang 07 September 2018 (has links)
L'Intelligence Artificielle est présente dans tous les aspects de notre vie à l'ère du Big Data. Elle a entraîné des changements révolutionnaires dans divers secteurs, dont le commerce électronique et la finance. Dans cette thèse, nous présentons quatre applications de l'IA qui améliorent les biens et services existants, permettent l'automatisation et augmentent considérablement l'efficacité de nombreuses tâches dans les deux domaines. Tout d'abord, nous améliorons le service de recherche de produits offert par la plupart des sites de commerce électronique en utilisant un nouveau système de pondération des termes pour mieux évaluer l'importance des termes dans une requête de recherche. Ensuite, nous construisons un modèle prédictif sur les ventes quotidiennes en utilisant une approche de prévision des séries temporelles et tirons parti des résultats prévus pour classer les résultats de recherche de produits afin de maximiser les revenus d'une entreprise. Ensuite, nous proposons la difficulté de la classification des produits en ligne et analysons les solutions gagnantes, consistant en des algorithmes de classification à la pointe de la technologie, sur notre ensemble de données réelles. Enfin, nous combinons les compétences acquises précédemment à partir de la prédiction et de la classification des ventes basées sur les séries temporelles pour prédire l'une des séries temporelles les plus difficiles mais aussi les plus attrayantes : le stock. Nous effectuons une étude approfondie sur chaque titre de l'indice S&P 500 en utilisant quatre algorithmes de classification à la pointe de la technologie et nous publions des résultats très prometteurs / Artificial Intelligence has penetrated into every aspect of our lives in this era of Big Data. It has brought revolutionary changes upon various sectors including e-commerce and finance. In this thesis, we present four applications of AI which improve existing goods and services, enables automation and greatly increase the efficiency of many tasks in both domains. Firstly, we improve the product search service offered by most e-commerce sites by using a novel term weighting scheme to better assess term importance within a search query. Then we build a predictive model on daily sales using a time series forecasting approach and leverage the predicted results to rank product search results in order to maximize the revenue of a company. Next, we present the product categorization challenge we hold online and analyze the winning solutions, consisting of the state-of-the-art classification algorithms, on our real dataset. Finally, we combine skills acquired previously from time series based sales prediction and classification to predict one of the most difficult but also the most attractive time series: stock. We perform an extensive study on every single stocks of S&P 500 index using four state-of-the-art classification algorithms and report very promising results
254

Développement de la perception de la parole et du traitement auditif des modulations spectro-temporelles : études comportementales chez le nourrisson / Development of speech perception and spectro-temporal modulation processing : behavioral studies in infants

Cabrera, Laurianne 22 November 2013 (has links)
Cette thèse vise à caractériser le traitement auditif des informations spectro-temporelles impliquées dans la perception de la parole au cours du développement précoce. Dans ce but, les capacités de discrimination de contrastes phonétiques sont évaluées à l’aide de deux méthodes comportementales chez des enfants âgés de 6 et 10 mois. Les sons de parole sont dégradés par des « vocodeurs » conçus pour réduire sélectivement les modulations spectrales et/ou temporelles des stimuli phonétiquement contrastés.Les trois premières études de cette thèse montrent que les informations spectro-temporelles fines de la parole (les indices de modulation de fréquence et détails spectraux) ne sont pas nécessaires aux enfants français de 6 mois pour percevoir le trait phonétique de voisement et de lieu d’articulation. Comme pour les adultes français, les informations de modulation d’amplitude les plus lentes semblent suffire pour percevoir ces traits phonétiques. Les deux dernières études montrent cependant que les informations spectro-temporelles fines sont requises pour la discrimination de tons lexicaux (variations de hauteur liée au sens de mots monosyllabiques) chez les enfants français et taiwanais de 6 mois. De plus, ces études montrent l’influence de l’expérience linguistique sur le poids perceptif de ces informations de modulations dans la discrimination de la parole chez les jeunes adultes et les enfants français et taiwanais de 10 mois.Ces études montrent que les mécanismes auditifs spectro-temporels sous-tendant la perception de la parole sont efficaces dès l’âge de 6 mois, mais que ceux-ci vont être influencés par l’exposition à l’environnement linguistique dans les mois suivants. Enfin, cette thèse discute les implications de ces résultats vis-à-vis de l’implantation précoce des enfants sourds profonds qui reçoivent des informations de modulations dégradées. / The goal of this doctoral research was to characterize the auditory processing of the spectro-temporal cues involved in speech perception during development. The ability to discriminate phonetic contrasts was evaluated in 6- and 10-month-old infants using two behavioral methods. The speech sounds were processed by “vocoders” designed to reduce selectively the spectro-temporal modulation content of the phonetically contrasting stimuli. The first three studies showed that fine spectro-temporal modulation cues (the frequency-modulation cues and spectral details) are not required for the discrimination of voicing and place of articulation in French-learning 6-month-old infants. As for French adults, 6-month-old infants can discriminate those phonetic features on the sole basis of the slowest amplitude-modulation cues. The last two studies revealed that the fine modulation cues are required for lexical-tone (pitch variations related to the meaning of one-syllable word) discrimination in French- and Mandarin-learning 6-month-old infants. Furthermore, the results showed the influence of linguistic experience on the perceptual weight of these modulation cues in both young adults and 10-month-old infants learning either French or Mandarin.This doctoral research showed that the spectro-temporal auditory mechanisms involved in speech perception are efficient at 6 months of age, but will be influenced by the linguistic environment during the following months. Finally, the present research discusses the implications of these findings for cochlear implantation in profoundly deaf infants who have only access to impoverished speech modulation cues.
255

Iterative and Expressive Querying for Big Data Series / Requêtes itératives et expressives pour l’analyse de grandes séries de données

Gogolou, Anna 15 November 2019 (has links)
Les séries temporelles deviennent omniprésentes dans la vie moderne et leur analyse de plus en plus difficile compte tenu de leur taille. L’analyse des grandes séries de données implique des tâches telles que l’appariement de modèles (motifs), la détection d’anomalies, l’identification de modèles fréquents, et la classification ou le regroupement (clustering). Ces tâches reposent sur la notion de similarité. La communauté scientifique a proposé de plusieurs techniques, y compris de nombreuses mesures de similarité pour calculer la distance entre deux séries temporelles, ainsi que des techniques et des algorithmes d’indexation correspondants, afin de relever les défis de l’évolutivité lors de la recherche de similarité.Les analystes, afin de s’acquitter efficacement de leurs tâches, ont besoin de systèmes d’analyse visuelle interactifs, extrêmement rapides, et puissants. Lors de la création de tels systèmes, nous avons identifié deux principaux défis: (1) la perception de similarité et (2) la recherche progressive de similarité. Le premier traite de la façon dont les gens perçoivent des modèles similaires et du rôle de la visualisation dans la perception de similarité. Le dernier point concerne la rapidité avec laquelle nous pouvons redonner aux utilisateurs des mises à jour des résultats progressifs, lorsque les temps de réponse du système sont longs et non interactifs. Le but de cette thèse est de répondre et de donner des solutions aux défis ci-dessus.Dans la première partie, nous avons étudié si différentes représentations visuelles (Graphiques en courbes, Graphiques d’horizon et Champs de couleur) modifiaient la perception de similarité des séries temporelles. Nous avons essayé de comprendre si les résultats de recherche automatique de similarité sont perçus de manière similaire, quelle que soit la technique de visualisation; et si ce que les gens perçoivent comme similaire avec chaque visualisation s’aligne avec différentes mesures de similarité. Nos résultats indiquent que les Graphes d’horizon s’alignent sur des mesures qui permettent des variations de décalage temporel ou d’échelle (i.e., ils promeuvent la déformation temporelle dynamique). En revanche, ils ne s’alignent pas sur des mesures autorisant des variations d’amplitude et de décalage vertical (ils ne promeuvent pas des mesures basées sur la z-normalisation). L’inverse semble être le cas pour les Graphiques en courbes et les Champs de couleur. Dans l’ensemble, nos travaux indiquent que le choix de la visualisation affecte les schémas temporels que l’homme considère comme similaires. Donc, la notion de similarité dans les séries temporelles est dépendante de la technique de visualisation.Dans la deuxième partie, nous nous sommes concentrés sur la recherche progressive de similarité dans de grandes séries de données. Nous avons étudié la rapidité avec laquelle les premières réponses approximatives et puis des mises à jour des résultats progressifs sont détectées lors de l’exécuton des requêtes progressives. Nos résultats indiquent qu’il existe un écart entre le moment où la réponse finale s’est trouvée et le moment où l’algorithme de recherche se termine, ce qui entraîne des temps d’attente gonflés sans amélioration. Des estimations probabilistes pourraient aider les utilisateurs à décider quand arrêter le processus de recherche, i.e., décider quand l’amélioration de la réponse finale est improbable. Nous avons développé et évalué expérimentalement une nouvelle méthode probabiliste qui calcule les garanties de qualité des résultats progressifs de k-plus proches voisins (k-NN). Notre approche apprend d’un ensemble de requêtes et construit des modèles de prédiction basés sur deux observations: (i) des requêtes similaires ont des réponses similaires; et (ii) des réponses progressives renvoyées par les indices de séries de données sont de bons prédicteurs de la réponse finale. Nous fournissons des estimations initiales et progressives de la réponse finale. / Time series are becoming ubiquitous in modern life, and given their sizes, their analysis is becoming increasingly challenging. Time series analysis involves tasks such as pattern matching, anomaly detection, frequent pattern identification, and time series clustering or classification. These tasks rely on the notion of time series similarity. The data-mining community has proposed several techniques, including many similarity measures (or distance measure algorithms), for calculating the distance between two time series, as well as corresponding indexing techniques and algorithms, in order to address the scalability challenges during similarity search.To effectively support their tasks, analysts need interactive visual analytics systems that combine extremely fast computation, expressive querying interfaces, and powerful visualization tools. We identified two main challenges when considering the creation of such systems: (1) similarity perception and (2) progressive similarity search. The former deals with how people perceive similar patterns and what the role of visualization is in time series similarity perception. The latter is about how fast we can give back to users updates of progressive similarity search results and how good they are, when system response times are long and do not support real-time analytics in large data series collections. The goal of this thesis, that lies at the intersection of Databases and Human-Computer Interaction, is to answer and give solutions to the above challenges.In the first part of the thesis, we studied whether different visual representations (Line Charts, Horizon Graphs, and Color Fields) alter time series similarity perception. We tried to understand if automatic similarity search results are perceived in a similar manner, irrespective of the visualization technique; and if what people perceive as similar with each visualization aligns with different automatic similarity measures and their similarity constraints. Our findings indicate that Horizon Graphs promote as invariant local variations in temporal position or speed, and as a result they align with measures that allow variations in temporal shifting or scaling (i.e., dynamic time warping). On the other hand, Horizon Graphs do not align with measures that allow amplitude and y-offset variations (i.e., measures based on z-normalization), because they exaggerate these differences, while the inverse seems to be the case for Line Charts and Color Fields. Overall, our work indicates that the choice of visualization affects what temporal patterns humans consider as similar, i.e., the notion of similarity in time series is visualization-dependent.In the second part of the thesis, we focused on progressive similarity search in large data series collections. We investigated how fast first approximate and then updates of progressive answers are detected, while we execute similarity search queries. Our findings indicate that there is a gap between the time the final answer is found and the time when the search algorithm terminates, resulting in inflated waiting times without any improvement. Computing probabilistic estimates of the final answer could help users decide when to stop the search process. We developed and experimentally evaluated using benchmarks, a new probabilistic learning-based method that computes quality guarantees (error bounds) for progressive k-Nearest Neighbour (k-NN) similarity search results. Our approach learns from a set of queries and builds prediction models based on two observations: (i) similar queries have similar answers; and (ii) progressive best-so-far (bsf) answers returned by the state-of-the-art data series indexes are good predictors of the final k-NN answer. We provide both initial and incrementally improved estimates of the final answer.
256

Causalité des marchés financiers : asymétrie temporelle et réseaux multi-échelles de meneurs et suiveurs / Causality in financial markets : time reversal asymmetry and multi-scale lead-lag networks

Cordi, Marcus 07 March 2019 (has links)
Cette thèse a pour but d’explorer la structure de causalité qui sous-tend les marchés financiers. Elle se concentre sur l’inférence multi-échelle de réseaux de causalité entre investisseurs dans deux bases de données contenant les identifiants des investisseurs. La première partie de cette thèse est consacrée à l’étude de la causalité dans les processus de Hawkes. Ces derniers définissent la façon dont l’activité d’un investisseur (par exemple) dépend du passé; sa version multivariée inclut l’interaction entre séries temporelles, à toutes les échelles. Les résultats principaux de cette partie est que l’estimation avec le maximum de vraisemblance des paramètres du processus changent remarquablement peu lorsque la direction du temps est inversée, tant pour les processus univariés que pour les processus multivariés avec noyaux d’influence mutuelle symétriques, et que la causalité effective de ces processus dépend de leur endogénéité. Cela implique qu’on ne peut pas utiliser ce type de processus pour l’inférence de causalité sans précautions. L’utilisation de tests statistiques permet la différentiation des directions du temps pour des longues données synthétiques. Par contre, l’analyse de données empiriques est plus problématique: il est tout à fait possible de trouver des données financières pour lesquelles la vraisemblance des processus de Hawkes est plus grande si le temps s’écoule en sens inverse. Les processus de Hawkes multivariés avec noyaux d’influence asymétriques ne sont pas affectés par une faible causalité. Il est malheureusement difficile de les calibrer aux actions individuelles des investisseurs présents dans nos bases de données, pour deux raisons. Nous avons soigneusement vérifie que l’activité des investisseurs est hautement non-stationaire et qu’on ne peut pas supposer que leur activité est localement stationaire, faute de données en nombre suffisant, bien que nos bases de données contiennent chacune plus de 1 million de transactions. Ces problèmes sont renforcés par le fait que les noyaux dans les processus de Hawkes codent l’influence mutuelle des investisseurs pour toutes les échelles de temps simultanément. Afin de pallier ce problème, la deuxième partie de cette thèse se concentre sur la causalité entre des échelles de temps spécifiques. Un filtrage supplémentaire est obtenu en réduisant le nombre effectif d’investisseurs grâce aux Réseaux Statistiquement Validés. Ces derniers sont utilisés pour catégoriser les investisseurs, qui sont groupés selon leur degré de la synchronisation de leurs actions (achat, vente, neutre) dans des intervalles déterminés à une échelle temporelle donnée. Cette partie propose une méthode pour l’inférence de réseaux de meneurs et suiveurs déterminés à une échelle de temps donnée dans le passé et à une autre dans le futur. Trois variations de cette méthode sont étudiées. Cette méthode permet de caractériser la causalité d’une façon novatrice. Nous avons comparé l’asymétrie temporelle des actions des investisseurs et celle de la volatilité des prix, et conclure que la structure de causalité des investisseurs est considérablement plus complexe que celle de la volatilité. De façon attendue, les investisseurs institutionnels, dont l’impact sur l’évolution des prix est beaucoup plus grand que celui des clients privés, ont une structure causale proche de celle de la volatilité: en effet, la volatilité, étant une quantité macroscopique, est le résultat d’une aggrégation des comportements de tous les investisseurs, qui fait disparaître la structure causale des investisseurs privés. / This thesis aims to uncover the underlyingcausality structure of financial markets by focusing onthe inference of investor causal networks at multipletimescales in two trader-resolved datasets.The first part of this thesis is devoted to the causal strengthof Hawkes processes. These processes describe in a clearlycausal way how the activity rate of e.g. an investor dependson his past activity rate; its multivariate version alsomakes it possible to include the interactions between theagents, at all time scales. The main result of this part isthat the classical MLE estimation of the process parametersdoes not vary significantly if the arrow of time is reversedin the univariate and symmetric multivariate case.This means that blindly trusting univariate and symmetricmultivariate Hawkes processes to infer causality from datais problematic. In addition, we find a dependency betweenthe level of causality in the process and its endogeneity.For long time series of synthetic data, one can discriminatebetween the forward and backward arrows of time byperforming rigorous statistical tests on the processes, butfor empirical data the situation is much more ambiguous,as it is entirely possible to find a better Hawkes process fitwhen time runs backwards compared to forwards.Asymmetric Hawkes processes do not suffer from veryweak causality. Fitting them to the individual traders’ actionsfound in our datasets is unfortunately not very successfulfor two reasons. We carefully checked that tradersactions in both datasets are highly non-stationary, andthat local stationarity cannot be assumed to hold as thereis simply not enough data, even if each dataset containsabout one million trades. This is also compounded by thefact that Hawkes processes encode the pairwise influenceof traders for all timescales simultaneously.In order to alleviate this problem, the second part ofthis thesis focuses on causality between specific pairs oftimescales. Further filtering is achieved by reducing theeffective number of investors; Statistically Validated Networksare applied to cluster investors into groups basedon the statistically high synchronisation of their actions(buy, sell or neutral) in time intervals of a given timescale.This part then generalizes single-timescale lead-lag SVNsto lead-lag networks between two timescales and introducesthree slightly different methodsThese methods make it possible to characterize causalityin a novel way. We are able to compare the time reversalasymmetry of trader activity and that of price volatility,and conclude that the causal structure of trader activity isconsiderably more complex than that of the volatility for agiven category of traders. Expectedly, institutional traders,whose impact on prices is much larger than that of retailclients, have a causality structure that is closer to that ofvolatility. This is because volatility, being a macroscopicquantity, aggregates the behaviour of all types of traders,thereby hiding the causality structure of minor players.
257

Cost-Sensitive Early classification of Time Series / Classification précoce de séries temporelles lorsque reporter la décision est coûteux

Dachraoui, Asma 31 January 2017 (has links)
Dans de nombreux domaines dans lesquels les mesures ou les données sont disponibles séquentiellement, il est important de savoir décider le plus tôt possible, même si c’est à partir d’informations encore incomplètes. C’est le cas par exemple en milieu hospitalier où l’apprentissage de règles de décision peut se faire à partir de cas complètement documentés, mais où, devant un nouveau patient, il peut être crucial de prendre une dé- cision très rapidement. Dans ce type de contextes, un compromis doit être optimisé entre la possibilité d’arriver à une meilleure décision en attendant des mesures supplé- mentaires, et le coût croissant associé à chaque nouvelle mesure. Nous considérons dans cette thèse un nouveau cadre général de classification précoce de séries temporelles où le coût d’attente avant de prendre une décision est explicitement pris en compte lors de l’optimisation du compromis entre la qualité et la précocité de prédictions. Nous proposons donc un critère formel qui exprime ce compromis, ainsi que deux approches différentes pour le résoudre. Ces approches sont intéressantes et apportent deux propriétés désirables pour décider en ligne : (i) elles estiment en ligne l’instant optimal dans le futur où une minimisation du critère peut être prévue. Elles vont donc au-delà des approches classiques qui décident d’une façon myope, à chaque instant, d’émettre une prédiction ou d’attendre plus d’information, (ii) ces approches sont adaptatives car elles prennent en compte les propriétés de la série temporelle en entrée pour estimer l’instant optimal pour la classifier. Des expériences extensives sur des données contrôlées et sur des données réelles montrent l’intérêt de ces approches pour fournir des prédictions précoces, fiables, adaptatives et non myopes, ce qui est indispensable dans de nombreuses applications. / Early classification of time series is becoming increasingly a valuable task for assisting in decision making process in many application domains. In this setting, information can be gained by waiting for more evidences to arrive, thus helping to make better decisions that incur lower misclassification costs, but, meanwhile, the cost associated with delaying the decision generally increases, rendering the decision less attractive. Making early predictions provided that are accurate requires then to solve an optimization problem combining two types of competing costs. This thesis introduces a new general framework for time series early classification problem. Unlike classical approaches that implicitly assume that misclassification errors are cost equally and the cost of delaying the decision is constant over time, we cast the the problem as a costsensitive online decision making problem when delaying the decision is costly. We then propose a new formal criterion, along with two approaches that estimate the optimal decision time for a new incoming yet incomplete time series. In particular, they capture the evolutions of typical complete time series in the training set thanks to a segmentation technique that forms meaningful groups, and leverage these complete information to estimate the costs for all future time steps where data points still missing. These approaches are interesting in two ways: (i) they estimate, online, the earliest time in the future where a minimization of the criterion can be expected. They thus go beyond the classical approaches that myopically decide at each time step whether to make a decision or to postpone the call one more time step, and (ii) they are adaptive, in that the properties of the incoming time series are taken into account to decide when is the optimal time to output a prediction. Results of extensive experiments on synthetic and real data sets show that both approaches successfully meet the behaviors expected from early classification systems.
258

Anticipative alpha-stable linear processes for time series analysis : conditional dynamics and estimation / Processus linéaires alpha-stables anticipatifs pour l'analyse des séries temporelles : dynamique conditionnelle et estimation

Fries, Sébastien 04 December 2018 (has links)
Dans le contexte des séries temporelles linéaires, on étudie les processus strictement stationnaires dits anticipatifs dépendant potentiellement de tous les termes d'une suite d'erreurs alpha-stables indépendantes et identiquement distribuées.On considère en premier lieu les processus autoregressifs (AR) et l'on montre que des moments conditionnels d'ordres plus élevés que les moments marginaux existent dès lors que le polynôme caractéristique admet au moins une racine à l'intérieur du cercle unité.Des formules fermées sont obtenues pour les moments d'ordre un et deux dans des cas particuliers.On montre que la méthode des moindres carrés permet d'estimer une représentation all-pass causale du processus dont la validité peut être vérifiée par un test de type portmanteau, et l'on propose une méthode fondée sur des propriétés d'extreme clustering pour retrouver la représentation AR originale.L'AR(1) stable anticipatif est étudié en détails dans le cadre des vecteurs stables bivariés et des formes fonctionnelles pour les quatre premiers moments conditionnels sont obtenues pour toute paramétrisation admissible.Lors des évènements extrêmes, il est montré que ces moments deviennent équivalents à ceux d'une distribution de Bernoulli chargeant deux évolutions futures opposées: accroissement exponentiel ou retour aux valeurs centrales.Des résultats parallèles sont obtenus pour l'analogue de l'AR(1) en temps continu, le processus d'Ornstein-Uhlenbeck stable anticipatif.Pour des moyennes mobiles alpha-stables infinies, la distribution conditionnelle des chemins futurs sachant la trajectoire passée est obtenue lors des évènements extrêmes par le biais d'une nouvelle représentation des vecteurs stables multivariés sur des cylindres unités relatifs à des semi-normes.Contrairement aux normes, ce type de représentation donne lieu à une propriété de variations régulières des queues de distribution utilisable dans un contexte de prévision, mais tout vecteur stable n'admet pas une telle représentation. Une caractérisation est donnée et l'on montre qu'un chemin fini de moyenne mobile alpha-stable sera représentable pourvu que le processus soit "suffisamment anticipatif".L'approche s'étend aux processus résultant de la combinaison linéaire de moyennes mobiles alpha-stables, et la distribution conditionnelle des chemins futurs s'interprète naturellement en termes de reconnaissance de formes. / In the framework of linear time series analysis, we study a class of so-called anticipative strictly stationary processes potentially depending on all the terms of an independent and identically distributed alpha-stable errors sequence.Focusing first on autoregressive (AR) processes, it is shown that higher order conditional moments than marginal ones exist provided the characteristic polynomials admits at least one root inside the unit circle. The forms of the first and second order moments are obtained in special cases.The least squares method is shown to provide a consistent estimator of an all-pass causal representation of the process, the validity of which can be tested by a portmanteau-type test. A method based on extreme residuals clustering is proposed to determine the original AR representation.The anticipative stable AR(1) is studied in details in the framework of bivariate alpha-stable random vectors and the functional forms of its first four conditional moments are obtained under any admissible parameterisation.It is shown that during extreme events, these moments become equivalent to those of a two-point distribution charging two polarly-opposite future paths: exponential growth or collapse.Parallel results are obtained for the continuous time counterpart of the AR(1), the anticipative stable Ornstein-Uhlenbeck process.For infinite alpha-stable moving averages, the conditional distribution of future paths given the observed past trajectory during extreme events is derived on the basis of a new representation of stable random vectors on unit cylinders relative to semi-norms.Contrary to the case of norms, such representation yield a multivariate regularly varying tails property appropriate for prediction purposes, but not all stable vectors admit such a representation.A characterisation is provided and it is shown that finite length paths of a stable moving average admit such representation provided the process is "anticipative enough".Processes resulting from the linear combination of stable moving averages are encompassed, and the conditional distribution has a natural interpretation in terms of pattern identification.
259

Gestion efficace et partage sécurisé des traces de mobilité / Efficient management and secure sharing of mobility traces

Ton That, Dai Hai 29 January 2016 (has links)
Aujourd'hui, les progrès dans le développement d'appareils mobiles et des capteurs embarqués ont permis un essor sans précédent de services à l'utilisateur. Dans le même temps, la plupart des appareils mobiles génèrent, enregistrent et de communiquent une grande quantité de données personnelles de manière continue. La gestion sécurisée des données personnelles dans les appareils mobiles reste un défi aujourd’hui, que ce soit vis-à-vis des contraintes inhérentes à ces appareils, ou par rapport à l’accès et au partage sûrs et sécurisés de ces informations. Cette thèse adresse ces défis et se focalise sur les traces de localisation. En particulier, s’appuyant sur un serveur de données relationnel embarqué dans des appareils mobiles sécurisés, cette thèse offre une extension de ce serveur à la gestion des données spatio-temporelles (types et operateurs). Et surtout, elle propose une méthode d'indexation spatio-temporelle (TRIFL) efficace et adaptée au modèle de stockage en mémoire flash. Par ailleurs, afin de protéger les traces de localisation personnelles de l'utilisateur, une architecture distribuée et un protocole de collecte participative préservant les données de localisation ont été proposés dans PAMPAS. Cette architecture se base sur des dispositifs hautement sécurisés pour le calcul distribué des agrégats spatio-temporels sur les données privées collectées. / Nowadays, the advances in the development of mobile devices, as well as embedded sensors have permitted an unprecedented number of services to the user. At the same time, most mobile devices generate, store and communicate a large amount of personal information continuously. While managing personal information on the mobile devices is still a big challenge, sharing and accessing these information in a safe and secure way is always an open and hot topic. Personal mobile devices may have various form factors such as mobile phones, smart devices, stick computers, secure tokens or etc. It could be used to record, sense, store data of user's context or environment surrounding him. The most common contextual information is user's location. Personal data generated and stored on these devices is valuable for many applications or services to user, but it is sensitive and needs to be protected in order to ensure the individual privacy. In particular, most mobile applications have access to accurate and real-time location information, raising serious privacy concerns for their users.In this dissertation, we dedicate the two parts to manage the location traces, i.e. the spatio-temporal data on mobile devices. In particular, we offer an extension of spatio-temporal data types and operators for embedded environments. These data types reconcile the features of spatio-temporal data with the embedded requirements by offering an optimal data presentation called Spatio-temporal object (STOB) dedicated for embedded devices. More importantly, in order to optimize the query processing, we also propose an efficient indexing technique for spatio-temporal data called TRIFL designed for flash storage. TRIFL stands for TRajectory Index for Flash memory. It exploits unique properties of trajectory insertion, and optimizes the data structure for the behavior of flash and the buffer cache. These ideas allow TRIFL to archive much better performance in both Flash and magnetic storage compared to its competitors.Additionally, we also investigate the protect user's sensitive information in the remaining part of this thesis by offering a privacy-aware protocol for participatory sensing applications called PAMPAS. PAMPAS relies on secure hardware solutions and proposes a user-centric privacy-aware protocol that fully protects personal data while taking advantage of distributed computing. For this to be done, we also propose a partitioning algorithm an aggregate algorithm in PAMPAS. This combination drastically reduces the overall costs making it possible to run the protocol in near real-time at a large scale of participants, without any personal information leakage.
260

Variations temporelles et géographiques des méningites à pneumocoque et effet du vaccin conjugué en France / Temporal and geographic variation of pneumococcal meningitis and effect of conjugate vaccine in France

Alari, Anna 30 November 2018 (has links)
Streptococcus pneumoniae est une bactérie cocci gram positif commensale de la flore oropharyngée qui colonise le rhinopharynx de l’Homme et dont près de 100 sérotypes sont connus. Les nourrissons et les jeunes enfants représentent son réservoir principal. Le pneumocoque peut être à l’origine d’infections graves, telles que la méningite, les bactériémies et la pneumonie, et moins graves mais plus courantes comme la sinusite et l’otite moyenne aiguë. Deux vaccins anti-pneumococciques conjugués ont été introduits en France : le PCV7 (couvrant contre 7 sérotypes) en 2003 et le PCV13 (couvrant contre 6 sérotypes supplémentaires) en 2010. L’objectif général de ce travail de thèse est d’évaluer l’impact des politiques vaccinales sur les infections invasives à pneumocoque en France, en s’intéressant principalement aux évolutions temporelles et géographiques des plus graves : les méningites à pneumocoque (MP). Un premier travail a étudié les dynamiques temporelles des MP sur la période 2001–2014 afin d’identifier l’impact de l’introduction des vaccins conjugués. Des techniques statistiques de modélisations adaptées aux séries temporelles ont été utilisées. Les résultats de ce travail retrouvent des effets rapportés dans la littérature : une réduction des MP à sérotypes vaccinaux mais aussi une augmentation des MP dues aux sérotypes non inclus dans le vaccin (phénomène de « remplacement sérotypique »).Par conséquent, le premier bénéfice, à l’échelle de la population générale, de l’introduction de cette vaccination a été observé seulement onze ans après l’introduction du PCV7, et principalement suite à l’introduction du PCV13 en 2010, avec une diminution de 25% du nombre de MP en 2014. La composante géographique a ensuite été prise en compte afin d’étudier le rôle de la de couverture vaccinale dans la variabilité des MP annuelles entre les départements sur la période 2001-2016. Les résultats confirment l’efficacité des deux formulations du vaccin sur les MP dues aux sérotypes vaccinaux et suggèrent une certaine homogénéité de cet effet entre les différents départements. Inversement, le remplacement sérotypique a été confirmé mais uniquement suite à l’introduction de la première formulation du vaccin et ces effets présentent une répartition géographique hétérogène et variable. La variabilité de la couverture vaccinale entre les départements n’explique pas celle observée dans le nombre de MP, ce qui suggère l’intervention d’autres facteurs tel que la densité géographique. Enfin, une modélisation dynamique, permettant de prendre en compte des aspects fondamentaux des dynamiques de transmission et d’infection du pneumocoque non intégrés dans les méthodes de modélisation statique, a été proposée afin de prédire l’impact de différentes stratégies de vaccination pour les adultes de 65 ans et plus et ainsi évaluer leur rapport coût-utilité. / Streptococcus pneumoniae is a Gram-positive commensal bacterium of the oropharyngeal flora usually colonizing human’s rhino pharynx, of which almost 100 serotypes are known. Infants and young children constitute its main reservoir. Pneumococcus may cause serious infections, such as meningitis, bacteremia and pneumonia, or less serious but more common such as sinusitis and acute otitis media (AOM). Two conjugate pneumococcal vaccines have been introduced in France: PCV7 (covering 7 serotypes) in 2003 and PCV13 (covering 6 additional serotypes) in 2010. The overall objective of this thesis is to assess the impact of vaccination policy on invasive pneumococcal diseases in France, by focusing on temporal and geographical trends of the most serious of them: pneumococcal meningitis (PM). An initial study of PMs temporal dynamics over the 2011-2014 period assessed the impact of conjugate vaccines’ introduction. Statistical modeling techniques were used for time series analysis. The results confirm the effects found in literature: a reduction of vaccine serotypes PMs but at the same time an increase of PMs, due to non-vaccine serotypes (effect of “serotype replacement”). Therefore, the first benefit of vaccine introduction at population scale has been observed no less than 11 years after PCV7 introduction, and then principally after PCV13 was introduced in 2010, with a 25% decrease in PMs in 2014. The geographic component was then implemented to analyze the role of vaccine coverage in annual PM variability between geographic units over the 2001-2016 period. Results confirm the effectiveness of both vaccine compositions on vaccine serotypes PMs and suggest homogeneity of this effect among geographic units. Conversely the serotype replacement has been confirmed only after the first vaccine composition was introduced and presents a variable and heterogeneous geographical repartition. Variability in vaccine coverage among geographic units doesn’t explain the differences in PMs, which could suggest the role of others factors such as demographic density. Finally, a dynamic modeling capable of taking into consideration fundamental aspects of pneumococcus transmission and infection mechanisms not integrated in static modeling has been proposed in order to predict the impacts of different vaccination strategies for 65+ adults and therefore assess their cost-utility ratios.

Page generated in 0.048 seconds