341 |
Réduction de dimension pour l'animation de personnagesTournier, Maxime 17 October 2011 (has links) (PDF)
Dans cette thèse, nous proposons de nouvelles representations pourles poses du mouvement humain, apprises sur des données réelles, envue d'une synthèse de nouveaux mouvements en temps-réel. Dans unepremière partie, nous exploitons une méthode statistique adaptée auxgroupes de Lie (Analyse en Géodésiques Principales, AGP) pour approximerla variété des poses d'un sujet en mouvement, à partir de donnéesde capture de mouvement. Nous proposons un algorithme de cinématiqueinverse exploitant cette paramétrisation réduite, permettantpar construction de synthétiser des poses proches des données initiales.Nous validons ce modèle cinématique par une application à la compressionde données de mouvements, dans laquelle seules quelques trajectoiresdes extrémités des membres du squelettes permettent de reconstruireune bonne approximation de l'ensemble des données initiales.Dans une deuxième partie, nous étendons cette approche à l'animationphysique de personnages virtuels. La paramétrisation réduitepar AGP fournit les coordonnées généralisées de la formulation Lagrangiennede la mécanique. Nous dérivons un intégrateur temporelexplicite basé sur les intégrateurs variationnels. Afin d'en améliorer lastabilité, nous proposons un modèle d'amortissement inspiré de l'algorithmede Levenberg-Marquardt. Nous présentons également une méthodegéométrique d'apprentissage des limites angulaires sur des donnéesde capture de mouvement, ainsi que leur application comme contraintescinématiques.Dans une troisième partie, nous abordons le problème du contrôledu mouvement. En formulant les étapes de la simulation physique d'unepart, et de la cinématique inverse d'autre part comme deux programmesquadratiques, nous proposons un algorithme de pseudo-contrôle parinterpolation des métriques, permettant un compromis intuitif entre simulationphysique non-contrôlée, et cinématique inverse. Cette approchefaisant intervenir des forces externes, nous proposons une formulationalternative, utilisant uniquement les forces associées à la paramétrisationréduite des poses. Cette formulation est obtenue par relaxationdu problème théorique de contrôle sous contraintes unilatérales, nonconvexe,en un programme quadratique convexe. Ces algorithmes sontévalués sur des contrôleurs d'équilibre et de suivi.
|
342 |
Imprégnation forcée de fluides dans des milieux poreuxDelbos, Aline 21 October 2010 (has links) (PDF)
Cette thèse porte sur les capacités d'extraction d'une mousse déposée sur un support poreux dans le but d'y déloger un contaminant ayant imprégné la porosité. Nous avons donc considéré l'imprégnation forcée de fluides dans un pore unique, étudiée pour deux cas particuliers : (i) lors de l'impact d'une goutte de liquide à l'aplomb d'un pore unique vertical cette situation visant à modéliser l'imprégnation du poreux par le contaminant, et (ii) lors de l'aspiration d'une mou sse liquide à travers le pore qui illustre la compétition d'aspiration entre la mousse et le poreux. Dans chaque cas, le diamètre du pore est inférieur à celui des gouttes ou des bulles.Pour le premier cas, nous nous sommes intéressés au volume et à la profondeur d'imprégnation pour des surfaces hydrophiles et hydrophobes. Nous établissons les diagrammes d'imprégnation en fonction du diamètre du pore et de la vitesse d'impact et un travail de modélisation nous permet de déterminer les limites entre les différentes régions de ces digrammes.Pour le second cas, nous montrons que lors de l'aspiration, la mousse entre dans le pore uniquement dans un domaine bien déterminé dans le diagramme fraction liquide, rapport de taille pore/bulle et débit d'aspiration. En dehors de ce domaine, l'aspiration peut faire entrer soit le gaz seul, soit le liquide seul. La encore, un travail de modélisation nous permet de prédire les limites des différentes zones du diagramme. Dans une dernière partie, nous revenons à un problème pratique d'imprégnation sur support textile et quantifions les capacités d'extraction d'une mousse dans cette configuration dans le but d'y déloger un contaminant
|
343 |
Analyse d'incertitudes et aide à la décision : contributions méthodologiques, techniques et managériales aux études d'ingénierie et de R&DPasanisi, Alberto 22 May 2014 (has links) (PDF)
Le message principal livré par ce manuscrit, qui constitue également le fil conducteur des activités techniques et scientifiques que nous présentons ici, est que les méthodes mathématiques avancées, en particulier issues du domaine des probabilités et de la statistique sont nécessaires pour la résolution de problèmes d'ingénierie. Ces méthodes, pas toujours familières aux ingénieurs, deviennent de plus en plus indispensables dans la pratique industrielle. Le but de ce document est aussi de résumer et de mettre en valeur un certain nombre de contributions personnels a différents problèmes techniques et scientifiques. Ces contributions sont de nature différente : (i) méthodologiques : adapter, améliorer ou critiquer l'utilisation de méthodes et outils, (ii) techniques : résoudre des problèmes spécifiques d'ingénierie, (iii) managériales : organiser et piloter projets et activités de R&D. Malgré la diversité des méthodes, outils, domaines d'application et nature des contributions apportées, tous ces travaux restent dans un cadre cohérent : l'amélioration des études d'ingénierie à l'aide de méthodes mathématiques avancées pour traiter les incertitudes et recommander des décisions.
|
344 |
Le droit à la non-discrimination "raciale" : instruments juridiques et politiques publiques / The right to non-discrimination on "racial" or "ethnic" grounds : regulations and policiesBenichou, Sarah 01 December 2011 (has links)
Depuis une dizaine d'années, la France s'est engagée dans la lutte contre les discriminations « raciales », c'est-à-dire contre les discriminations fondées sur l'origine réelle ou supposée des personnes à partir de leurs caractéristiques visibles. Sous l'influence du droit communautaire, la législation a intégré une définition objectivée de la discrimination : la discrimination directe n'est plus nécessairement rattachée à une intention discriminatoire ; et, la discrimination indirecte permet de vérifier que les mesures neutres en apparence n'ont pas d'impact particulièrement désavantageux sur les populations d'origine immigrée et ultra-marine. L'égalité de traitement est ainsi concrètement appréciée afin de mieux garantir l'effectivité du droit à la non-discrimination "raciale". L'aménagement de la preuve doit favoriser la juridictionnalisation des discriminations, étape nécessaire pour légitimer et préciser le droit rénové. Mais, la définition exigeante de la discrimination impose aussi des obligations positives aux personnes morales qui doivent réviser l’ensemble des critères et procédures de sélection. Elle implique une implication des pouvoirs publics, notamment via la HALDE, pour soutenir les victimes, diffuser le droit antidiscriminatoire et promouvoir le droit à l'égalité de traitement. Pour autant, l'articulation de ces nouvelles définitions n'est pas évidente sur le terrain des discriminations « raciales ». Il faut notamment tenir compte du contexte politique français et de l’interdit constitutionnel (art. 1er), qui induisent une protection maximale du droit à la non-discrimination « raciale » et interdisent la catégorisation des origines. Enfin, la recherche de l’effectivité du droit à la non-discrimination « raciale » semble être mise à mal par l’émergence du paradigme utilitariste de la diversité. / For the past ten years, France has been committed to fighting "racial" discrimination, specifically discriminations based on the genuine or surmised origin of individuals based on their physical features or names. Influenced by EU Law, French legislation has adopted an objective definition of discrimination: direct discrimination that no longer requires an underlying intention to discriminate. Indirect discrimination serves to ensure that otherwise neutral measures do not have a deleterious effect on immigrant and Caribbean populations. Equal treatment can therefore be objectively appraised, which reinforces the effectiveness of the right not to be discriminated against. The admissibility of evidence must evolve to bring more discrimination cases to trial, which is a prerequisite to endow anti-discrimination law with more legitimacy and clarity. At the same time, a strict definition of discrimination creates positive obligations for legal entities to review their selection criteria and processes. It calls for a commitment among public authorities, including through HALDE, to support victims, to raise awareness of anti-discrimination law, and to promote the right to equal treatment. Nevertheless, implementing theses definitions is challenging, specifically in the context of “racial” discrimination. The French background, as well as the Constitutional ban on all discrimination (art. 1), which fully guarantees the right not to be discriminated against on racial grounds and bans the collection of ethnic data, must both be taken into account. Finally, the effectiveness of the right not to be discriminated against may be undermined by the rise of a utilitarian view of diversity.
|
345 |
Characterization & detection of electric Arc Detection in Low-Voltage IEC Networks / Caractérisation et détection d’arcs électriques dans un réseau basse tension IECVasile, Costin 12 April 2018 (has links)
Contexte & Motivation:Les installations électriques des bâtiments se détériorent au fil du temps et leur gravité et leur taux de détérioration dépendent de facteurs environnementaux (chaleur, humidité, réactions chimiques corrosives et vieillies isolations) ou d'actions externes indésirables telles que la manipulation humaine erronée, qui conduit à des charges ou des câbles/réseaux endommagés.L'European Fire Academy (EFA) et de nombreuses compagnies d'assurance indiquent que 25% des incendies de bâtiments sont d'origine électrique. Ces incendies peuvent être déclenchés par des circuits surchargés, des court-circuits, des courants de fuite à la terre, des surtensions et / ou des défauts d'arc électrique dans les connexions et les câbles.Les protections électriques classiques telles que les disjoncteurs et les disjoncteurs différentiels offrent une protection insuffisante. Par exemple, en cas de défauts d'arcs en série, la valeur du courant de défaut d'arc reste inférieure à la valeur du courant nominal, car elle est limitée par la résistance du carbone généré par le défaut d'arc. Dans ce cas, toute protection existante peut détecter ce type de faute.Détection de défaut d'arc : approche de traitement du signalDans le cadre de ce travail, l'objectif a été de détecter chaque instant d'arc, ce qui, pour un réseau alternatif, permettrait d'identifier correctement chaque arc dans chaque demi-cycle de réseau où il se produit.En fonction de la caractéristique numérique utilisée à des fins de détection, nous avons introduit différentes classes de méthodes:• Caractéristiques énergétiques (bandes étroite et large bande)• Caractéristiques statistiques (moments statistiques, analyse de la corrélation etc.)• Caractéristiques basées sur un model (ex. modelés AR, ARMA etc.)• Caractéristiques data-driven (utiliser Phase Space Embedding pour les séries temporelles)Chaque approche a été testée et évaluée sur une base de données de signaux construite avec soin, capable de fournir la variabilité du monde réel, dans un cadre d'évaluation statistique qui permet de trouver des seuils appropriés et leurs plages associées. Il donne également des performances relatives, d'une fonctionnalité à l'autre, en fonction de la façon dont les plages de seuils couvrent tout l'espace des caractéristiques.Une approche prometteuse est montrée avec un résultat intermédiaire sur la figure 8. La configuration est plutôt courante, avec une charge résistive (R-Load) en fonctionnement normal, avec un gradateur allumé et ajouté dans la configuration et un arc persistant apparaissant dans le circuit.Il suffit d'analyser simplement la forme d'onde du courant 50 Hz, car même lors d'une simple inspection visuelle, il est difficile d'identifier l'origine du défaut d'arc et s'il est stable ou s'il s'éteint après (ou où). En mesurant correctement le bruit de défaut d'arc haute fréquence et en sélectionnant correctement la bande passante, nous parvenons à obtenir un signal beaucoup plus facile à traiter. L'arc est difficile à détecter en raison de la variation de l'intensité énergétique d'un réseau à l'autre (encore plus: pour un même réseau, ajouter / enlever des charges ou des rallonges modifie la distribution d'amplitude et de fréquence de l'arc). Par conséquent, nous exploitons le caractère aléatoire intrinsèque de l'arc, ce qui permet une variabilité suffisante d'une réalisation d'arc à une autre.En conclusion, nous proposons une nouvelle méthodologie de traitement du signal pour la détection des défauts d'arc, à mettre en œuvre dans un algorithme de produit AFDD. En outre, une autre approche est présentée, basée sur l'analyse de diagramme de phase, qui permet la séparation entre les arcs et les signaux de communication, ce qui est également un grand défi dans ce domaine. / Context & Motivation:Electrical installations in buildings deteriorate, over time and the severity and rate of deterioration depend on environmental factors (such as heat, humidity, corrosive chemical reactions and aging insulations) and unwanted external actions (such as human mishandling, that leads to damaged devices or cables/network).Caution is mandatory when handling electrical installations, seeing that potential hazards include electric shocks, burns, explosions and fire, if proper safety precautions are ignored or neglected. The European Fire Academy (EFA) and many property and casualty insurance companies report that 25% of building fires are electrical in origin. These fires can be triggered by overloaded circuits, short-circuits, earth leakage currents, overvoltage and/or electrical arc faults in connections and cables.Classical electrical protection such as circuit breakers and RCDs offer insufficient protection. For example, in case of series arc faults, the arc fault current value remains below the rated current value, since it is limited by the resistance of the carbon generated by the arc fault and by the load itself. In this case, no existing protection can detect such kind of fault.Arc Fault Detection: Signal Processing ApproachIn the context of this work, the objective has been to detect each instant of arcing, which for an AC network, would mean correctly identifying each arcing in each network half-cycle where it occurs.Depending on the numerical feature used for detection purposes, we introduced different classes of methods:• Energy-related features (narrow and wideband)• Statistical features (statistical moments, correlation analysis etc.)• Model-based features (using numerical models, such as AR, for example)• Data-driven features (using Phase Space Embedding for time series)Each approach has been tested & evaluated on a carefully constructed signal database, capable of supplying real-world variability, within a statistical evaluation framework which enables finding suitable thresholds and their appropriate ranges. It also gives relative performances, from one feature to another, based on how threshold ranges cover the entire feature space.A promising approach is shown with an intermediary result in Figure 9. The configuration is rather common, with a resistive load (R – Load) in normal operation, with a dimmer being turned on and added in the configuration and a persistent arc appearing in the circuit.Figure 9 Resistive load, dimmer and persistent arcing – processing result (example).Simply analyzing the 50Hz line current waveform is insufficient, as even at a simple visual inspection there is difficulty in identifying where the arc fault ignites and if it is a stable one, or if it extinguishes afterwards (or where). By correctly measuring the high frequency arc fault noise and with correct selection of the bandwidth, we manage to obtain a signal much easier to process further on. Arcing is inherently difficult to detect, due to high frequency energy intensity variation from one network to another (even more: for the same network, adding/removing loads or extension cords will change the amplitude and frequency distribution of the arc fault energy). Therefore, we exploit the intrinsic randomness of arcing, which enables sufficient variability from one arcing realization to another.To conclude, we propose a new signal processing methodology for arc fault detection, to be implemented in an AFDD product algorithm. Also, another approach is presented, based on phase diagram analysis, that allows the separation between the arcs and communication signals, which is also a great challenge in this field.
|
346 |
Nouvelles méthodes d'inférence de l'histoire démographique à partir de données génétiques / New methods for inference on demographic history from genetic dataMerle, Coralie 12 December 2016 (has links)
Cette thèse consiste à améliorer les outils statistiques adaptés à des modèles stochastiques de génétiques des populations et de développer des méthodes statistiques adaptées à des données génétiques de nouvelle génération. Pour un modèle paramétrique basé sur le coalescent, la vraisemblance en un point de l'espace des paramètres s'écrit comme la somme des probabilités de toutes les histoires (généalogies munies de mutations) possibles de l'échantillon observé. À l'heure actuelle, les meilleures méthodes d'inférence des paramètres de ce type de modèles sont les méthodes bayésiennes approchées et l'approximation de la fonction de vraisemblance.L'algorithme d'échantillonnage préférentiel séquentiel (SIS) estime la vraisemblance, en parcourant de manière efficace l'espace latent de ces histoires. Dans ce schéma, la distribution d'importance propose les histoires de l'échantillon observé les plus probables possibles. Cette technique est lourde en temps de calcul mais fournit des estimations par maximum de vraisemblance d'une grande précision.Les modèles que nous souhaitons inférer incluent des variations de la taille de la population. Les méthodes d'IS ne sont pas efficaces pour des modèles en déséquilibre car les distributions d'importance ont été développées pour une population de taille constante au cours du temps. Le temps de calcul augmente fortement pour la même précision de l'estimation de la vraisemblance. La première contribution de cette thèse a consisté à explorer l'algorithme SIS avec ré-échantillonnage (SISR). L'idée est de ré-échantillonner de façon à apprendre quelles sont les histoires proposées par la distribution d'importance qui seront les plus probables avant d'avoir terminé leur simulation et diminuer le temps de calcul. Par ailleurs, nous avons proposé une nouvelle distribution de ré-échantillonnage, tirant profit de l'information contenue dans la vraisemblance composite par paire de l'échantillon.Le développement récent des technologies de séquençage à haut débit a révolutionné la génération de données de polymorphisme chez de nombreux organismes. Les méthodes d'inférence classiques de maximum de vraisemblance ou basées sur le Sites Frequency Spectrum, adaptées à des jeux de données de polymorphisme génétique de quelques loci, supposent l'indépendance des généalogies des loci. Pour tirer parti de données beaucoup plus denses sur le génome, nous considérons la dépendance des généalogies sur des positions voisines du génome et modéliser la recombinaison génétique. Alors, la vraisemblance prend la forme d'une intégrale sur tous les graphes de recombinaison ancestraux possibles pour les séquences échantillonnées, un espace de bien plus grande dimension que l'espace des généalogies. Les méthodes d'inférence basées sur la vraisemblance ne peuvent plus être utilisées sans plus d'approximations. De nombreuses méthodes infèrent les changements historiques de la taille de la population mais ne considèrent pas la complexité du modèle ajusté. Même si certaines proposent un contrôle d'un potentiel sur-ajustement du modèle, à notre connaissance, aucune procédure de choix de modèle entre des modèles démographiques de complexité différente n'a été proposée à partir de longueurs de segments identiques. Nous nous concentrons sur un modèle de taille de population constante et un modèle de population ayant subit un unique changement de taille dans le passé. Puisque ces modèles sont emboîtés, la deuxième contribution de cette thèse a consisté à développer un critère de choix de modèle pénalisé basé sur la comparaison d'homozygotie haplotypique observée et théorique. Notre pénalisation, reposant sur des indices de sensibilité de Sobol, est liée à la complexité du modèle. Ce critère pénalisé de choix de modèle nous a permis de choisir entre un modèle de taille de population constante ou présentant un changement passé de la taille de la population sur des jeux de données simulés et sur un jeux de données de vaches. / This thesis aims to improve statistical methods suitable for stochastic models of population genetics and to develop statistical methods adapted to next generation sequencing data.Sequential importance sampling algorithms have been defined to estimate likelihoods in models of ancestral population processes. However, these algorithms are based on features of the models with constant population size, and become inefficient when the population size varies in time, making likelihood-based inferences difficult in many demographic situations. In the first contribution of this thesis, we modify a previous sequential importance sampling algorithm to improve the efficiency of the likelihood estimation. Our procedure is still based on features of the model with constant size, but uses a resampling technique with a new resampling probability distribution depending on the pairwise composite likelihood. We tested our algorithm, called sequential importance sampling with resampling (SISR) on simulated data sets under different demographic cases. In most cases, we divided the computational cost by two for the same accuracy of inference, in some cases even by one hundred. This work provides the first assessment of the impact of such resampling techniques on parameter inference using sequential importance sampling, and extends the range of situations where likelihood inferences can be easily performed.The recent development of high-throughput sequencing technologies has revolutionized the generation of genetic data for many organisms : genome wide sequence data are now available. Classical inference methods (maximum likelihood methods (MCMC, IS), methods based on the Sites Frequency Spectrum (SFS)) suitable for polymorphism data sets of some loci assume that the genealogies of the loci are independent. To take advantage of genome wide sequence data with known genome, we need to consider the dependency of genealogies of adjacent positions in the genome. Thus, when we model recombination, the likelihood takes the form of an integral over all possible ancestral recombination graph for the sampled sequences. This space is of much larger dimension than the genealogies space, to the extent that we cannot handle likelihood-based inference while modeling recombination without further approximations.Several methods infer the historical changes in the effective population size but do not consider the complexity of the demographic model fitted.Even if some of them propose a control for potential over-fitting, to the best of our knowledge, no model choice procedure between demographic models of different complexity have been proposed based on IBS segment lengths. The aim of the second contribution of this thesis is to overcome this lack by proposing a model choice procedure between demographic models of different complexity. We focus on a simple model of constant population size and a slightly more complex model with a single past change in the population size.Since these models are embedded, we developed a penalized model choice criterion based on the comparison of observed and predicted haplotype homozygosity.Our penalization relies on Sobol's sensitivity indices and is a form of penalty related to the complexity of the model.This penalized model choice criterion allowed us to choose between a population of constant size and a population size with a past change on simulated data sets and also on a cattle data set.
|
347 |
Conception et synthèse d’une matrice polymère thermoplastique pour l’obtention de matériaux composites recyclables, résistants au feu et utilisables dans l’industrie / Design and synthesis of a thermoplastic polymer matrix to obtain recyclable composite materials, fire resistant and that could be used in industryBier, Frédéric 20 February 2018 (has links)
De nouvelles matrices thermoplastiques à base de poly(méthacrylate de méthyle) (PMMA) pouvant entrer dans la composition de matériaux composites ont été synthétisées et caractérisées du point de vue de leur température de transition vitreuse (par calorimétrie différentielle à balayage) et de leur dégradation thermique (par analyse thermogravimétrique et par microcalorimétrie). La stratégie suivie était d’incorporer dans les chaînes de PMMA des unités de répétition comportant un groupement latéral phosphoré retardateur de flamme via une copolymérisation radicalaire du MMA avec un monomère phosphoré. Un ensemble de monomères phosphorés retardateurs de flamme ont été synthétisés à partir de l’oxyde de 9,10-dihydro-9-oxa-10-phosphaphenanthrène-10 (DOPO) en faisant varier la nature de la fonction polymérisable (styrénique, acrylique, méthacrylique), la nature de l’atome lié au phosphore (oxygène, carbone, azote) et la longueur du bras espaceur. Nous avons montré qu’en adaptant la structure et la quantité des unités de répétition phosphorées, la température de transition vitreuse du matériau était maintenue proche de celle du PMMA alors que la dégradation thermique des matériaux était déplacée vers de plus hautes températures. Comparativement les mélanges physiques de PMMA et de DOPO avec une même teneur en élément phosphore présentent une température de transition vitreuse significativement plus basse / Novel poly(methyl methacrylate) (PMMA) thermoplastic matrices which can be used in the elaboration of composite materials have been synthesized and characterized from the point of view of their glass transition temperature (by differential scanning calorimetry) and their thermal degradation (by thermogravimetric analysis and by pyrolysis combustion flow calorimetry). The strategy followed was to incorporate in the PMMA chains repeat units comprising a flame retardant phosphorous side group via a radical copolymerization of MMA with a phosphorus-containing monomer. A set of phosphorus-containing flame retardant monomers has been synthesized from 9,10-dihydro-9-oxa-10-phosphaphenanthrene-10 oxide (DOPO) by varying the nature of the polymerizable function (styrenic, acrylic, methacrylic), the nature of the atom bound to the phophore (oxygen, carbon, nitrogen) and the length of the spacer arm. We have shown that by adapting the structure and the quantity of the phosphorus repeating units, the glass transition temperature of the material was kept close to that of the PMMA while the thermal degradation of the materials was shifted to higher temperatures. Comparatively, physical blends of PMMA and DOPO with equivalent phosphorus contents exhibited significantly lower glass transition temperatures
|
348 |
On nonparametric techniques for analyzing nonstationary signals / statistiques avancees,estimation,detection,precipitation,modele de climat,methodes par apprentissageDe Souza, Douglas David Baptista 08 October 2013 (has links)
Dans l’analyse des signaux d’origine naturelle, nous sommes souvent confrontés à des situations où nous ne savons pas si un changement s’est produit, ni où le possible point de changement peut être localisé. Cependant, diverses méthodes en traitement du signal reposent implicitement sur une hypothèse de stationnarité, car le cas stationnaire est bien défini dans une perspective théorique. D’un autre côté, tous les processus du monde réel sont a priori non-stationnaires et, dans la majorité des cas, cette supposition se révèle vraie. Etant donné qu’il existe de nombreuses façons par lesquelles la propriété de stationnarité peut être enfreinte, différents tests de stationnarité ont été développés pour tester les différentes formes de non-stationnarité. Cette thèse se concentre sur la conception et l’amélioration des techniques qui peuvent être appliquées aux signaux environnementaux, plus spécifiquement, les signaux hydrométéorologiques. Les techniques qui ont été développées présentent certaines caractéristiques qui sont préférables pour tester les données environnementales (i.e. être non-parametrique, être capable d’extraire automatiquement les informations des données disponibles, être capable d’identifier un changement dans les moments statistiques du premier et du second ordre). Dans cette thèse, le test de stationnarité et la détection de point de changement ont été abordés séparément: les tests de stationnarité rejettent la stationnarité de tout l’intervalle d’observation, tandis que pour détecter les points de changement, nous testons les signaux pour les quels la stationnarité a déjà été rejetée. Dans cette thèse, de nombreuses contributions et de nouvelles approches de ces sujets sont proposées. La dernière partie de la thèse consiste à appliquer toutes les approaches développées sur des données environnementales. Les données ont été générées par le Canadian Regional Climate Model (CRCM), un modéle très réaliste qui prend en compte de nombreuses interactions physiques complexes.La cohérence des résultats obtenus confirme le potentiel des approches proposées au regard des approches concurrentes. / In the analysis of the signals of natural origin, we are often confronted with situations where we do not know if a change occurred, or where the possible point of change can be located(localized). However, diverse methods in signal processing rest(base) implicitly on a hypothesis of stationarity, because the still case is defined well in a theoretical prospect(perspective). On the other hand, all the processes of the real world are a priori non-still and, in the majority of the cases, this supposition shows itself true. Given that there are numerous manners by which the property of stationarity can be broken, various tests of stationarity were developed to test the various forms of non-stationarity. This thesis(theory) concentrates on the conception(design)
|
349 |
Comportement thermique des barrages en béton : amélioration des modèles d'analyses physico-statistiques des mesures de déplacements / Thermal behaviour of concrete dams : improvement of physico-statistical interpretative models of displacement measurementsTatin, Maxime 24 November 2014 (has links)
Les déplacements des barrages en béton sont influencés par de nombreux facteurs tels que lacharge hydrostatique, les effets thermiques et les effets irréversibles. Pour interpréter les mesures,séparer les différentes influences et identifier un éventuel comportement pathologique,des modèles physico-statistiques de type régression multi-linéaire sont couramment utilisés parl’ingénierie. L’estimation de la composante thermique est cependant une source d’incertitudesignificative pour ces modèles. Les objectifs de cette thèse sont alors de mettre en évidenceles mécanismes à l’origine des déplacements thermiques, de clarifier les hypothèses des modèlesactuels et de déterminer les principales sources d’incertitudes parmi les influences environnementalesafin de proposer des pistes d’amélioration de la modélisation statistique. Deux nouveauxmodèles physico-statistiques ont alors été développés pour prendre en compte l’influence de latempérature de l’eau qui s’est révélée être l’un des facteurs prépondérants d’incertitude. Dansun premier temps, uniquement la valeur moyenne a été introduite. Puis, parallèlement à desmesures in-situ, des profils réalistes sont pris en compte sur la hauteur du barrage. Ces modèlesont été testés sur un environnement virtuel (modèle aux éléments finis) puis sur un cas d’étuderéel, montrant une diminution significative de la dispersion résiduelle ainsi qu’une augmentationdu caractère prédictif. / Concrete dam displacements are influenced by various factors such as hydrostatic load, thermaleffects, and irreversible effects. In order to interpret measurements, to split apart all the differentinfluences and to identify a potential pathological behaviour, physico-statistical modelssuch as multi-linear regression are commonly employed in dam engineering. Nevertheless, thethermal component estimation is an important source of uncertainty for these models. Thus, theobjectives of this thesis are to highlight the mechanism that generate thermal displacement, toclarify model hypothesis, to determine the main sources of uncertainty from environnemental influencesso as to propose improvements of statistical modelling. Two original physico-statisticalmodels have been develloped to account for water temperature which has been identified as amain source of uncertainty. Firstly, only the mean value has been introduced. Then, in parallelto in-situ measurements, realistic temperature profils are accounted for over the dam’s height.These models have been tested both on a virtual environnement (finite element model) and ona real study case. The results show a significant reduction of the residual dispersion and anincrease of the predictive capacity of the models.
|
350 |
Etude empirique, modélisation et applications des trades à limites multiples dans les carnets d'ordre / Empirical study, modelling and applications of multiple limits trades in limit order booksPomponio, Fabrizio 14 December 2012 (has links)
Cette thèse étudie certains évènements particuliers des carnets d’ordre - les ”trades traversants”. Dans le premier chapitre, on définit les trades traversants comme étant ceux qui consomment la liquidité présente dans le carnet d’ordres sur plusieurs limites, sans laisser le temps à la meilleure limite de se remplir par l’arrivée de nouveaux ordres limites. On étudie leurs propriétés empiriques en fournissant des statistiques de liquidité, de volume, de distribution de leurs temps d’arrivées, de clustering et de relaxation du spread. Leur impact de marché est supérieur à celui des trades classiques, et ce même à volume comparable : les trades traversants présentent donc un contenu informationnel plus grand. On propose deux applications au problème du lead-lag entre actifs/marchés, d’abord pour répondre à la question de savoir quel actif bouge en premier, et ensuite pour mesurer la force du signal des trades traversants dans le cadre d’une stratégie d’investissement basée sur le lead-lag entre actifs. Le chapitre suivant approfondit l’étude empirique du clustering de l’arrivée des trades traversants. On y modélise leur arrivée par des processus stochastiques auto-excités (les processus de Hawkes). Une étude statistique de la calibration obtenue avec des modèles à noyaux exponentiels pour la décroissance temporelle de l’impact est menée et assure une modélisation satisfaisante avec deux processus indépendants, un pour le bid et un pour l’ask. La classe de modèles proposée à la calibration est bien adaptée puisqu’il n’existe pas d’effet inhibiteur après l’arrivée d’un trade traversant. On utilise ces résultats pour calculer un indicateur d’intensité basé sur l’arrivée des trades traversants, et améliorer ainsi une stratégie d’investissement de type ”momentum”. Enfin, une calibration non-paramétrique du noyau de décroissance temporel d’impact fournit une décroissance empirique encore plus forte qu’une loi exponentielle, et davantage proche d’une loi-puissance. Le dernier chapitre rappelle une méthode générale de détection statistique de sauts dans des séries temporelles de prix/rendements qui soit robuste au bruit de microstructure. On généralise les résultats empiriques connus à de nouveaux indices financiers. On adapte cette méthode de détection statistique de sauts à des trajectoires intraday afin d’obtenir la distribution de la proportion de sauts détectés au cours de la journée. Les valeurs extrémales et les plus grandes variations de cette proportion se déroulent à des heures précises de la journée (14 :30, 15 :00 et 16 :30, heure de Paris), déjà rencontrées dans l’étude des trades traversants. Grâce à eux, on propose une explication des caractéristiques principales du profil intraday de la proportion de sauts détectés par le test, qui s’appuie sur une modification de la part relative de chacune des composantes de sauts dans la trajectoire des actifs considérés (la composante des mouvements continus et celle liée aux mouvements de sauts purs). / This thesis aims at studying particular events occurring in the limit order books - the ’tradesthrough’. In the first chapter, we define trades-through as those who consume the liquidity available on several limits of the limit order book, without waiting for the best limit to be filled with new incoming limit orders. We study their empirical properties and present statistics about their liquidity, their volume, their arrival time distribution, their clustering and the spread relaxation that follows their arrival. Their market-impact is higher than the one of the other trades, even with a comparable trading volume : trades-through have a higher informational content. We present two applications linked to the lead-lag between assets/markets : to find which asset moves first, and also to measure the trades-through intensity signal in a simple trading strategy based on lead-lag. The next chapter goes into more detail about the trades-through arrival time clustering. We model their arrival time with self-excited stochastic processes (Hawkes processes). A statistical study of the calibration obtained with models based on exponential-decay kernels for the temporal impact ensures a satisfactory modelling with two independent processes, one for the bid and one for the ask. The model class under scrutiny for the calibration is well-adapted as no inhibitory effects are measured after trades-through arrival. We use those results to compute an intensity indicator based on trades-through arrival, and thus we enhance a simple trading strategy that relies on them. Finally, a non-parametric calibration of the empirical decay kernel for the temporal impact of trades-through indicates a decrease faster than exponential, and closer to a power-law. The last chapter recalls a general statistical method robust to market microstructure noise to find jumps in prices/returns time series. We generalize the empirical results already known in the literature to new financial indices and we adapt this statistical jump detection method to intraday trajectories in order to obtain the intraday proportion of detected jumps. Extreme values and biggest intraday variations of this jump proportion occurs at very specific hours of the day (14:30, 15:00 and 16:30, Paris time reference), already linked with trades-through. Using trades-through, we explain the main characteristics of the intraday proportion of detected jumps with the test using a modification in the relative importance of each jump component in the assets trajectories (the continuous moves component and the pure-jumps component).
|
Page generated in 0.0333 seconds