Spelling suggestions: "subject:"empirique"" "subject:"empiriques""
61 |
Value at risk et expected shortfall pour des données faiblement dépendantes : estimations non-paramétriques et théorèmes de convergencesKabui, Ali 19 September 2012 (has links) (PDF)
Quantifier et mesurer le risque dans un environnement partiellement ou totalement incertain est probablement l'un des enjeux majeurs de la recherche appliquée en mathématiques financières. Cela concerne l'économie, la finance, mais d'autres domaines comme la santé via les assurances par exemple. L'une des difficultés fondamentales de ce processus de gestion des risques est de modéliser les actifs sous-jacents, puis d'approcher le risque à partir des observations ou des simulations. Comme dans ce domaine, l'aléa ou l'incertitude joue un rôle fondamental dans l'évolution des actifs, le recours aux processus stochastiques et aux méthodes statistiques devient crucial. Dans la pratique l'approche paramétrique est largement utilisée. Elle consiste à choisir le modèle dans une famille paramétrique, de quantifier le risque en fonction des paramètres, et d'estimer le risque en remplaçant les paramètres par leurs estimations. Cette approche présente un risque majeur, celui de mal spécifier le modèle, et donc de sous-estimer ou sur-estimer le risque. Partant de ce constat et dans une perspective de minimiser le risque de modèle, nous avons choisi d'aborder la question de la quantification du risque avec une approche non-paramétrique qui s'applique à des modèles aussi généraux que possible. Nous nous sommes concentrés sur deux mesures de risque largement utilisées dans la pratique et qui sont parfois imposées par les réglementations nationales ou internationales. Il s'agit de la Value at Risk (VaR) qui quantifie le niveau de perte maximum avec un niveau de confiance élevé (95% ou 99%). La seconde mesure est l'Expected Shortfall (ES) qui nous renseigne sur la perte moyenne au delà de la VaR.
|
62 |
AURA : a hybrid approach to identify framework evolutionWu, Wei 02 1900 (has links)
Les cadriciels et les bibliothèques sont indispensables aux systèmes logiciels d'aujourd'hui. Quand ils évoluent, il est souvent fastidieux et coûteux pour les développeurs de faire la mise à jour de leur code.
Par conséquent, des approches ont été proposées pour aider les développeurs à migrer leur code. Généralement, ces approches ne peuvent identifier automatiquement les règles de modification une-remplacée-par-plusieurs méthodes et plusieurs-remplacées-par-une méthode. De plus, elles font souvent un compromis entre rappel et précision dans leur résultats en utilisant un ou plusieurs seuils expérimentaux.
Nous présentons AURA (AUtomatic change Rule Assistant), une nouvelle approche hybride qui combine call dependency analysis et text similarity analysis pour surmonter ces limitations. Nous avons implanté AURA en Java et comparé ses résultats sur cinq cadriciels avec trois approches précédentes par Dagenais et Robillard, M. Kim et al., et Schäfer et al. Les résultats de cette comparaison montrent que, en moyenne, le rappel de AURA est 53,07% plus que celui des autre approches avec une précision similaire (0,10% en moins). / Software frameworks and libraries are indispensable to today's software systems. As they evolve, it is often time-consuming for developers to keep their code up-to-date.
Approaches have been proposed to facilitate this. Usually, these approaches cannot automatically identify change rules for one-replaced-by-many and many-replaced-by-one methods, and they trade off recall for higher precision using one or more experimentally-evaluated thresholds.
We introduce AURA (AUtomatic change Rule Assistant), a novel hybrid approach that combines call dependency and text similarity analyses to overcome these limitations. We implement it in a Java system and compare it on five frameworks with three previous approaches by Dagenais and Robillard, M. Kim et al., and Schäfer et al. The comparison shows that, on average, the recall of AURA is 53.07% higher while its precision is similar (0.10% lower).
|
63 |
La doctrine de la science de Fichte : idéalisme spéculatif et réalisme pratiqueRoy, Manuel January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
64 |
Une méthode d'inférence bayésienne pour les modèles espace-état affines faiblement identifiés appliquée à une stratégie d'arbitrage statistique de la dynamique de la structure à terme des taux d'intérêtBlais, Sébastien January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
65 |
Les ornementations dans le ıba’ raıt el dhil : l’exemple du Congrès du Caire de 1932 / Ornamentation in the ıba’ raıt el dhil : Example of Cairo Congress 1932Zouari, Hend 20 December 2012 (has links)
L’originalité de la musique arabe tient dans la richesse mélodique et rythmique de ses multiplesinfluences. Toutefois, la particularité de son mode de transmission orale, ainsi que l’utilisationintensive et récurrente de l’improvisation, rendent difficile toute classification et archivage, pourtantindispensables à la sauvegarde de ce patrimoine culturel. Or, les tentatives de transcription musicale sesont soldées par de trop nombreuses simplifications, au point de sacrifier les nuances mélodiques etautres finesses techniques, spécifiques à cette musique.Il était nécessaire d’explorer une nouvelle voie, qui permettrait de la sauvegarder sur un support écrit,tout en respectant ses spécificités. A partir d’une oeuvre marquante de l’histoire de la musique arabe,la nūba raıt el dhil, présentée par la délégation tunisienne au Congrès du Caire de 1932, nousproposons un système original et inédit de codification, qui permettra de transcrire toutes les subtilitésdes oeuvres traditionnelles ou improvisées, redonnant ainsi aux interprètes leur liberté d'improvisation,tout en leur conservant la faculté de se référer à une partition simplifiée, mais plus fidèle à l'oeuvreoriginale. / The originality of Arabic music is due to its melodic and rhythmic richness, inheritedfrom many influences. However, the particulars of its oral mode of transmission, as well asthe intensive and recurrent usage of improvisation, render any classification and any archivingdifficult, as indispensable as they may be for the conservation of this cultural patrimony.Attempts at musical transcription resulted in excessive simplifications, or recorded onlyone single version, up to the point of sacrificing melodic nuances and other technical finessesspecific to this music. It appeared therefore necessary to try another solution that wouldallow safeguarding this music in writing, while preserving its specificities. On the basis of amemorable work in the history of Arabic music, the nūba raıt el dhil as presented by theTunisian delegation at the Cairo congress of 1932, we propose an original and novel systemof codification, writing down on the one hand the melodic framework resulting from areduction process and on the other hand the ornaments, in abridged form, as applied to thisreduced melody. This notation will allow transcribing all the subtleties of traditional orimprovised works, giving back to the performers their freedom of improvising, whileallowing them to refer to a simplified score more faithful to the original work.
|
66 |
Évolution du langage musical de l’istikhbâr en Tunisie au XXe siècle : une approche analytique musico-empirique / Evolution of musical language of istikhbâr in Tunisia in the twentieth century : A musico-empirical analytical approachZouari, Mohamed Zied 14 January 2014 (has links)
Cette thèse esquisse une réflexion autour de la mutation du langage musical de l’improvisation instrumentale du type istikhbâr en Tunisie à travers le XXe siècle. Une des raisons qui sont à l’origine de cette mutation consiste à la théorisation de la musique tunisienne, intervenue au congrès du Caire de 1932. L’aspect le plus contraignant de ce congrès consiste à adopter une échelle musicale composée de vingt quatre notes équidistantes à l’octave, obtenues par la subdivision de chaque intervalle de demi-ton en deux quart de tons. Ce manuscrit traite en particulier l’évolution des échelles musicales et du comportement de leurs degrés à travers le temps tout en mesurant l’impact de cette nouvelle théorie. Il s’intéresse aussi à l’analyse des propriétés du cheminement mélodique et de la chaîne syntagmatique afin d’élucider les spécificités langagières inhérentes à chaque époque. Ces différents éléments sont ressortis grâce à la mise en oeuvre d’une méthode d’analyse empirique appliquée sur trois improvisations instrumentales A, B et C, jouées respectivement en 1926, 1963 et 1990. / This thesis exposes a reflection on the musical language‘s mutation in instrumental improvisation called istikhbâr in Tunisia through the XXth century. One of the reasons which are at the origin of this mutation is the theorization of Tunisian music taken place at the Cairo’s congress in 1932. The most compelling aspect of this congress is to adopt a musical scale consisting of twenty four equally spaced octave notes, obtained by subdividing each interval of a semitone into two quarter-tones. This manuscript treats particularly the evolution of musical scales and the behavior of their degrees by the time while measuring the impact of this new theory. It is also interested in analyzing the properties of the melodic path and syntagmatic in order to elucidate the characteristics of each period. These elements emerged by the application of an empirical analytic method applied in three instrumental improvisations A, B and C, respectively played in 1926, 1963 and 1990.
|
67 |
La participation du droit de la concurrence de l’Union européenne à l’édification d’un modèle de compétitivité industrielle / The contribution of EU competition law to the establishment of a competitive industrial modelCoskun, Alexis 07 December 2018 (has links)
Régulièrement le droit de la concurrence est perçu comme constituant un frein, un obstacle à toute velléité de mener une politique industrielle. Droit de la concurrence et politique industrielle sont souvent présentés comme étant, par nature ; opposés. Ce travail de doctorat tend à préciser la manière avec laquelle le droit de la concurrence participe de la formation d’un modèle d’industrie compétitive au niveau européen. Il s’agit de dépasser les définitions figées de la politique industrielle renvoyant exclusivement à l’implication étatique et de montrer comment et par quelles applications pratiques le droit de la concurrence permet d’atteindre cet objectif téléologique de compétitivité. Cette vision doit déboucher sur l’identification et l’analyse des deux axes majeurs au travers desquels le droit de la concurrence participe de la démarche dynamique de construction d’un modèle compétitif industriel : son influence sur les contenus et formes des interventions étatiques et son influence sur le comportement et les stratégies des entreprises manufacturières. Pour réaliser une telle ambition un large travail d’analyse des décisions de la Commission et de la jurisprudence de la Cour a dès lors été entrepris. / On a regular basis competition law is seen as an obstacle or a brake to any willingness of pursuing a project of industrial policy. Competition law and industrial policy are often presented as, by their sole nature, opposed. My PHD work tends to precise the way in which competition law participates to the establishment of competitive industrial model at the European scale. It outweighs the congealed definitions of industrial policies exclusively understanding it as deriving from state intervention. It aims at showing how and by which practical ways competition law makes possible to reach the teleological aim of competitiveness.This perspective leads to the identification and the analysis of the two major axis through which competition law participates to the teleological construction of a competitive industrial model : its influence upon the contents and the forms of state intervention and its impact on the actions and strategies of the manufacturing firms. To realize such a project a deep and large analysis of the Commission’s decisions and of the case-law of the Court has been undertaken.
|
68 |
Segmentation et classification des signaux non-stationnaires : application au traitement des sons cardiaque et à l'aide au diagnostic / Segmentation and classification of non-stationary signals : Application on heart sounds analysis and auto-diagnosis domainMoukadem, Ali 16 December 2011 (has links)
Cette thèse dans le domaine du traitement des signaux non-stationnaires, appliqué aux bruits du cœur mesurés avec un stéthoscope numérique, vise à concevoir un outil automatisé et « intelligent », permettant aux médecins de disposer d’une source d’information supplémentaire à celle du stéthoscope traditionnel. Une première étape dans l’analyse des signaux du cœur, consiste à localiser le premier et le deuxième son cardiaque (S1 et S2) afin de le segmenter en quatre parties : S1, systole, S2 et diastole. Plusieurs méthodes de localisation des sons cardiaques existent déjà dans la littérature. Une étude comparative entre les méthodes les plus pertinentes est réalisée et deux nouvelles méthodes basées sur la transformation temps-fréquence de Stockwell sont proposées. La première méthode, nommée SRBF, utilise des descripteurs issus du domaine temps-fréquence comme vecteur d’entré au réseau de neurones RBF qui génère l’enveloppe d’amplitude du signal cardiaque, la deuxième méthode, nommée SSE, calcule l’énergie de Shannon du spectre local obtenu par la transformée en S. Ensuite, une phase de détection des extrémités (onset, ending) est nécessaire. Une méthode d’extraction des signaux S1 et S2, basée sur la transformée en S optimisée, est discutée et comparée avec les différentes approches qui existent dans la littérature. Concernant la classification des signaux cardiaques, les méthodes décrites dans la littérature pour classifier S1 et S2, se basent sur des critères temporels (durée de systole et diastole) qui ne seront plus valables dans plusieurs cas pathologiques comme par exemple la tachycardie sévère. Un nouveau descripteur issu du domaine temps-fréquence est évalué et validé pour discriminer S1 de S2. Ensuite, une nouvelle méthode de génération des attributs, basée sur la décomposition modale empirique (EMD) est proposée.Des descripteurs non-linéaires sont également testés, dans le but de classifier des sons cardiaques normaux et sons pathologiques en présence des souffles systoliques. Des outils de traitement et de reconnaissance des signaux non-stationnaires basés sur des caractéristiques morphologique, temps-fréquences et non linéaire du signal, ont été explorés au cours de ce projet de thèse afin de proposer un module d’aide au diagnostic, qui ne nécessite pas d’information à priori sur le sujet traité, robuste vis à vis du bruit et applicable dans des conditions cliniques. / This thesis in the field of biomedical signal processing, applied to the heart sounds, aims to develop an automated and intelligent module, allowing medical doctors to have an additional source of information than the traditional stethoscope. A first step in the analysis of heart sounds is the segmentation process. The heart sounds segmentation process segments the PCG (PhonoCardioGram) signal into four parts: S1 (first heart sound), systole, S2 (second heart sound) and diastole. It can be considered one of the most important phases in the auto-analysis of PCG signals. The proposed segmentation module in this thesis can be divided into three main blocks: localization of heart sounds, boundaries detection of the localized heart sounds and classification block to distinguish between S1and S2. Several methods of heart sound localization exist in the literature. A comparative study between the most relevant methods is performed and two new localization methods of heart sounds are proposed in this study. Both of them are based on the S-transform, the first method uses Radial Basis Functions (RBF) neural network to extract the envelope of the heart sound signal after a feature extraction process that operates on the S-matrix. The second method named SSE calculates the Shannon Energy of the local spectrum calculated by the S-transform for each sample of the heart sound signal. The second block contains a novel approach for the boundaries detection of S1 and S2 (onset & ending). The energy concentrations of the S-transform of localized sounds are optimized by using a window width optimization algorithm. Then the SSE envelope is recalculated and a local adaptive threshold is applied to refine the estimated boundaries. For the classification block, most of the existing methods in the literature use the systole and diastole duration (systole regularity) as a criterion to discriminate between S1 and S2. These methods do not perform well for all types of heart sounds, especially in the presence of high heart rate or in the presence of arrhythmic pathologies. To deal with this problem, two feature extraction methods based on Singular Value Decomposition (SVD) technique are examined. The first method uses the S-Transform and the second method uses the Intrinsic Mode Functions (IMF) calculated by the Empirical Mode Decomposition (EMD) technique. The features are applied to a KNN classifier to estimate the performance of each feature extraction method. Nonlinear features are also tested in order to classify the normal and pathological heart sounds in the presence of systolic murmurs. Processing and recognition signal processing tools based on morphological, time-frequency and nonlinear signal features, were explored in this thesis in order to propose an auto-diagnosis module, robust against noise and applicable in clinical conditions.
|
69 |
Traitement et analyse des processus stochastiques par EMD et ses extensions / NoKomaty, Ali 28 November 2014 (has links)
L’objectif de cette thèse est d’analyser le comportement de la décomposition modale empirique (EMD) et sa version multivariée (MEMD) dans le cas de processus stochastiques : bruit Gaussien fractionnaire (fGn) et processus symétrique alpha stable (SαS). Le fGn est un bruit large bande généralisant le cas du bruit blanc Gaussien et qui trouve des applications dans de nombreux domaines tels que le trafic internet, l’économie ou le climat. Par ailleurs, la nature «impulsive» d’un certain nombre de signaux (craquement des glaces, bruit des crevettes claqueuses, potentiel de champ local en neurosciences,…) est indéniable et le modèle Gaussien ne convient pas pour leur modélisation. La distribution SαS est une solution pour modéliser cette classe de signaux non-Gaussiens. L’EMD est un outil bien adapté au traitement et à l’analyse de ces signaux réels qui sont, en général, de nature complexe (non stationnaire,non linéaire). En effet, cette technique, pilotée par les données, permet la décomposition d’un signal en une somme réduite de composantes oscillantes, extraites de manière itérative, appelées modes empiriques ou IMFs (Intrinsic Mode Functions). Ainsi, nous avons montré que le MEMD s’organise spontanément en une structure de banc de filtres presque dyadiques. L'auto-similarité en termes de représentation spectrale des modes a aussi été établie. En outre, un estimateur de l’exposant de Hurst, caractérisant le fGn, a été construit et ses performances ont été comparées, en particulier à celles de l’approche ondelettes. Cette propriété de banc de filtres du MEMD a été vérifiée sur des données d'hydrodynamique navale (écoulement turbulent) et leur auto-similarité a été mise en évidence. De plus, l’estimation du coefficient de Hurst a mis en avant l’aspect longue dépendance (corrélation positive) des données. Enfin, l’aspect banc de filtres de l’EMD a été exploité à des fins de filtrage dans le domaine temporel en utilisant une mesure de similarité entre les densités de probabilités des modes extraits et celle du signal d’entrée. Pour éviter le problème du mode mixing de l'EMD standard, une approche de débruitage dans le domaine fréquentiel par une reconstruction complète des IMFs préalablement seuillées a été menée. L’ensemble des résultats a été validé par des simulations intensives (Monte Carlo) et sur des signaux réels. / The main contribution of this thesis is aimed towards understanding the behaviour of the empirical modes decomposition (EMD) and its extended versions in stochastic situations.
|
70 |
Théorèmes limites fonctionnels et estimation de la densité spectrale pour des suites stationnaires.Dede, Sophie 26 November 2009 (has links) (PDF)
L'objet de ma thèse est l'étude du comportement de certaines distances entre la mesure empirique d'un processus stationnaire et sa loi marginale (distance de type Cramér-Von Mises ou de type Wasserstein), dans le cas de variables aléatoires dépendantes au sens large, incluant par exemple, certains systèmes dynamiques. Nous établissons, dans un second chapitre, un principe de déviations modérées, sous des conditions projectives, pour une suite stationnaire de variables aléatoires bornées à valeurs dans un espace de Hilbert H, que ce soit pour un processus adapté ou non. Parmi les applications, nous avons travaillé, non seulement à l'étude de la statistique de Cramér-Von Mises, mais aussi sur les fonctions de processus linéaires (importantes dans les problèmes de prédiction) et les chaines de Markov stables. Dans le troisième chapitre, nous donnons un Théorème Limite Central pour des suites stationnaires ergodiques de différences de martingales dans L^1. Puis, par une approximation par des différences de martingales, nous en déduisons un Théorème Limite Central pour des suites stationnaires ergodiques de variables aléatoires à valeurs dans L^1, et satisfaisant des conditions projectives. Ceci nous permet d'obtenir des résultats sur le comportement asymptotique de statistiques du type distance de Wasserstein pour une importante classe de suites dépendantes. En particulier, les résultats sont appliquées à l'étude de systèmes dynamiques, ainsi qu'à celle des processus linéaires causaux. Pour finir, afin de construire des intervalles de confiance asymptotiques pour la moyenne d'une suite stationnaire à partir du Théorème Limite Central, nous proposons un estimateur lissé de la densité spectrale. Dans ce dernier chapitre, nous donnons des critères projectifs pour la convergence dans L^1 d'un estimateur lissé de la densité spectrale. Cela nous permet via un Théorème Limite Central d'avoir des régions de confiance pour les paramètres dans un modèle de régression paramétrique.
|
Page generated in 0.0491 seconds