Spelling suggestions: "subject:"gaussien"" "subject:"maussien""
61 |
Modélisation et détection de ruptures des signaux physiologiques issus de compétitions d'enduranceKammoun, Imen 19 December 2007 (has links) (PDF)
Ce travail de thèse porte sur la modélisation et l'estimation de paramètres pertinents pour les signaux de fréquences cardiaques (FC) instantanées. Nous nous intéressons à un paramètre (appelé grossièrement "fractal"), qui témoigne de la régularité locale de la trajectoire et de la dépendance entre les données. Les propriétés asymptotiques de la fonction DFA (Detrended Fluctuation Analysis) et de l'estimateur de H sont étudiées pour le bruit gaussien fractionnaire (FGN) et plus généralement pour une classe semi-paramétrique de processus stationnaires à longue mémoire avec ou sans tendance. On montre que cette méthode n'est pas robuste. On propose la modélisation des séries de FC par une généralisation du FGN, appelée bruit gaussien localement fractionnaire. Un tel processus stationnaire est construit à partir du paramètre dit de fractalité locale (une sorte de paramètre de Hurst avec des valeurs dans IR) sur une bande de fréquences. L'estimation du paramètre est faite par une analyse par ondelettes, tout comme le test d'adéquation. On montre la pertinence du modèle et une évolution du paramètre pendant la course. Une détection des changements de ce paramètre pourrait être extrêmement appropriée. On propose alors une méthode de détection de multiples ruptures du paramètre de longue mémoire (respectivement d'autosimilarité, de fractalité locale). Un estimateur des points de changements est construit, il vérifie un théorème limite. Un théorème de la limite centrale est établi pour l'estimateur des paramètres et un test d'ajustement est mis en place dans chaque zone où le paramètre est inchangé. Enfin, on montre la même évolution du paramètre de fractalité locale sur les FC.
|
62 |
Nanopinces optiques à base de modes de Bloch lents en cavitéGerelli, Emmanuel 13 December 2012 (has links) (PDF)
Ce travail de thèse s'inscrit dans les efforts actuellement réalisés, pour améliorer l'efficacité des pinces optiques conventionnelles qui permettent de manipuler sans contact des objets de quelques dizaines de nanomètres à quelques dizaines de micromètres avec une extrême précision et trouvent de nombreuses applications en biophysique et sciences de colloïdes.L'objectif de cette thèse a été d'explorer une nouvelle approche pour la réalisation de Nanopinces Optiques. Elle s'appuie sur l'utilisation de cavités à cristaux photoniques à modes de Bloch lents. Ces cavités peuvent être efficacement et facilement excitées par un faisceau Gaussien à incidence normale. Contrairement aux pinces optiques conventionnelles, des objectifs à faibles ouvertures numériques peuvent être utilisés. Les performances attendues en termes de piégeage vont bien au-delà de limitations imposées par la limite de diffraction pour les pinces conventionnelles. Ce travail démontre expérimentalement l'efficacité de l'approche. Cette thèse comporte deux parties principales. Dans un premier temps, il a fallu monter un banc expérimental pour mener nos études. Nous avons construit un banc optique, interfacé les instruments, et développé des applications logicielles pour analyser les données. Deux éléments importants ont présidé à sa construction : - Le développement d'un système optique permettant d'exciter les nanostructures photoniques - la conception d'un système d'imagerie pour suivre les nanoparticules. La seconde partie de ce travail a porté sur la mise en évidence du piégeage optique à l'aide de nanostructure à base de cristaux photonique. Nous avons d'abord montré que même des cavités possédant des coefficients de qualités modérés (quelques centaines) permettait d'obtenir des pièges optiques dont l'efficacité est d'un ordre de grandeur supérieur à celui de pinces conventionnels. Fort de ce résultat, nous avons exploré un nouveau type de cavité à cristaux photoniques s'appuyant sur une approche originale : des structures bi-périodiques. Nous avons montré qu'à l'aide de cette approche des facteurs de qualités de l'ordre de plusieurs milliers étaient facilement atteignable. A l'aide de ces nouvelles structures, nous sommes arrivés aux résultats le plus important de ce travail : le piégeage de nanoparticules de 250nm de rayon avec une puissance optique incidente de l'ordre du milliwatt. Une analyse fine du mouvement de la nanoparticule, nous a permis de trouver la signature du mode de Bloch lent.
|
63 |
Prédiction de l'attrition en date de renouvellement en assurance automobile avec processus gaussiensPannetier Lebeuf, Sylvain 08 1900 (has links)
Le domaine de l’assurance automobile fonctionne par cycles présentant des phases
de profitabilité et d’autres de non-profitabilité. Dans les phases de non-profitabilité, les
compagnies d’assurance ont généralement le réflexe d’augmenter le coût des primes
afin de tenter de réduire les pertes. Par contre, de très grandes augmentations peuvent
avoir pour effet de massivement faire fuir la clientèle vers les compétiteurs. Un trop
haut taux d’attrition pourrait avoir un effet négatif sur la profitabilité à long terme de la
compagnie. Une bonne gestion des augmentations de taux se révèle donc primordiale
pour une compagnie d’assurance.
Ce mémoire a pour but de construire un outil de simulation de l’allure du porte-
feuille d’assurance détenu par un assureur en fonction du changement de taux proposé à
chacun des assurés. Une procédure utilisant des régressions à l’aide de processus gaus-
siens univariés est développée. Cette procédure offre une performance supérieure à la
régression logistique, le modèle généralement utilisé pour effectuer ce genre de tâche. / The field of auto insurance is working by cycles with phases of profitability and other
of non-profitability. In the phases of non-profitability, insurance companies generally
have the reflex to increase the cost of premiums in an attempt to reduce losses. For cons,
very large increases may have the effect of massive attrition of the customers. A too
high attrition rate could have a negative effect on long-term profitability of the company.
Proper management of rate increases thus appears crucial to an insurance company.
This thesis aims to build a simulation tool to predict the content of the insurance
portfolio held by an insurer based on the rate change proposed to each insured. A proce-
dure using univariate Gaussian Processes regression is developed. This procedure offers
a superior performance than the logistic regression model typically used to perform such
tasks.
|
64 |
Analyse harmonique et fonctions d'ondes sphéroïdalesMehrzi, Issam 20 February 2014 (has links) (PDF)
Notre travail est motivé par le problème de l'évaluation du déterminant de Fredholm d'un opérateur intégral. Cet opérateur apparait dans l'expression de la probabilité pour qu'un intervalle [?s, s] (s > 0) ne contienne aucune valeur propre d'une matrice aléatoire hermitienne gaussienne. Cet opérateur commute avec un opérateur différentiel de second ordre dont les fonctions propres sont les fonctions d'ondes sphéroïdales de l'ellipsoïde alongé. Plus généralement nous considérons l'opérateur de Legendre perturbé. Nous montrons qu'il existe un opérateur de translation généralisée associé à cet opérateur. En?n, par une méthode d'approximation des solutions de certaines équations différentielles, dite méthode WKB, nous avons obtenu le comportement asymptotique des fonctions d'ondes sphéroïdales de l'ellipsoïde alongé Il s'exprime à l'aide des fonctions de Bessel et d'Airy. Par la même méthode nous avons obtenu le comportement asymptotique des fonctions propres de l'opérateur dfférentiel d'Airy.
|
65 |
Autour les relations entre SLE, CLE, champ libre Gaussien, et les conséquencesWu, Hao 26 June 2013 (has links) (PDF)
Cette thèse porte sur les relations entre les processus SLE, les ensembles CLE et le champ libre Gaussien. Dans le chapitre 2, nous donnons une construction des processus SLE(k,r) à partir des boucles des CLE(k) et d'échantillons de restriction chordale. Sheffield et Werner ont prouvé que les CLE(k) peuvent être construits à partir des processus d'exploration symétriques des SLE(k,r).Nous montrons dans le chapitre 3 que la configuration des boucles construites à partir du processus d'exploration asymétrique des SLE(k,k-6) donne la même loi CLE(k). Le processus SLE(4) peut être considéré comme les lignes de niveau du champ libre Gaussien et l'ensemble CLE(4) correspond à la collection des lignes de niveau de ce champ libre Gaussien. Dans la deuxième partie du chapitre 3, nous définissons un paramètre de temps invariant conforme pour chaque boucle appartenant à CLE(4) et nous donnons ensuite dans le chapitre 4 un couplage entre le champ libre Gaussien et l'ensemble CLE(4) à l'aide du paramètre de temps. Les processus SLE(k) peuvent être considérés comme les lignes de flot du champ libre Gaussien. Nous explicitons la dimension de Hausdorff de l'intersection de deux lignes de flot du champ libre Gaussien. Cela nous permet d'obtenir la dimension de l'ensemble des points de coupure et des points doubles de la courbe SLE, voir le chapitre 5. Dans le chapitre 6, nous définissons la mesure de restriction radiale, prouvons la caractérisation de ces mesures, et montrons la condition nécessaire et suffisante de l'existence des mesures de restriction radiale.
|
66 |
Sélection de variables pour la classification non supervisée en grande dimensionMeynet, Caroline 09 November 2012 (has links) (PDF)
Il existe des situations de modélisation statistique pour lesquelles le problème classique de classification non supervisée (c'est-à-dire sans information a priori sur la nature ou le nombre de classes à constituer) se double d'un problème d'identification des variables réellement pertinentes pour déterminer la classification. Cette problématique est d'autant plus essentielle que les données dites de grande dimension, comportant bien plus de variables que d'observations, se multiplient ces dernières années : données d'expression de gènes, classification de courbes... Nous proposons une procédure de sélection de variables pour la classification non supervisée adaptée aux problèmes de grande dimension. Nous envisageons une approche par modèles de mélange gaussien, ce qui nous permet de reformuler le problème de sélection des variables et du choix du nombre de classes en un problème global de sélection de modèle. Nous exploitons les propriétés de sélection de variables de la régularisation l1 pour construire efficacement, à partir des données, une collection de modèles qui reste de taille raisonnable même en grande dimension. Nous nous démarquons des procédures classiques de sélection de variables par régularisation l1 en ce qui concerne l'estimation des paramètres : dans chaque modèle, au lieu de considérer l'estimateur Lasso, nous calculons l'estimateur du maximum de vraisemblance. Ensuite, nous sélectionnons l'un des ces estimateurs du maximum de vraisemblance par un critère pénalisé non asymptotique basé sur l'heuristique de pente introduite par Birgé et Massart. D'un point de vue théorique, nous établissons un théorème de sélection de modèle pour l'estimation d'une densité par maximum de vraisemblance pour une collection aléatoire de modèles. Nous l'appliquons dans notre contexte pour trouver une forme de pénalité minimale pour notre critère pénalisé. D'un point de vue pratique, des simulations sont effectuées pour valider notre procédure, en particulier dans le cadre de la classification non supervisée de courbes. L'idée clé de notre procédure est de n'utiliser la régularisation l1 que pour constituer une collection restreinte de modèles et non pas aussi pour estimer les paramètres des modèles. Cette étape d'estimation est réalisée par maximum de vraisemblance. Cette procédure hybride nous est inspirée par une étude théorique menée dans une première partie dans laquelle nous établissons des inégalités oracle l1 pour le Lasso dans les cadres de régression gaussienne et de mélange de régressions gaussiennes, qui se démarquent des inégalités oracle l0 traditionnellement établies par leur absence totale d'hypothèse.
|
67 |
Extraction et débruitage de signaux ECG du foetus.Niknazar, Mohammad 07 November 2013 (has links) (PDF)
Les malformations cardiaques congénitales sont la première cause de décès liés à une anomalie congénitale. L''electrocardiogramme du fœtus (ECGf), qui est censé contenir beaucoup plus d'informations par rapport aux méthodes échographiques conventionnelles, peut ˆêtre mesuré'e par des électrodes sur l'abdomen de la mère. Cependant, il est tr'es faible et mélangé avec plusieurs sources de bruit et interférence y compris l'ECG de la mère (ECGm) dont le niveau est très fort. Dans les études précédentes, plusieurs méthodes ont été proposées pour l'extraction de l'ECGf à partir des signaux enregistrés par des électrodes placées à la surface du corps de la mère. Cependant, ces méthodes nécessitent un nombre de capteurs important, et s'avèrent inefficaces avec un ou deux capteurs. Dans cette étude trois approches innovantes reposant sur une paramétrisation algébrique, statistique ou par variables d'état sont proposées. Ces trois méthodes mettent en œuvre des modélisations différentes de la quasi-périodicité du signal cardiaque. Dans la première approche, le signal cardiaque et sa variabilité sont modélisés par un filtre de Kalman. Dans la seconde approche, le signal est découpé en fenêtres selon les battements, et l'empilage constitue un tenseur dont on cherchera la décomposition. Dans la troisième approche, le signal n'est pas modélisé directement, mais il est considéré comme un processus Gaussien, caractérisé par ses statistiques à l'ordre deux. Dans les différentes modèles, contrairement aux études précédentes, l'ECGm et le (ou les) ECGf sont modélisés explicitement. Les performances des méthodes proposées, qui utilisent un nombre minimum de capteurs, sont évaluées sur des données synthétiques et des enregistrements réels, y compris les signaux cardiaques des fœtus jumeaux.
|
68 |
Modélisation multi échelles de l'impact du trafic routier sur la qualité de l'airBriant, Régis, Briant, Régis 16 November 2012 (has links) (PDF)
Le trafic routier contribue à la pollution atmosphérique aussi bien à proximité des voies avec des polluants tels que le dioxyde d'azote (NO2), les particules (PM) et certains composés organiques volatils (COV) qu'à des échelles spatiales plus grandes (pollution de fond urbaine et régionale) avec des polluants formés dans l'atmosphère tels que l'ozone (O3) et la fraction secondaire des particules. Étant donné les interactions entre pollution de proximité et pollution de fond, il est souhaitable de combiner en un seul outil de calcul des modèles à échelles locale et régionale. Cette méthode de modélisation multi-échelles a été largement utilisée pour simuler l'impact des émissions de cheminées (sources ponctuelles) avec des modèles de panache traités en sous-maille d'un modèle eulérien tri-dimensionnel. Cependant, une telle méthode n'est pas applicable à un réseau routier en raison des temps de calcul prohibitifs associés à la discrétisation d'une source linéique en un ensemble de sources ponctuelles. Par conséquent, une nouvelle méthode de modélisation multi-échelles a été développée, qui traite les panaches émis par des sources linéiques en sous-maille d'un modèle eulérien. Tout d'abord, une formulation améliorée d'un modèle gaussien de panache linéique a été développée. Ce nouveau modèle à ensuite fait l'objet d'une évaluation détaillée avec des mesures en proximité de routes ainsi qu'avec d'autres modèles gaussiens. La combinaison de ce modèle gaussien et d'un modèle eulérien (Polair3D) a été implémentée dans la plate-forme de modélisation Polyphemus. Les performances (temps de calcul et précision) du nouveau modèle de panache en sous-maille ont été évaluées et comparées aux performances des modèles gaussien et eulérien seuls. Ce modèle multi-échelles traite la chimie des oxydes d'azote (NOx) et des principaux COV. Le traitement multi-échelles a un effet important sur les concentrations de certains polluants en termes de pollutions de proximité et de fond urbain
|
69 |
Outils statistiques et géométriques pour la classification des images SAR polarimétriques hautement texturéesFormont, P. 10 December 2013 (has links) (PDF)
Les radars à synthèse d'ouverture (Synthetic Aperture Radar ou SAR) permettent de fournir des images à très haute résolution de la surface de la Terre. Les algorithmes de classification traditionnels se basent sur une hypothèse de bruit gaussien comme modèle de signal, qui est rapidement mise en défaut lorsque l'environnement devient inhomogène ou impulsionnel, comme c'est particulièrement le cas dans les images SAR polarimétriques haute résolution, notamment au niveau des zones urbaines. L'utilisation d'un modèle de bruit composé, appelé modèle SIRV, permet de mieux prendre en compte ces phénomènes et de représenter la réalité de manière plus adéquate. Cette thèse s'emploie alors à étudier l'application et l'impact de ce modèle pour la classification des images SAR polarimétriques afin d'améliorer l'interprétation des classifications au sens de la polarimétrie et à proposer des outils adaptés à ce nouveau modèle. En effet, il apparaît rapidement que les techniques classiques utilisent en réalité beaucoup plus l'information relative à la puissance de chaque pixel plutôt qu'à la polarimétrie pour la classification. Par ailleurs, les techniques de classification traditionnelles font régulièrement appel à la moyenne de matrices de covariance, calculée comme une moyenne arithmétique. Cependant, étant donnée la nature riemannienne de l'espace des matrices de covariance, cette définition n'est pas applicable et il est nécessaire d'employer une définition plus adaptée à cette structure riemannienne. Nous mettons en évidence l'intérêt d'utiliser un modèle de bruit non gaussien sur des données réelles et nous proposons plusieurs approches pour tirer parti de l'information polarimétrique qu'il apporte. L'apport de la géométrie de l'information pour le calcul de la moyenne est de même étudié, sur des données simulées mais également sur des données réelles acquises par l'ONERA. Enfin, une étude préliminaire d'une extension de ces travaux au cas de l'imagerie hyperspectrale est proposée, de par la proximité de ce type de données avec les données SAR polarimétriques.
|
70 |
Développement d'un modèle statistique non stationnaire et régional pour les précipitations extrêmes simulées par un modèle numérique de climat / A non-stationary and regional statistical model for the precipitation extremes simulated by a climate modelJalbert, Jonathan 30 October 2015 (has links)
Les inondations constituent le risque naturel prédominant dans le monde et les dégâts qu'elles causent sont les plus importants parmi les catastrophes naturelles. Un des principaux facteurs expliquant les inondations sont les précipitations extrêmes. En raison des changements climatiques, l'occurrence et l'intensité de ces dernières risquent fort probablement de s'accroître. Par conséquent, le risque d'inondation pourrait vraisemblablement s'intensifier. Les impacts de l'évolution des précipitations extrêmes sont désormais un enjeu important pour la sécurité du public et pour la pérennité des infrastructures. Les stratégies de gestion du risque d'inondation dans le climat futur sont essentiellement basées sur les simulations provenant des modèles numériques de climat. Un modèle numérique de climat procure notamment une série chronologique des précipitations pour chacun des points de grille composant son domaine spatial de simulation. Les séries chronologiques simulées peuvent être journalières ou infra-journalières et elles s'étendent sur toute la période de simulation, typiquement entre 1961 et 2100. La continuité spatiale des processus physiques simulés induit une cohérence spatiale parmi les séries chronologiques. Autrement dit, les séries chronologiques provenant de points de grille avoisinants partagent souvent des caractéristiques semblables. De façon générale, la théorie des valeurs extrêmes est appliquée à ces séries chronologiques simulées pour estimer les quantiles correspondants à un certain niveau de risque. La plupart du temps, la variance d'estimation est considérable en raison du nombre limité de précipitations extrêmes disponibles et celle-ci peut jouer un rôle déterminant dans l'élaboration des stratégies de gestion du risque. Par conséquent, un modèle statistique permettant d'estimer de façon précise les quantiles de précipitations extrêmes simulées par un modèle numérique de climat a été développé dans cette thèse. Le modèle développé est spécialement adapté aux données générées par un modèle de climat. En particulier, il exploite l'information contenue dans les séries journalières continues pour améliorer l'estimation des quantiles non stationnaires et ce, sans effectuer d'hypothèse contraignante sur la nature de la non-stationnarité. Le modèle exploite également l'information contenue dans la cohérence spatiale des précipitations extrêmes. Celle-ci est modélisée par un modèle hiérarchique bayésien où les lois a priori des paramètres sont des processus spatiaux, en l'occurrence des champs de Markov gaussiens. L'application du modèle développé à une simulation générée par le Modèle régional canadien du climat a permis de réduire considérablement la variance d'estimation des quantiles en Amérique du Nord. / Precipitation extremes plays a major role in flooding events and their occurrence as well as their intensity are expected to increase. It is therefore important to anticipate the impacts of such an increase to ensure the public safety and the infrastructure sustainability. Since climate models are the only tools for providing quantitative projections of precipitation, flood risk management for the future climate may be based on their simulations. Most of the time, the Extreme value theory is used to estimate the extreme precipitations from a climate simulation, such as the T-year return levels. The variance of the estimations are generally large notably because the sample size of the maxima series are short. Such variance could have a significant impact for flood risk management. It is therefore relevant to reduce the estimation variance of simulated return levels. For this purpose, the aim of this paper is to develop a non-stationary and regional statistical model especially suited for climate models that estimates precipitation extremes. At first, the non-stationarity is removed by a preprocessing approach. Thereafter, the spatial correlation is modeled by a Bayesian hierarchical model including an intrinsic Gaussian Markov random field. The model has been used to estimate the 100-year return levels over North America from a simulation by the Canadian Regional Climate Model. The results show a large estimation variance reduction when using the regional model.
|
Page generated in 2.4067 seconds