Spelling suggestions: "subject:"nongaussien"" "subject:"gaussien""
61 |
Nanopinces optiques à base de modes de Bloch lents en cavitéGerelli, Emmanuel 13 December 2012 (has links) (PDF)
Ce travail de thèse s'inscrit dans les efforts actuellement réalisés, pour améliorer l'efficacité des pinces optiques conventionnelles qui permettent de manipuler sans contact des objets de quelques dizaines de nanomètres à quelques dizaines de micromètres avec une extrême précision et trouvent de nombreuses applications en biophysique et sciences de colloïdes.L'objectif de cette thèse a été d'explorer une nouvelle approche pour la réalisation de Nanopinces Optiques. Elle s'appuie sur l'utilisation de cavités à cristaux photoniques à modes de Bloch lents. Ces cavités peuvent être efficacement et facilement excitées par un faisceau Gaussien à incidence normale. Contrairement aux pinces optiques conventionnelles, des objectifs à faibles ouvertures numériques peuvent être utilisés. Les performances attendues en termes de piégeage vont bien au-delà de limitations imposées par la limite de diffraction pour les pinces conventionnelles. Ce travail démontre expérimentalement l'efficacité de l'approche. Cette thèse comporte deux parties principales. Dans un premier temps, il a fallu monter un banc expérimental pour mener nos études. Nous avons construit un banc optique, interfacé les instruments, et développé des applications logicielles pour analyser les données. Deux éléments importants ont présidé à sa construction : - Le développement d'un système optique permettant d'exciter les nanostructures photoniques - la conception d'un système d'imagerie pour suivre les nanoparticules. La seconde partie de ce travail a porté sur la mise en évidence du piégeage optique à l'aide de nanostructure à base de cristaux photonique. Nous avons d'abord montré que même des cavités possédant des coefficients de qualités modérés (quelques centaines) permettait d'obtenir des pièges optiques dont l'efficacité est d'un ordre de grandeur supérieur à celui de pinces conventionnels. Fort de ce résultat, nous avons exploré un nouveau type de cavité à cristaux photoniques s'appuyant sur une approche originale : des structures bi-périodiques. Nous avons montré qu'à l'aide de cette approche des facteurs de qualités de l'ordre de plusieurs milliers étaient facilement atteignable. A l'aide de ces nouvelles structures, nous sommes arrivés aux résultats le plus important de ce travail : le piégeage de nanoparticules de 250nm de rayon avec une puissance optique incidente de l'ordre du milliwatt. Une analyse fine du mouvement de la nanoparticule, nous a permis de trouver la signature du mode de Bloch lent.
|
62 |
Prédiction de l'attrition en date de renouvellement en assurance automobile avec processus gaussiensPannetier Lebeuf, Sylvain 08 1900 (has links)
Le domaine de l’assurance automobile fonctionne par cycles présentant des phases
de profitabilité et d’autres de non-profitabilité. Dans les phases de non-profitabilité, les
compagnies d’assurance ont généralement le réflexe d’augmenter le coût des primes
afin de tenter de réduire les pertes. Par contre, de très grandes augmentations peuvent
avoir pour effet de massivement faire fuir la clientèle vers les compétiteurs. Un trop
haut taux d’attrition pourrait avoir un effet négatif sur la profitabilité à long terme de la
compagnie. Une bonne gestion des augmentations de taux se révèle donc primordiale
pour une compagnie d’assurance.
Ce mémoire a pour but de construire un outil de simulation de l’allure du porte-
feuille d’assurance détenu par un assureur en fonction du changement de taux proposé à
chacun des assurés. Une procédure utilisant des régressions à l’aide de processus gaus-
siens univariés est développée. Cette procédure offre une performance supérieure à la
régression logistique, le modèle généralement utilisé pour effectuer ce genre de tâche. / The field of auto insurance is working by cycles with phases of profitability and other
of non-profitability. In the phases of non-profitability, insurance companies generally
have the reflex to increase the cost of premiums in an attempt to reduce losses. For cons,
very large increases may have the effect of massive attrition of the customers. A too
high attrition rate could have a negative effect on long-term profitability of the company.
Proper management of rate increases thus appears crucial to an insurance company.
This thesis aims to build a simulation tool to predict the content of the insurance
portfolio held by an insurer based on the rate change proposed to each insured. A proce-
dure using univariate Gaussian Processes regression is developed. This procedure offers
a superior performance than the logistic regression model typically used to perform such
tasks.
|
63 |
Analyse harmonique et fonctions d'ondes sphéroïdalesMehrzi, Issam 20 February 2014 (has links) (PDF)
Notre travail est motivé par le problème de l'évaluation du déterminant de Fredholm d'un opérateur intégral. Cet opérateur apparait dans l'expression de la probabilité pour qu'un intervalle [?s, s] (s > 0) ne contienne aucune valeur propre d'une matrice aléatoire hermitienne gaussienne. Cet opérateur commute avec un opérateur différentiel de second ordre dont les fonctions propres sont les fonctions d'ondes sphéroïdales de l'ellipsoïde alongé. Plus généralement nous considérons l'opérateur de Legendre perturbé. Nous montrons qu'il existe un opérateur de translation généralisée associé à cet opérateur. En?n, par une méthode d'approximation des solutions de certaines équations différentielles, dite méthode WKB, nous avons obtenu le comportement asymptotique des fonctions d'ondes sphéroïdales de l'ellipsoïde alongé Il s'exprime à l'aide des fonctions de Bessel et d'Airy. Par la même méthode nous avons obtenu le comportement asymptotique des fonctions propres de l'opérateur dfférentiel d'Airy.
|
64 |
Autour les relations entre SLE, CLE, champ libre Gaussien, et les conséquencesWu, Hao 26 June 2013 (has links) (PDF)
Cette thèse porte sur les relations entre les processus SLE, les ensembles CLE et le champ libre Gaussien. Dans le chapitre 2, nous donnons une construction des processus SLE(k,r) à partir des boucles des CLE(k) et d'échantillons de restriction chordale. Sheffield et Werner ont prouvé que les CLE(k) peuvent être construits à partir des processus d'exploration symétriques des SLE(k,r).Nous montrons dans le chapitre 3 que la configuration des boucles construites à partir du processus d'exploration asymétrique des SLE(k,k-6) donne la même loi CLE(k). Le processus SLE(4) peut être considéré comme les lignes de niveau du champ libre Gaussien et l'ensemble CLE(4) correspond à la collection des lignes de niveau de ce champ libre Gaussien. Dans la deuxième partie du chapitre 3, nous définissons un paramètre de temps invariant conforme pour chaque boucle appartenant à CLE(4) et nous donnons ensuite dans le chapitre 4 un couplage entre le champ libre Gaussien et l'ensemble CLE(4) à l'aide du paramètre de temps. Les processus SLE(k) peuvent être considérés comme les lignes de flot du champ libre Gaussien. Nous explicitons la dimension de Hausdorff de l'intersection de deux lignes de flot du champ libre Gaussien. Cela nous permet d'obtenir la dimension de l'ensemble des points de coupure et des points doubles de la courbe SLE, voir le chapitre 5. Dans le chapitre 6, nous définissons la mesure de restriction radiale, prouvons la caractérisation de ces mesures, et montrons la condition nécessaire et suffisante de l'existence des mesures de restriction radiale.
|
65 |
Sélection de variables pour la classification non supervisée en grande dimensionMeynet, Caroline 09 November 2012 (has links) (PDF)
Il existe des situations de modélisation statistique pour lesquelles le problème classique de classification non supervisée (c'est-à-dire sans information a priori sur la nature ou le nombre de classes à constituer) se double d'un problème d'identification des variables réellement pertinentes pour déterminer la classification. Cette problématique est d'autant plus essentielle que les données dites de grande dimension, comportant bien plus de variables que d'observations, se multiplient ces dernières années : données d'expression de gènes, classification de courbes... Nous proposons une procédure de sélection de variables pour la classification non supervisée adaptée aux problèmes de grande dimension. Nous envisageons une approche par modèles de mélange gaussien, ce qui nous permet de reformuler le problème de sélection des variables et du choix du nombre de classes en un problème global de sélection de modèle. Nous exploitons les propriétés de sélection de variables de la régularisation l1 pour construire efficacement, à partir des données, une collection de modèles qui reste de taille raisonnable même en grande dimension. Nous nous démarquons des procédures classiques de sélection de variables par régularisation l1 en ce qui concerne l'estimation des paramètres : dans chaque modèle, au lieu de considérer l'estimateur Lasso, nous calculons l'estimateur du maximum de vraisemblance. Ensuite, nous sélectionnons l'un des ces estimateurs du maximum de vraisemblance par un critère pénalisé non asymptotique basé sur l'heuristique de pente introduite par Birgé et Massart. D'un point de vue théorique, nous établissons un théorème de sélection de modèle pour l'estimation d'une densité par maximum de vraisemblance pour une collection aléatoire de modèles. Nous l'appliquons dans notre contexte pour trouver une forme de pénalité minimale pour notre critère pénalisé. D'un point de vue pratique, des simulations sont effectuées pour valider notre procédure, en particulier dans le cadre de la classification non supervisée de courbes. L'idée clé de notre procédure est de n'utiliser la régularisation l1 que pour constituer une collection restreinte de modèles et non pas aussi pour estimer les paramètres des modèles. Cette étape d'estimation est réalisée par maximum de vraisemblance. Cette procédure hybride nous est inspirée par une étude théorique menée dans une première partie dans laquelle nous établissons des inégalités oracle l1 pour le Lasso dans les cadres de régression gaussienne et de mélange de régressions gaussiennes, qui se démarquent des inégalités oracle l0 traditionnellement établies par leur absence totale d'hypothèse.
|
66 |
Extraction et débruitage de signaux ECG du foetus.Niknazar, Mohammad 07 November 2013 (has links) (PDF)
Les malformations cardiaques congénitales sont la première cause de décès liés à une anomalie congénitale. L''electrocardiogramme du fœtus (ECGf), qui est censé contenir beaucoup plus d'informations par rapport aux méthodes échographiques conventionnelles, peut ˆêtre mesuré'e par des électrodes sur l'abdomen de la mère. Cependant, il est tr'es faible et mélangé avec plusieurs sources de bruit et interférence y compris l'ECG de la mère (ECGm) dont le niveau est très fort. Dans les études précédentes, plusieurs méthodes ont été proposées pour l'extraction de l'ECGf à partir des signaux enregistrés par des électrodes placées à la surface du corps de la mère. Cependant, ces méthodes nécessitent un nombre de capteurs important, et s'avèrent inefficaces avec un ou deux capteurs. Dans cette étude trois approches innovantes reposant sur une paramétrisation algébrique, statistique ou par variables d'état sont proposées. Ces trois méthodes mettent en œuvre des modélisations différentes de la quasi-périodicité du signal cardiaque. Dans la première approche, le signal cardiaque et sa variabilité sont modélisés par un filtre de Kalman. Dans la seconde approche, le signal est découpé en fenêtres selon les battements, et l'empilage constitue un tenseur dont on cherchera la décomposition. Dans la troisième approche, le signal n'est pas modélisé directement, mais il est considéré comme un processus Gaussien, caractérisé par ses statistiques à l'ordre deux. Dans les différentes modèles, contrairement aux études précédentes, l'ECGm et le (ou les) ECGf sont modélisés explicitement. Les performances des méthodes proposées, qui utilisent un nombre minimum de capteurs, sont évaluées sur des données synthétiques et des enregistrements réels, y compris les signaux cardiaques des fœtus jumeaux.
|
67 |
Modélisation multi échelles de l'impact du trafic routier sur la qualité de l'airBriant, Régis, Briant, Régis 16 November 2012 (has links) (PDF)
Le trafic routier contribue à la pollution atmosphérique aussi bien à proximité des voies avec des polluants tels que le dioxyde d'azote (NO2), les particules (PM) et certains composés organiques volatils (COV) qu'à des échelles spatiales plus grandes (pollution de fond urbaine et régionale) avec des polluants formés dans l'atmosphère tels que l'ozone (O3) et la fraction secondaire des particules. Étant donné les interactions entre pollution de proximité et pollution de fond, il est souhaitable de combiner en un seul outil de calcul des modèles à échelles locale et régionale. Cette méthode de modélisation multi-échelles a été largement utilisée pour simuler l'impact des émissions de cheminées (sources ponctuelles) avec des modèles de panache traités en sous-maille d'un modèle eulérien tri-dimensionnel. Cependant, une telle méthode n'est pas applicable à un réseau routier en raison des temps de calcul prohibitifs associés à la discrétisation d'une source linéique en un ensemble de sources ponctuelles. Par conséquent, une nouvelle méthode de modélisation multi-échelles a été développée, qui traite les panaches émis par des sources linéiques en sous-maille d'un modèle eulérien. Tout d'abord, une formulation améliorée d'un modèle gaussien de panache linéique a été développée. Ce nouveau modèle à ensuite fait l'objet d'une évaluation détaillée avec des mesures en proximité de routes ainsi qu'avec d'autres modèles gaussiens. La combinaison de ce modèle gaussien et d'un modèle eulérien (Polair3D) a été implémentée dans la plate-forme de modélisation Polyphemus. Les performances (temps de calcul et précision) du nouveau modèle de panache en sous-maille ont été évaluées et comparées aux performances des modèles gaussien et eulérien seuls. Ce modèle multi-échelles traite la chimie des oxydes d'azote (NOx) et des principaux COV. Le traitement multi-échelles a un effet important sur les concentrations de certains polluants en termes de pollutions de proximité et de fond urbain
|
68 |
Outils statistiques et géométriques pour la classification des images SAR polarimétriques hautement texturéesFormont, P. 10 December 2013 (has links) (PDF)
Les radars à synthèse d'ouverture (Synthetic Aperture Radar ou SAR) permettent de fournir des images à très haute résolution de la surface de la Terre. Les algorithmes de classification traditionnels se basent sur une hypothèse de bruit gaussien comme modèle de signal, qui est rapidement mise en défaut lorsque l'environnement devient inhomogène ou impulsionnel, comme c'est particulièrement le cas dans les images SAR polarimétriques haute résolution, notamment au niveau des zones urbaines. L'utilisation d'un modèle de bruit composé, appelé modèle SIRV, permet de mieux prendre en compte ces phénomènes et de représenter la réalité de manière plus adéquate. Cette thèse s'emploie alors à étudier l'application et l'impact de ce modèle pour la classification des images SAR polarimétriques afin d'améliorer l'interprétation des classifications au sens de la polarimétrie et à proposer des outils adaptés à ce nouveau modèle. En effet, il apparaît rapidement que les techniques classiques utilisent en réalité beaucoup plus l'information relative à la puissance de chaque pixel plutôt qu'à la polarimétrie pour la classification. Par ailleurs, les techniques de classification traditionnelles font régulièrement appel à la moyenne de matrices de covariance, calculée comme une moyenne arithmétique. Cependant, étant donnée la nature riemannienne de l'espace des matrices de covariance, cette définition n'est pas applicable et il est nécessaire d'employer une définition plus adaptée à cette structure riemannienne. Nous mettons en évidence l'intérêt d'utiliser un modèle de bruit non gaussien sur des données réelles et nous proposons plusieurs approches pour tirer parti de l'information polarimétrique qu'il apporte. L'apport de la géométrie de l'information pour le calcul de la moyenne est de même étudié, sur des données simulées mais également sur des données réelles acquises par l'ONERA. Enfin, une étude préliminaire d'une extension de ces travaux au cas de l'imagerie hyperspectrale est proposée, de par la proximité de ce type de données avec les données SAR polarimétriques.
|
69 |
Développement d'un modèle statistique non stationnaire et régional pour les précipitations extrêmes simulées par un modèle numérique de climat / A non-stationary and regional statistical model for the precipitation extremes simulated by a climate modelJalbert, Jonathan 30 October 2015 (has links)
Les inondations constituent le risque naturel prédominant dans le monde et les dégâts qu'elles causent sont les plus importants parmi les catastrophes naturelles. Un des principaux facteurs expliquant les inondations sont les précipitations extrêmes. En raison des changements climatiques, l'occurrence et l'intensité de ces dernières risquent fort probablement de s'accroître. Par conséquent, le risque d'inondation pourrait vraisemblablement s'intensifier. Les impacts de l'évolution des précipitations extrêmes sont désormais un enjeu important pour la sécurité du public et pour la pérennité des infrastructures. Les stratégies de gestion du risque d'inondation dans le climat futur sont essentiellement basées sur les simulations provenant des modèles numériques de climat. Un modèle numérique de climat procure notamment une série chronologique des précipitations pour chacun des points de grille composant son domaine spatial de simulation. Les séries chronologiques simulées peuvent être journalières ou infra-journalières et elles s'étendent sur toute la période de simulation, typiquement entre 1961 et 2100. La continuité spatiale des processus physiques simulés induit une cohérence spatiale parmi les séries chronologiques. Autrement dit, les séries chronologiques provenant de points de grille avoisinants partagent souvent des caractéristiques semblables. De façon générale, la théorie des valeurs extrêmes est appliquée à ces séries chronologiques simulées pour estimer les quantiles correspondants à un certain niveau de risque. La plupart du temps, la variance d'estimation est considérable en raison du nombre limité de précipitations extrêmes disponibles et celle-ci peut jouer un rôle déterminant dans l'élaboration des stratégies de gestion du risque. Par conséquent, un modèle statistique permettant d'estimer de façon précise les quantiles de précipitations extrêmes simulées par un modèle numérique de climat a été développé dans cette thèse. Le modèle développé est spécialement adapté aux données générées par un modèle de climat. En particulier, il exploite l'information contenue dans les séries journalières continues pour améliorer l'estimation des quantiles non stationnaires et ce, sans effectuer d'hypothèse contraignante sur la nature de la non-stationnarité. Le modèle exploite également l'information contenue dans la cohérence spatiale des précipitations extrêmes. Celle-ci est modélisée par un modèle hiérarchique bayésien où les lois a priori des paramètres sont des processus spatiaux, en l'occurrence des champs de Markov gaussiens. L'application du modèle développé à une simulation générée par le Modèle régional canadien du climat a permis de réduire considérablement la variance d'estimation des quantiles en Amérique du Nord. / Precipitation extremes plays a major role in flooding events and their occurrence as well as their intensity are expected to increase. It is therefore important to anticipate the impacts of such an increase to ensure the public safety and the infrastructure sustainability. Since climate models are the only tools for providing quantitative projections of precipitation, flood risk management for the future climate may be based on their simulations. Most of the time, the Extreme value theory is used to estimate the extreme precipitations from a climate simulation, such as the T-year return levels. The variance of the estimations are generally large notably because the sample size of the maxima series are short. Such variance could have a significant impact for flood risk management. It is therefore relevant to reduce the estimation variance of simulated return levels. For this purpose, the aim of this paper is to develop a non-stationary and regional statistical model especially suited for climate models that estimates precipitation extremes. At first, the non-stationarity is removed by a preprocessing approach. Thereafter, the spatial correlation is modeled by a Bayesian hierarchical model including an intrinsic Gaussian Markov random field. The model has been used to estimate the 100-year return levels over North America from a simulation by the Canadian Regional Climate Model. The results show a large estimation variance reduction when using the regional model.
|
70 |
Modèle d'interaction et performances du traitement du signal multimodal / Interaction model and performance of multimodal signal processingChlaily, Saloua 04 April 2018 (has links)
Bien que le traitement conjoint des mesures multimodales soit supposé conduire à de meilleures performances que celles obtenues en exploitant une seule modalité ou plusieurs modalités indépendamment, il existe des exemples en littérature qui prouvent que c'est pas toujours vrai. Dans cette thèse, nous analysons rigoureusement, en termes d'information mutuelle et d'erreur d'estimation, les différentes situations de l'analyse multimodale afin de déterminer les conditions conduisant à des performances optimales.Dans la première partie, nous considérons le cas simple de deux ou trois modalités, chacune étant associée à la mesure bruitée d'un signal, avec des liens entre modalités matérialisés par les corrélations entre les parties utiles du signal et par les corrélations les bruits. Nous montrons comment les performances obtenues sont améliorées avec l'exploitation des liens entre les modalités. Dans la seconde partie, nous étudions l'impact sur les performances d'erreurs sur les liens entre modalités. Nous montrons que ces fausses hypothèses dégradent les performances, qui peuvent alors devenir inférieure à celles atteintes avec une seule modalité.Dans le cas général, nous modélisons les multiples modalités comme un canal gaussien bruité. Nous étendons alors des résultats de la littérature en considérant l'impact d'erreurs sur les densités de probabilité du signal et du bruit sur l'information transmise par le canal. Nous analysons ensuite cette relation dans la cas d'un modèle simple de deux modalités. Nos résultats montrent en particulier le fait inattendu qu'une double inadéquation du bruit et du signal peuvent parfois se compenser et ainsi conduire à de très bonnes performances. / The joint processing of multimodal measurements is supposed to lead to better performances than those obtained using a single modality or several modalities independently. However, in literature, there are examples that show that is not always true. In this thesis, we analyze, in terms of mutual information and estimation error, the different situations of multimodal analysis in order to determine the conditions to achieve the optimal performances.In the first part, we consider the simple case of two or three modalities, each associated with noisy measurement of a signal. These modalities are linked through the correlations between the useful parts of the signal and the correlations between the noises. We show that the performances are improved if the links between the modalities are exploited. In the second part, we study the impact on performance of wrong links between modalities. We show that these false assumptions decline the performance, which can become lower than the performance achieved using a single modality.In the general case, we model the multiple modalities as a noisy Gaussian channel. We then extend literature results by considering the impact of the errors on signal and noise probability densities on the information transmitted by the channel. We then analyze this relationship in the case of a simple model of two modalities. Our results show in particular the unexpected fact that a double mismatch of the noise and the signal can sometimes compensate for each other, and thus lead to very good performances.
|
Page generated in 0.0488 seconds