Spelling suggestions: "subject:"deméthodes MCMC"" "subject:"etméthodes MCMC""
1 |
Estimation et Classification de Signaux Altimétriques / Estimation and Classification of Altimetric SignalsSeverini, Jérôme 07 October 2010 (has links)
La mesure de la hauteur des océans, des vents de surface (fortement liés aux températures des océans), ou encore de la hauteur des vagues sont un ensemble de paramètres nécessaires à l'étude des océans mais aussi au suivi de leurs évolutions : l'altimétrie spatiale est l'une des disciplines le permettant. Une forme d'onde altimétrique est le résultat de l'émission d'une onde radar haute fréquence sur une surface donnée (classiquement océanique) et de la mesure de la réflexion de cette onde. Il existe actuellement une méthode d'estimation non optimale des formes d'onde altimétriques ainsi que des outils de classifications permettant d'identifier les différents types de surfaces observées. Nous proposons dans cette étude d'appliquer la méthode d'estimation bayésienne aux formes d'onde altimétriques ainsi que de nouvelles approches de classification. Nous proposons enfin la mise en place d'un algorithme spécifique permettant l'étude de la topographie en milieu côtier, étude qui est actuellement très peu développée dans le domaine de l'altimétrie. / After having scanned the ocean levels during thirteen years, the french/american satelliteTopex-Poséidon disappeared in 2005. Topex-Poséidon was replaced by Jason-1 in december 2001 and a new satellit Jason-2 is waited for 2008. Several estimation methods have been developed for signals resulting from these satellites. In particular, estimators of the sea height and wave height have shown very good performance when they are applied on waveforms backscattered from ocean surfaces. However, it is a more challenging problem to extract relevant information from signals backscattered from non-oceanic surfaces such as inland waters, deserts or ices. This PhD thesis is divided into two parts : A first direction consists of developing classification methods for altimetric signals in order to recognize the type of surface affected by the radar waveform. In particular, a specific attention will be devoted to support vector machines (SVMs) and functional data analysis for this problem. The second part of this thesis consists of developing estimation algorithms appropriate to altimetric signals obtained after reflexion on non-oceanic surfaces. Bayesian algorithms are currently under investigation for this estimation problem. This PhD is co-supervised by the french society CLS (Collect Localisation Satellite) (seehttp://www.cls.fr/ for more details) which will in particular provide the real altimetric data necessary for this study.
|
2 |
Aide à la décision dans la gestion des parcs de compteurs d'eau potablePasanisi, Alberto 01 1900 (has links) (PDF)
La métrologie des compteurs d'eau se dégrade au long de leur vie opérationnelle, entraînant, pour la plupart des compteurs actuellement utilisés en France, une sous-estimation du volume d'eau facturé. Ce phénomène est source de problèmes pour les distributeurs d'eau: il se traduit en un manque à gagner non négligeable et détermine une situation d'inégalité entre les usagers. En outre, une réglementation, de plus en plus exigeante, obligera bientôt les distributeurs à limiter la proportion d'appareils à métrologie imparfaite en dessous d'une valeur fixée. La planification des renouvellements des compteurs est, par conséquent, un problème complexe qui demande la mise en place d'une stratégie optimale. N'importe quelle méthode de planification nécessite la connaissance préliminaire de la métrologie des compteurs en conditions réelles d'exploitation. Le but de cette thèse est de fournir des éléments utiles à la mise en place des règles de gestion optimale adoptées par la Compagnie Générale des Eaux. L'étude de la dégradation de la métrologie se fait avec un modèle dynamique (markovien) à quatre états discrets à métrologie de plus en plus dégradée. Les calculs d'inférence sont réalisés dans un cadre bayésien avec des techniques MCMC (Markov Chain Monte Carlo). Cette méthode d'estimation est une alternative, plus que valide, aux procédures basées sur la recherche du maximum de la vraisemblance sous contraintes. Finalement, on montre que le modèle est capable de fournir des prévisions directement utilisables par les décideurs: l'estimation du sous-comptage et de la probabilité de non-conformité, en fonction de l'âge, de l'agressivité du site et de la consommation annuelle.
|
3 |
Méthodes probabilistes pour l'analyse exploratoire de données textuellesRigouste, Loïs 11 1900 (has links) (PDF)
Nous abordons le problème de la classification non supervisée de documents par des méthodes probabilistes. Notre étude se concentre sur le modèle de mélange de lois multinomiales avec variables latentes thématiques au niveau des documents. La construction de groupes de documents thématiquement homogènes est une des technologies de base de la fouille de texte, et trouve de multiples applications, aussi bien en recherche documentaire qu'en catégorisation de documents, ou encore pour le suivi de thèmes et la construction de résumés. Diverses propositions récentes ont été faites de modèles probabilistes permettant de déterminer de tels regroupements. Les modèles de classification probabilistes peuvent également être vus comme des outils de construction de représentations numériques synthétiques d'informations contenues dans le document. Ces modèles, qui offrent des facilités pour la généralisation et l'interprétation des résultats, posent toutefois des problèmes d'estimation difficiles, dûs en particulier à la très grande dimensionnalité du vocabulaire. Notre contribution à cette famille de travaux est double: nous présentons d'une part plusieurs algorithmes d'inférence, certains originaux, pour l'estimation du modèle de mélange de multinomiales; nous présentons également une étude systématique des performances de ces algorithmes, fournissant ainsi de nouveaux outils méthodologiques pour mesurer les performances des outils de classification non supervisée. Les bons résultats obtenus par rapport à d'autres algorithmes classiques illustrent, à notre avis, la pertinence de ce modèle de mélange simple pour les corpus regroupant essentiellement des documents monothématiques.
|
4 |
Traitement statistique des distorsions non-linéaires pour la restauration des enregistrements sonores.Picard, Guillaume 12 1900 (has links) (PDF)
L'objet de la thèse est l'étude, la modélisation et le traitement des distorsions non linéaires sonores, pour lesquelles les techniques actuelles s'avèrent impuissantes. L'approche retenue consiste à représenter, globalement, à la fois le signal audio à restaurer et le processus de distorsion, dans le cadre d'un modèle statistique. Cette approche présente un bon compromis entre une souhaitable généricité -possibilité de traiter à l'aide d'une méthode globale plusieurs types de distorsions- et l'utilisation de connaissances spécifiques, notamment concernant les sources de distorsions. La première étape de la thèse consiste en une analyse des mécanismes de la distorsion basée sur une série de mesures où plusieurs séquences audio sont enregistrées en entrée et en sortie d'appareils audiofréquences standards (amplificateurs de puissance, convertisseurs numérique-analogique, enregistreurs sur bandes magnétiques). Les éléments d'analyse retenus conduisent à la présentation des hypothèses principales du traitement. La méthode est basée sur un modèle de transmission non-linéaire choisi parmi ceux étudiés dans la littérature (modèles en cascades de Hammerstein simple), ainsi qu'un modèle des signaux à restaurer (modélisation autorégressive et modèle gaussien à écart-type variable). La seconde étape définit d'une part, la méthode d'identification ``autodidacte'' (à partir de la donnée seule du signal distordu) du modèle de distorsion et d'autre part, la technique de reconstruction de l'extrait sonore associée aux modèles de distorsion et de signal.
|
5 |
Estimation et Classification des Signaux AltimétriquesSeverini, Jerome, Mailhes, Corinne, Tourneret, Jean-Yves 07 October 2010 (has links) (PDF)
La mesure de la hauteur des océans, des vents de surface (fortement liés aux températures des océans), ou encore de la hauteur des vagues sont un ensemble de paramètres nécessaires à l'étude des océans mais aussi au suivi de leurs évolutions : l'altimétrie spatiale est l'une des disciplines le permettant. Une forme d'onde altimétrique est le résultat de l'émission d'une onde radar haute fréquence sur une surface donnée (classiquement océanique) et de la mesure de la réflexion de cette onde. Il existe actuellement une méthode d'estimation non optimale des formes d'onde altimétriques ainsi que des outils de classifications permettant d'identifier les différents types de surfaces observées. Nous proposons dans cette étude d'appliquer la méthode d'estimation bayésienne aux formes d'onde altimétriques ainsi que de nouvelles approches de classification. Nous proposons enfin la mise en place d'un algorithme spécifique permettant l'étude de la topographie en milieu côtier, étude qui est actuellement très peu développée dans le domaine de l'altimétrie.
|
6 |
Consolidation de l'information hydrologique disponible localement et régionalement pour l'estimation probabiliste du régime des cruesRibatet, Mathieu 10 December 2007 (has links) (PDF)
Le praticien, lors de l'étape de prédétermination des débits de crue, est souvent confronté à un jeu de données restreint. Dans notre travail de recherche, nous avons proposé trois nouveaux modèles probabilistes spécialement conçus pour l'estimation des caractéristiques du régime des crues en contexte partiellement jaugé. Parmi ces modèles, deux d'entre eux sont des modèles dits régionaux, i.e. intégrant de l'information en provenance de stations ayant un comportement réputé similaire à celui du site étudié. Ces modèles, basés sur la théorie Bayésienne, ont montré une grande robustesse au degré d'hétérogénéité des sites appartenant à la région. De même, il est apparu que pour l'estimation des forts quantiles (T > 50 ans), l'idée d'un paramètre régional contrôlant l'extrapolation est pertinente mais doit d'être intégrée de manière souple et non imposée au sein de la vraisemblance. L'information la plus précieuse dont le praticien dispose étant celle en provenance du site d'étude, le troisième modèle proposé revient sur l'estimation à partir des seules données contemporaines au site d'étude. Ce nouveau modèle utilise une information plus riche que celle issue d'un échantillonnage classique de v.a.i.id. maximales puisque toute la chronique est exploitée. Dès lors, même avec seulement cinq années d'enregistrement et grâce à une modélisation de la dépendance entres les observations successives, la taille des échantillons exploités est alors bien plus importante. Nous avons montré que pour l'estimation des quantiles de crues, ce modèle surpasse très nettement les approches locales classiquement utilisées en hydrologie. Ce résultat est d'autant plus vrai lorsque les périodes de retour deviennent importantes. Enfin, part construction, cette approche permet également d'obtenir une estimation probabiliste de la dynamique des crues.
|
7 |
Modèles bayésiens hiérarchiques pour le traitement multi-capteurDobigeon, Nicolas 19 October 2007 (has links) (PDF)
Afin de traiter la masse d'informations récoltée dans de nombreuses applications, il est nécessaire de proposer de nouvelles méthodes de traitement permettant d'exploiter le caractère « multi-capteur » des données observées. Le sujet de cette thèse consiste à étudier des algorithmes d'estimation dans un contexte multi-capteur où plusieurs signaux ou images issus d'une même application sont disponibles. Ce problème présente un grand intérêt puisqu'il permet d'améliorer les performances d'estimation par rapport à une analyse qui serait menée sur chaque signal indépendamment des autres. Nous avons développé dans ce contexte des méthodes d'inférence bayésienne hiérarchique afin de résoudre efficacement des problèmes de segmentation de signaux multiples et d'analyse d'images hyperspectrales. L'utilisation de méthodes de Monte Carlo par chaînes de Markov permet alors de surmonter les difficultés liées à la complexité calculatoire de ces méthodes d'inférence.
|
8 |
Analyse spectrale à haute résolution de signaux irrégulièrement échantillonnés : application à l'Astrophysique.Bourguignon, Sébastien 14 December 2006 (has links) (PDF)
L'étude de nombreux phénomènes astronomiques repose sur la recherche de périodicités dans des séries temporelles (courbes de lumière ou de vitesse radiale). En raison des contraintes observationnelles, la couverture temporelle des données résultantes est souvent incomplète, présentant des trous périodiques ainsi qu'un échantillonnage irrégulier. L'analyse du contenu fréquentiel de telles séries basée sur le spectre de Fourier s'avère alors inefficace et les méthodes heuristiques de déconvolution de type CLEAN, couramment utilisées en astronomie, ne donnent pas entière satisfaction. Cette thèse s'inscrit dans le formalisme fréquemment rencontré depuis les années 1990 abordant l'analyse spectrale sous la forme d'un problème inverse, le spectre étant discrétisé sur une grille fréquentielle arbitrairement fine. Sa régularisation est alors envisagée en traduisant la nature a priori parcimonieuse de l'objet à reconstruire: nous nous intéressons ici à la recherche de raies spectrales. <br />Une première approche envisagée a trait au domaine de l'optimisation et consiste à minimiser un critère de type moindres carrés, pénalisé par une fonction favorisant les solutions parcimonieuses. La pénalisation par la norme l1 est en particulier étudiée en extension à des variables complexes et s'avère satisfaisante en termes de modélisation. Nous proposons des solutions algorithmiques particulièrement performantes permettant d'envisager une analyse à très haute résolution fréquentielle. <br />Nous étudions ensuite la modélisation probabiliste des amplitudes spectrales sous la forme d'un processus Bernoulli-Gaussien, dont les paramètres sont estimés au sens de la moyenne a posteriori à partir de techniques d'échantillonnage stochastique, permettant d'envisager une estimation totalement non supervisée. L'interprétation probabiliste du résultat ainsi que l'obtention conjointe des variances associées, sont alors d'un intérêt astrophysique majeur, s'interprétant en termes de niveaux de confiance sur les composantes spectrales détectées. Nous proposons dans un premier temps des améliorations de l'algorithme échantillonneur de Gibbs permettant d'accélérer l'exploration de la loi échantillonnée. Ensuite, nous introduisons des variables de décalage fréquentiel à valeur continue, permettant d'augmenter la précision de l'estimation sans trop pénaliser le coût calculatoire associé. <br />Pour chaque méthode proposée, nous illustrons sur des simulations la qualité de l'estimation ainsi que les performances des algorithmes développés. Leur application à un jeu de données issu d'observations astrophysiques est enfin présentée, mettant en évidence l'apport d'une telle méthodologie par rapport aux méthodes d'analyse spectrale habituellement utilisées.
|
9 |
Méthodes Bayésiennes pour le démélange d'images hyperspectrales / Bayesian methods for hyperspectral image unmixingEches, Olivier 14 October 2010 (has links)
L’imagerie hyperspectrale est très largement employée en télédétection pour diverses applications, dans le domaine civil comme dans le domaine militaire. Une image hyperspectrale est le résultat de l’acquisition d’une seule scène observée dans plusieurs longueurs d’ondes. Par conséquent, chacun des pixels constituant cette image est représenté par un vecteur de mesures (généralement des réflectances) appelé spectre. Une étape majeure dans l’analyse des données hyperspectrales consiste à identifier les composants macroscopiques (signatures) présents dans la région observée et leurs proportions correspondantes (abondances). Les dernières techniques développées pour ces analyses ne modélisent pas correctement ces images. En effet, habituellement ces techniques supposent l’existence de pixels purs dans l’image, c’est-à-dire des pixels constitué d’un seul matériau pur. Or, un pixel est rarement constitué d’éléments purs distincts l’un de l’autre. Ainsi, les estimations basées sur ces modèles peuvent tout à fait s’avérer bien loin de la réalité. Le but de cette étude est de proposer de nouveaux algorithmes d’estimation à l’aide d’un modèle plus adapté aux propriétés intrinsèques des images hyperspectrales. Les paramètres inconnus du modèle sont ainsi déduits dans un cadre Bayésien. L’utilisation de méthodes de Monte Carlo par Chaînes de Markov (MCMC) permet de surmonter les difficultés liées aux calculs complexes de ces méthodes d’estimation. / Hyperspectral imagery has been widely used in remote sensing for various civilian and military applications. A hyperspectral image is acquired when a same scene is observed at different wavelengths. Consequently, each pixel of such image is represented as a vector of measurements (reflectances) called spectrum. One major step in the analysis of hyperspectral data consists of identifying the macroscopic components (signatures) that are present in the sensored scene and the corresponding proportions (concentrations). The latest techniques developed for this analysis do not properly model these images. Indeed, these techniques usually assume the existence of pure pixels in the image, i.e. pixels containing a single pure material. However, a pixel is rarely composed of pure spectrally elements, distinct from each other. Thus, such models could lead to weak estimation performance. The aim of this thesis is to propose new estimation algorithms with the help of a model that is better suited to the intrinsic properties of hyperspectral images. The unknown model parameters are then infered within a Bayesian framework. The use of Markov Chain Monte Carlo (MCMC) methods allows one to overcome the difficulties related to the computational complexity of these inference methods.
|
10 |
Modélisation de signaux fortement non stationnaires à phase et à amplitude locales polynomiales.Jabloun, Meryem 10 July 2007 (has links) (PDF)
Ce travail de recherche est consacré à l'élaboration et le développement d'une nouvelle méthode d'estimation<br />et de reconstruction de signaux fortement non-stationnaires, modulés non-linéairement à la fois<br />en amplitude et en fréquence. L'estimation de tels signaux dans un contexte trés bruité est un problème<br />délicat et les méthodes existantes de la littérature présentent plusieurs inconvénients dans ce cas.<br />Nous avons montré comment une approche locale permet une meilleure adaptabilité du modèle à la<br />nature des variations locales des amplitudes et des fréquences instantanées. Les résultats de l'estimation<br />sont par conséquent améliorés. L'originalité de la méthode proposée tient à l'application de modèles paramétriques bien adaptés sur des segments temporels de courtes durées extraits du signal étudié. Nous<br />avons proposé une stratégie de segmentation puis une stratégie de fusion des segments estimés permettant<br />la reconstruction du signal dans la totalité de sa durée. L'approche proposée permet de s'affranchir d'un<br />modèle global du signal requérant un ordre d'approximation élevé.<br />La validation de l'efficacité de l'estimation a été effectuée au préalable sur un segment temporel court.<br />Le modèle considéré localement consiste en une approximation polynomiale de la fréquence et de l'amplitude<br />exprimée dans une base polynomiale discrète et orthonormale que nous avons calculée. Cette base<br />permet de réduire le couplage entre les paramètres du modèle. Nous proposons et comparons deux techniques<br />différentes pour estimer ces derniers. La première est fondée sur la maximisation de la fonction<br />de vraisemblance en utilisant la technique d'optimisation stochastique le recuit simulé. Tandis que la<br />deuxième se base sur une approche Bayésienne employant les méthodes MCMC simulées par l'algorithme<br />de Metroplois-Hastings.<br />Nous montrons, sur des simulations et également sur des signaux réels, que l'approche proposée fournit<br />de bons résultats d'estimation par comparaison à celles de la HAF.
|
Page generated in 0.034 seconds