• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 5
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse en Ondelettes et par Paquets d'Ondelettes de Processus Aléatoires Stationnaires, et Application à l'Estimation Non-Paramétrique

Abdourrahmane, Atto 30 September 2008 (has links) (PDF)
Les transformées en ondelettes et par paquets d'ondelettes se sont largement imposées dans l'analyse et la résolution de problèmes liés aux sciences et techniques de l'ingénierie. Cet essor est dû principalement à deux propriétés spécifiques qui résultent des décompositions sur les bases d'ondelettes : la parcimonie de représentation pour les signaux réguliers et réguliers par morceaux; la tendance à transformer un processus aléatoire stationnaire en séquences de processus Gaussiens décorrélés. Ces deux propriétés sont observées expérimentalement et justifient de nombreux traitements effectués sur les coefficients obtenus par projection sur les bases d'ondelettes. Cependant, les résultats théoriques précisant la corrélation et la distribution asymptotiques des coefficients de paquets d'ondelettes sont de natures significativement différentes. La première partie de cette thèse propose une analyse de ces résultats théoriques, met en lumière la complexité du problème posé, et montre les résultats qu'on l'on peut obtenir à partir des critères de convergence. Les problèmes traités concernent à la fois les fonctions d'autocorrélation et les distributions asymptotiques des coefficients de paquets d'ondelettes de processus stationnaires. Les résultats annoncés conduisent à des schémas plus réalistes qui sont, de surcroît, soutenus par des résultats expérimentaux. La seconde partie de cette thèse analyse les propriétés de parcimonie des transformées à base d'ondelettes et propose l'utilisation de seuils associés à une mesure de parcimonie. Ces seuils établissent un lien entre la détection à l'estimation non-paramétrique, lien que nous résumons par la formule ``bien détecter pour mieux estimer''. Ces seuils unifient les seuils minimax et universels, qui correspondent ainsi à des seuils de détection associés à des degrés différents de parcimonie. D'autre part, cette thèse unifie également les fonctions de seuillage de base (seuillage dur et doux) de l'estimation non-paramétrique par l'introduction d'une famille de fonctions à atténuation de type sigmoïdale : les fonctions SSBS. Les fonctions de seuillage dur et doux sont alors des fonctions SSBS dégénérées, les fonctions SSBS non-dégénérées étant des fonctions régulières et à degré d'atténuation flexible. Les performances de l'estimation non-paramétrique utilisant les seuils de détection et les fonctions SSBS sont également analysées, tant du point de vue de l'erreur quadratique moyenne que de celui de la qualité visuelle en débruitage d'images.
2

Tatouage d'images numériques par paquets d'ondelettes

Manoury, Anne 21 December 2001 (has links) (PDF)
Avec l'apparition et le développement des nouvelles technologies numériques, les fraudes se sont multipliées, soulignant le manque de méthodes concernant la protection des données numériques. Ces données sont en effet très faciles à pirater : on peut les stocker, les copier, les modifier et enfin les diffuser illégalement sans qu'elles perdent de leur qualité et sans prise en compte des droits d'auteurs. Pour répondre à ces besoins, un nouvel axe de recherche se développe très rapidement : le tatouage. Le principe des techniques dites de tatouage est d'insérer une marque imperceptible dans les valeurs de la donnée. Dans le cadre de la protection des droits d'auteurs, la marque insérée, appelée watermarque correspond au code du copyright. Ce type de tatouage doit répondre à des contraintes fortes en termes de robustesse. En effet, quelles que soient les transformations (licites ou illicites) que la donnée tatouée subie, la marque doit rester présente tant que la donnée reste exploitable. De plus, la présence de la marque ne doit être détectée que par des personnes autorisées (possédant une clef de détection privée). De nombreux algorithmes ont étés présentés récemment et certains produits sont même commercialisés, cependant, aucun d'eux ne satisfait pleinement au cahier des charges idéal. Le travail présenté dans ce rapport a pour objectif de proposer une nouvelle méthode de tatouage des images digitales en vue de la protection du copyright. Dans un premier temps, nous présenterons les propriétés générales du processus de tatouage ainsi qu'un aperçu des méthodes utilisées actuellement. Puis nous présenterons la décomposition en paquets d'ondelettes d'un signal ainsi que la sélection de meilleures bases. Ces outils, très utilisés en traitement des images et du signal pour des applications variées tels que la compression, le débruitage , la classification ou la détection de rupture nous permettrons de définir le domaine sur lequel nous insérons la watermarque. Après avoir explicité l'algorithme de tatouage, nous donnerons diverses améliorations à cette méthode. Puis nous l'analyserons de façon conceptuelle.
3

Estimation non linéaire par ondelettes : régression et survie

Bouatou, Mohamed 28 March 1997 (has links) (PDF)
Dans ce travail, nous proposons de nouvelles approches d'estimation fonctionnelle pour des problèmes de régression et d'analyse de données de survie, et ce par l'utilisation de techniques adaptatives et non linéaires, fondées sur des décompositions en ondelettes. Les estimateurs qui en découlent, combinent les techniques d'estimation par projection orthogonale et celles de seuillage ou arbre de régression. Tout au long de ce travail, l'accent est mis sur l'importance que revêt le choix de la base optimale parmi une famille de bases d'ondelettes ou de paquets d'ondelettes exploitant au mieux la structure d'analyse multiéchelle qui leur est associée....
4

Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions

Lu, Zhiping 02 June 2009 (has links) (PDF)
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
5

Méthodes d'ondelettes pour l'analyse numérique d'intégrales oscillantes

Goujot, Daniel 10 December 2004 (has links) (PDF)
Nous utilisons trois discrétisations connues pour leur localisation fréquentielle et spatiale: les bases d'ondelettes, les paquets d'ondelettes et les bases de cosinus locaux. Nous avons construit et programmé deux algorithmes: --- pour l'équation parabolique non-linéaire $\Delta(u)+\1e^(c*u)=f$ avec $f$ présentant une singularité, notre algorithme calcule la compression optimale en dimension 1 et 2, avec résultats numériques pour la dimension 1. --- pour l'équation intégrale oscillante correspondant à la Combined Integral Field Equation qui est en rapport avec le problème de diffraction des ondes (Helmholtz) par un obstacle régulier 2D, lorsque la longueur d'onde diminue vers $0$. Les trois discrétisations ci-dessus sont testées, et nous étudions sa bonne compressibité dans une analyse précise des obstacles à la compression menée de manière asymptotique. Des résultats originaux, montrant que N degrés de liberté par longueur d'onde suffisent à hautes fréquences, ont été démontrés, et les matrices résultant de ce seuillage ont été étudiées, illustrations et preuves à l'appui.

Page generated in 0.1924 seconds