• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Tatouage robuste par étalement de spectre avec prise en compte de l'information adjacente

Le Guelvouit, Gaëtan 24 November 2003 (has links) (PDF)
La technologie numérique rend la transmission, le stockage et la modification de documents multimedia beaucoup plus aisés qu'auparavant. Mais du fait de cette facilité, l'authentification et la gestion des droits d'auteur deviennent difficiles. Le tatouage robuste est une solution qui s'est beaucoup développée depuis une dizaine d'années. Il permet d'insérer au sein d'un document multimedia (document hôte) un message (identifiant d'auteur, signature numérique, . . .). Cette modification est peu perceptible afin de ne pas gêner l'exploitation normale du document marqué. De plus, l'algorithme d'extraction doit pouvoir retrouver le message malgré d'éventuelles modifications de l'hôte (attaques). Alors que les premières études sur ce domaine étaient empiriques, il est apparu rapidement que le tatouage était assimilable à un problème de communication. Nous faisons le choix d'utiliser une technique de transmission particulièrement adaptée aux canaux fortement bruités, appelée étalement de spectre, et nous considérons des attaques SAWGN (scaling and additive white Gaussian noise). L'interaction entre tatouage et attaques est modélisée par un jeu entre un attaquant et un défenseur. Une optimisation de type max-min donne la forme de l'attaque optimale, qui va le plus réduire la performance de la transmission, et de la stratégie qui permet de s'en protéger au mieux. L'application de ces résultats sur des signaux issus de la transformée en ondelettes d'images confirme le bien-fondé de notre approche : l'attaque obtenue est la plus efficace, et la stratégie d'insertion est bien plus performante que les techniques testées issues de l'état de l'art. Le canal de tatouage est un canal avec information adjacente : une partie du bruit (le signal hôte) est connue au moment de l'insertion de la marque. Les travaux sur ces canaux promettent des performances théoriques bien supérieures aux canaux gaussiens classiques. Dans la troisième partie de ce manuscrit, nous reprenons l'optimisation par théorie des jeux en incluant une mesure de performance prenant en compte l'information adjacente. Nous détaillons ensuite la construction d'un dictionnaire structuré adapté à ces canaux. Les expérimentations nous indiquent de forts gains de performance. Enfin, le dernier chapitre améliore le jeu : l'étude de l'influence de désynchronisations géométriques sur les performances, et la définition d'une attaque informée prenant en compte la réalisation du signal reçu.
272

Point de vue maxiset en estimation non paramétrique

Autin, Florent 07 December 2004 (has links) (PDF)
Dans le cadre d'une analyse par ondelettes, nous étudions les propriétés statistiques de diverses classes de procédures. Plus précisément, nous cherchons à déterminer les espaces maximaux (maxisets) sur lesquels ces procédures atteignent une vitesse de convergence donnée. L'approche maxiset nous permet alors de donner une explication théorique à certains phénomènes observés en pratique et non expliqués par l'approche minimax. Nous montrons en effet que les estimateurs de seuillage aléatoire sont plus performants que ceux de seuillage déterministe. Ensuite, nous prouvons que les procédures de seuillage par groupes, comme certaines procédures d'arbre (proches de la procédure de Lepski) ou de seuillage par blocs, ont de meilleures performances au sens maxiset que les procédures de seuillage individuel. Par ailleurs, si les maxisets des estimateurs Bayésiens usuels construits sur des densités à queues lourdes sont de même nature que ceux des estimateurs de seuillage dur, nous montrons qu'il en est de même pour ceux des estimateurs Bayésiens construits à partir de densités Gaussiennes à grande variance et dont les performances numériques sont très bonnes.
273

Analyse de l'activité électrique multi-sites du cortex auditif chez le cobaye

La Rota, Camilo 13 January 2003 (has links) (PDF)
La problématique qui a motivé cette étude est celle de la représentation et du traitement de l'information dans le néocortex. On s'intéresse en particulier à l'hypothèse selon laquelle l'information sensorielle est représentée par un "code" spatio-temporel dans l'activité coopérative des populations neuronales. Cette étude est fondamentale pour le développement de solutions technologiques à certains problèmes médicaux (e.g. neuroprothèses). La disponibilité de nouvelles techniques de mesure multi-sites qui permettent d'observer l'activité spatiotemporelle du cortex à de hautes résolutions, nous donne l'occasion d'aborder la notion "d'interaction neuronale" à des échelles mésoscopiques et d'étudier les mécanismes de la sensation et de la perception au niveau des aires fonctionnelles. Nous nous sommes intéressés à l'activité électrique du cortex auditif en réponse aux stimuli sonores, observée in vivo chez le cobaye à l'aide de colorants fluorescents potentiel-dépendants. Nous avons étudié des méthodes pour le traitement, l'analyse et la compression/intégration de l'information spatio-temporelle, adaptées à ce type de données. Une analyse descriptive nous a permit de caractériser les signaux recueillis, ainsi que leur variabilité et les erreurs qui nuisent à la mesure. Une étude théorique est venue compléter cette description et a permit d'interpréter nos données par rapport à l'activité neuronale sous-jacente. Le signal de fluorescence est difficile à traiter avec des techniques classiques de traitement du signal, nous avons donc utilisé des techniques basées sur la transformée en ondelettes afin d'estimer et de caractériser l'activité d'origine neuronale. Finalement, nous avons analysé quelques approches pour la modélisation spatio-temporelle de l'activité du cortex, et nous avons étudié l'adéquation de ces modèles à nos données. Des éléments de méthode pour l'étude de cette problématique et des perspectives pour les expériences futures sont avancés.
274

Analyse spatio-temporelle de la variabilité hydrologique du bassin versant du Mississippi : rôle des fluctuations climatiques et déduction de l'impact des modifications du milieu physique

Rossi, Aurélien 13 December 2010 (has links) (PDF)
Les grands bassins versants d'échelle continentale, comme le Mississippi, intègrent la réponse hydrologique aux changements climatiques et environnementaux (fluctuations du climat, précipitations, débits, flux sédimentaires) à de larges échelles spatiales et temporelles, mais également les modifications du milieu physique d'origine anthropique (changements d'occupation des sols, aménagements...), ce qui rend parfois difficile l'identification des liens entre la variabilité hydrologique et la variabilité climatique. Les principaux objectifs de ce travail sont de déterminer et de quantifier les relations entre la variabilité hydrologique et les fluctuations du climat (précipitations régionalisées, indices climatiques) à l'échelle du bassin versant du Mississippi et de ses principaux sous-bassins ; via l'utilisation de méthodes d'analyses spectrales adaptées à l'étude des processus instationnaires (analyse en ondelettes continues, analyse de la cohérence par ondelettes). La variabilité hydrologique du Mississippi et de ses principaux affluents est structurée par plusieurs modes de variabilité, s'exprimant de l'échelle annuelle aux échelles inter-annuelle (2-4 ans, 3-6 ans, 5-8 ans), décennale (8-16 ans, 12-16 ans) et à plus long terme (22 ans, 22-26 ans). Ces modes de variabilité sont fortement similaires à ceux observés dans les précipitations (avec une cohérence moyenne de 77% à 89% selon les sous-bassins), et opèrent aux mêmes échelles de temps que la variabilité des principales fluctuations du climat affectant la région (ENSO, PDO, AMO, NAO, NAM et PNA), préalablement identifiés et synthétisés par une méthodologie similaire. La variabilité des débits du bassin versant du Mississippi se trouve influencée par un ensemble de téléconnections (cohérence de 63% à 66% en moyenne avec l'ensemble des indices climatiques), opérant toutefois à différentes échelles spatiales et temporelles, et qui évoluent au cours du temps (relations à divers degrés suivant les différentes échelles de temps, le mode de variabilité du climat mis en jeu et le sous-bassin versant considéré). De plus, la variabilité hydrologique du Mississippi et de ses principaux affluents s'inscrit plus largement dans le cadre d'une rupture majeure du système climatique et des systèmes hydrologiques à l'échelle globale observée vers 1970, qui se traduit notamment par une augmentation et une plus forte variabilité des débits, ainsi que des changements de la composition spectrale des paramètres hydrologiques et climatiques. En ce sens, la construction d'un indice " hydro climatique unifié " à été proposée en reprenant l'ensemble des caractéristiques globales du système climatique et celles plus spécifiques à l'échelle régionale (échelle des sous bassins versants). Enfin, même si la majorité des paramètres hydrologiques se trouve apparemment très fortement liée par les paramètres climatiques, d'autres facteurs, comme les modifications du milieu physique (occupation des sols, aménagements...), peuvent avoir une influence non négligeable sur l'évolution de certains paramètres hydrologiques (hauts et bas débits), mais qui serait beaucoup plus localisée dans le temps et dans l'espace (i.e., elle ne serait pas associée à l'existence d'oscillations dans l'hydrologie). A l'exception des flux hydrosédimentaires, marqués par de profonds changements qui ont pu être reliés aux aménagements du bassin versant et quantifiés par une méthodologie de modélisation spectrale (diminution des flux de sédiments en suspension exportés à l'exutoire d'environ 2,25.10^8 t.an-1 sur la période 1950-1975), ces influences apparaissent spatialement localisées, et restent difficiles à caractériser. Outre leurs faibles contributions, ceci provient également du fait que ces modifications du milieu physique agissent simultanément avec d'autres facteurs pouvant modifier la réponse hydrologique, comme les changements observés dans le climat, qui reste le facteur principal des changements observés.
275

Méthodes de traitement de données géophysiques par transformée en ondelettes.

Moreau, Frédérique 20 October 1995 (has links) (PDF)
Cette thèse concerne le développement de nouvelles méthodes de traitement et d'interprétation de données de champs de potentiel. Dans un premier temps, nous avons élaboré un algorithme rapide de débruitage de données géophysiques par transformée en ondelettes orthogonales. La méthode proposée permet de tenir compte des non-stationnarités du rapport signal/bruit. Elle est basée sur quelques tests statistiques qui permettent de séparer les coefficients d'ondelettes dus au signal de ceux dus au bruit. Le signal est alors reconstruit par transformée inverse sur les coefficients conservés. L'idée directrice de la deuxième méthode est d'effectuer une imagerie structurale du soussol à partir d'un champ mesuré en surface. Nous avons d'abord intégré la théorie du potentiel dans la théorie des ondelettes, par l'intermédiaire de l'homogénéité des champs dus à des sources multipolaires. L'introduction d'ondelettes définies à partir du noyau de Poisson permet alors de déterminer précisément la localisation et le degré d'homogénéité des sources présentes. L'utilisation des lignes d'extréma de la transformée rend la méthode robuste vis-à-vis du bruit. Nous avons ensuite généralisé la méthode au cas des sources étendues, ce qui nous permet de localiser et de caractériser des bords d'objets. L'inclinaison des structures peut être déterminée par l'utilisation d'ondelettes complexes. En dernier lieu, cette formulation du problème inverse nous a permis de développer une méthode de filtrage par critères structuraux (type et profondeurs des sources). Nous donnons quelques exemples d'applications sur des données gravimétriques. Les possibilités de la méthode sont illustrées sur des zones de fractures ou de subduction.
276

Analyse de la qualité vocale appliquée à la parole expressive

Sturmel, Nicolas 02 March 2011 (has links) (PDF)
L'analyse des signaux de parole permet de comprendre le fonctionnement de l'appareil vocal, mais aussi de décrire de nouveaux paramètres permettant de qualifier et quantifier la perception de la voix. Dans le cas de la parole expressive, l'intérêt se porte sur des variations importantes de qualité vocales et sur leurs liens avec l'expressivité et l'intention du sujet. Afin de décrire ces liens, il convient de pouvoir estimer les paramètres du modèle de production mais aussi de décomposer le signal vocal en chacune des parties qui contribuent à ce modèle. Le travail réalisé au cours de cette thèse s'axe donc autour de la segmentation et la décomposition des signaux vocaux et de l'estimation des paramètres du modèle de production vocale : Tout d'abord, la décomposition multi-échelles des signaux vocaux est abordée. En reprenant la méthode LoMA qui trace des lignes suivant les amplitudes maximum sur les réponses temporelles au banc de filtre en ondelettes, il est possible d'y détecter un certain nombre de caractéristiques du signal vocal : les instants de fermeture glottique, l'énergie associée à chaque cycle ainsi que sa distribution spectrale, le quotient ouvert du cycle glottique (par l'observation du retard de phase du premier harmonique). Cette méthode est ensuite testée sur des signaux synthétiques et réels. Puis, la décomposition harmonique + bruit des signaux vocaux est abordée. Une méthode existante (PAPD - Périodic/APériodic Décomposition) est adaptée aux variations de fréquence fondamentale par le biais de la variation dynamique de la taille de la fenêtre d'analyse et est appelée PAP-A. Cette nouvelle méthode est ensuite testée sur une base de signaux synthétiques. La sensibilité à la précision d'estimation de la fréquence fondamentale est notamment abordée. Les résultats montrent des décompositions de meilleures qualité pour PAP-A par rapport à PAPD. Ensuite, le problème de la déconvolution source/filtre est abordé. La séparation source/filtre par ZZT (zéros de la transformée en Z) est comparée aux méthodes usuelles à base de prédiction linéaire. La ZZT est utilisée pour estimer les paramètres du modèle de la source glottique via une méthode simple mais robuste qui permet une estimation conjointe de deux paramètres du débit glottique : le quotient ouvert et l'asymétrie. La méthode ainsi développée est testée et combinée à l'estimation du quotient ouvert par ondelettes. Finalement, ces trois méthodes d'estimations sont appliquées à un grand nombre de fichiers d'une base de données comportant différents styles d'élocution. Les résultats de cette analyse sont discutés afin de caractériser le lien entre style, valeur des paramètres de la production vocale et qualité vocale. On constate notamment l'émergence très nette de groupes de styles.
277

Quelques contributions en classification, régression et étude d'un problème inverse en finance

Monnier, Jean-Baptiste 06 December 2011 (has links) (PDF)
On s'intéresse aux problèmes de régression, classification et à un problème inverse en finance. Nous abordons dans un premier temps le problème de régression en design aléatoire à valeurs dans un espace euclidien et dont la loi admet une densité inconnue. Nous montrons qu'il est possible d'élaborer une stratégie d'estimation optimale par projections localisées sur une analyse multi-résolution. Cette méthode originale offre un avantage calculatoire sur les méthodes d'estimation à noyau traditionnellement utilisées dans un tel contexte. On montre par la même occasion que le classifieur plug-in construit sur cette nouvelle procédure est optimal. De plus, il hérite des avantages calculatoires mentionnés plus haut, ce qui s'avère être un atout crucial dans de nombreuses applications. On se tourne ensuite vers le problème de régression en design aléatoire uniformément distribué sur l'hyper-sphère et on montre comment le tight frame de needlets permet de généraliser les méthodes traditionnelles de régression en ondelettes à ce nouveau contexte. On s'intéresse finalement au problème d'estimation de la densité risque-neutre à partir des prix d'options cotés sur les marchés. On exhibe une décomposition en valeurs singulières explicite d'opérateurs de prix restreints et on montre qu'elle permet d'élaborer une méthode d'estimation de la densité risque-neutre qui repose sur la résolution d'un simple programme quadratique.
278

Contribution de la texture pour l'analyse d'images à très haute résolution spatiale : application à la détection de changement en milieu périurbain

Lefebvre, Antoine 14 April 2011 (has links) (PDF)
Les données de télédétection acquises à Très Haute Résolution Spatiale (THRS) constituent une source d'information importante pour le suivi détaillé des changements d'occupation du sol sur de petites surfaces. Ces données sont particulièrement intéressantes pour les applications dans les milieux urbains et périurbains car elles permettent d'appréhender des changements brusques et irréguliers autant que des modifications subtiles et régulières. Toutefois, l'exploitation d'images à THRS nécessite des développements méthodologiques, les méthodes de détection de changement généralement utilisées pour traiter les images à basse et moyenne résolution n'étant pas adaptées : d'une part l'étendue et la résolution spectrale des capteurs à THRS sont souvent inférieures à celles des autres capteurs, la résolution spectrale des capteurs diminuant avec l'augmentation de leur résolution spatiale. D'autre part, la variabilité spectrale des pixels définissant les classes d'occupation du sol augmente en fonction de la résolution spatiale. Cette thèse présente ainsi une série d'outils méthodologiques qui permettent d'identifier et de caractériser automatiquement des changements affectant de petites surfaces à partir de données à THRS acquises à différentes dates et provenant de différentes sources. Contrairement à la majorité des méthodes utilisées en télédétection, l'originalité des outils présentés ne repose pas exclusivement ou essentiellement sur l'utilisation de l'information spectrale de l'image ; ils reposent surtout sur les propriétés de texture des objets géographiques observés. La texture est caractérisée à partir d'une analyse des coefficients issus d'une décomposition en ondelettes des images. Les outils développés comprennent : une méthode de correction de l'effet de vignettage des photographies aériennes anciennes ; une technique de segmentation d'images ; une méthode d'estimation de l'orientation dominante de motifs texturés ; une méthode de classification ; une méthode de détection de changements. L'ensemble de ces outils a été validé à partir d'exemples synthétiques, puis appliqué sur un secteur périurbain de l'agglomération rennaise afin de détecter les changements d'occupation et d'utilisation des sols à partir de photographies aériennes acquises en 1978 et 2001. Les taux de changement correctement détectés, qui varient de 78 % à 85 %, montrent l'intérêt d'exploiter la texture pour classer des images à THRS. Il est possible de détecter automatiquement différents types de changements et ainsi de distinguer des changements de pratiques culturales et des changements liés à l'artificialisation des sols. Les outils développés dans cette thèse sont génériques et s'appliquent à l'analyse de tout objet texturé. Ainsi nous avons exploité certains outils proposés pour détecter et caractériser des parcelles viticoles ou estimer des mouvements fluides en aéronautique
279

Fusion de données : prise en compte des caractéristiques liées à l'imageur lors de la synthèse d'images multispectrales à haute résolution spatiale

Massip, Pierre 19 November 2010 (has links) (PDF)
Les satellites d'observation de la Terre (Quickbird, Ikonos, SPOT-5, PLÉIADES) fournissent des images de deux types : soit une image panchromatique à haute résolution spatiale mais basse résolution spectrale, soit une image multispectrale dont la résolution spatiale est inférieure d'un rapport 2 ou 4, mais avec une bonne résolution spectrale. Des méthodes permettant la fusion de ces deux types d'images existent, cependant il est encore possible d'améliorer la qualité des images synthétisées. Nos travaux visent à améliorer la qualité des images synthétisées par une meilleure prise en compte des caractéristiques de l'imageur comme ; la Fonction de Transfert de Modulation (FTM) et l'échantillonnage. Les travaux que nous avons menés sur l'impact du repliement de spectre présent dans les images MS ont mis en évidence que l'absence de repliement permet la suppression des artefacts visuels importants, mais les outils usuels d'évaluation de la qualité des images de fusion ne permettent pas la quantification des performances. La FTM caractérise la capacité de l'instrument à représenter un contraste en fonction de la fréquence spatiale. Celle-ci diffère entre les images PAN et MS. Nous avons proposé à partir de méthodes existantes, deux méthodes de fusion permettant de mieux prendre en compte la FTM et ainsi d'améliorer la qualité et les caractéristiques de l'image synthétisée.
280

Analyse temps-fréquence et modèles d'invariance d'échelle: Contribution à l'étude de systèmes complexes

Gonçalves, Paulo 29 March 2010 (has links) (PDF)
Manifeste depuis longtemps dans les sciences du vivant, le traitement du signal, apparaît plus tardivement dans la communauté réseaux. On est alors surpris de voir que deux systèmes complexes, aussi distants que le coeur et un réseau informatique, présentent du point de vue des lois d'échelle, des invariances très semblables. Sans dire qu'elles sont les signatures de structures comparables, ces propriétés font néanmoins appel aux mêmes outils d'analyse, d'estimation ou de modélisation, et c'est dans la conception de ceux-ci que se situe le travail présenté. Cette "unité méthodologique" est le fil conducteur qui m'a permis de décloisonner les différents domaines de recherche abordés. Dans une première partie je trace un bilan de mes différentes contributions aux sciences de l'information, classées selon deux grandes catégories: - Les représentations temps-fréquence dont l'objectif est un meilleur redéploiement de l'information contenue dans le signal pour mettre en évidence certaines organisations ou propriétés difficiles à identifier autrement; - Les outils statistiques qui, stimulés par les progrès accomplis sur les représentations en général et les ondelettes en particulier, augmentent en retour les possibilités d'exploitation de ces objets. Dans un deuxième temps, j'illustre avec les deux applications qui sont au centre de mon activité - étude des systèmes de communication et analyse du système cardiovasculaire - des résultats originaux et concrets issus de l'application de ces outils théoriques. Enfin, ces exemples me donnent l'occasion de conclure en défendant la vision d'une approche coopérative et globale de la complexité en vue d'une meilleure compréhension des mécanismes à l'origine des systèmes.

Page generated in 0.0483 seconds