• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Optimisation du compromis débit/distorsion pour la compression géométrique de maillages surfaciques triangulaires

Payan, Frédéric 02 December 2004 (has links) (PDF)
les travaux développés dans cette thèse portent sur l'optimisation du compromis débit-distorsion pour des maillages triangulaires quantifiés par un codeur géométrique. De nombreux travaux considèrent que la géométrie est la composante la plus importante d'un maillage polygonal. Les codeurs issus de ces travaux appelés codeurs géométriques, incluent une étape de remaillage et une transformée en ondelettes qui permet une analyse multirésolution efficace. L'objectif de nos travaux est de proposer un codeur géométrique incluant une allocation binaire qui optimise la qualité visuelle du maillage reconstruit en fonction du débit. Le but de l'allocation est de minimiser la distance surface-surface entre le maillage d'entrée et le maillage quantifié en fonction d'un débit de consigne. Cette distance qui traduit la différence géométrique entre deux maillages demande un lourd processus d'un point de vue calculatoire. Utiliser une approximation de cette mesure comme critère de distorsion est donc préférable si l'on souhaite une allocation rapide. Nous avons alors montré que sous certaines hypothèses cette mesure pouvait être estimée par une somme pondérée des erreurs de quantification des coefficients d'ondelettes. De plus, les particularités statistiques des coefficients d'ondelettes<br />géométriques permettent l'utilisation de modèles théoriques pour le<br />débit et la distorsion des sous-bandes de coefficients. Finalement,<br />nous proposons un codeur géométrique incluant une allocation rapide et performante qui optimise la quantification des coefficients pour que la qualité visuelle de l'objet reconstruit soit maximisée sous la contrainte d'un débit total fixé. Expérimentalement, l'algorithme<br />proposé donne de meilleurs résultats que toutes les méthodes de l'état de l'art.
282

Segmentation parole/musique pour la transcription automatique de parole continue

Didiot, Emmanuel 13 November 2007 (has links) (PDF)
Dans cette thèse, nous étudions la segmentation d'un flux audio en parole, musique et parole sur musique (P/M). Cette étape est fondamentale pour toute application basée sur la transcription automatique de flux radiophoniques et plus généralement multimédias. L'application visée ici est un système de détection de mots clés dans les émissions radiophoniques. Les performances de ce système dépendront de la bonne segmentation du signal fournie par le système de discrimination parole/musique. En effet, une mauvaise classification du signal peut provoquer des omissions de mots clés ou des fausses alarmes. Afin d'améliorer la discrimination parole/musique, nous proposons une nouvelle méthode de paramétrisation du signal. Nous utilisons la décomposition en ondelettes qui permet une analyse des signaux non stationnaires dont la musique est un exemple. Nous calculons différentes énergies sur les coefficients d'ondelettes pour construire nos vecteurs de paramètres. Le signal est alors segmenté en quatre classes : parole (P), non-parole (NP), musique (M) et non-musique (NM) grâce à deux systèmes disjoints de classification HMM classe/non-classe. Cette architecture a été choisie car elle permet de trouver les meilleurs paramètres indépendamment pour chaque tâche P/NP et M/NM. Une fusion des sorties des classifieurs est alors effectuée pour obtenir la décision finale : parole, musique ou parole sur musique. Les résultats obtenus sur un corpus réel d'émissions de radio montrent que notre paramétrisation en ondelettes apporte une nette amélioration des performances en discrimination M/NM et P/M par rapport à la paramétrisation de référence fondée sur les coefficients cepstraux.
283

Détection des gamma dans l'expérience AMS et analyse temporelle des sursauts gamma par la mission HETE-2

Bolmont, Julien 14 October 2005 (has links) (PDF)
AMS est un détecteur de particules qui sera embarqué à bord de la Station Spatiale Internationale début 2008. Avec son trajectomètre en silicium et son calorimètre électromagnétique, il pourra détecter les photons entre 1 GeV et 300 GeV. <br />Dans la première partie de cette thèse, nous donnons les résultats obtenus lors de l'analyse des données d'un test sur faisceau du calorimètre électromagnétique. A l'aide d'un logiciel de simulation rapide, nous évaluons les capacités de détection d'AMS en gamma. Nous donnons des prédictions de flux pour différents types de sources astrophysiques et pour un halo de matière noire supersymétrique au centre galactique.<br />HETE-2 est un satellite actuellement en fonctionnement qui est conçu pour détecter et localiser les sursauts gamma. Du fait des énergies mises en jeu, ce type de source pourrait être utilisé pour tester des domaines de la physiques inaccessibles aux accélérateurs. <br />Dans la deuxième partie de la thèse, nous étudions les courbes de lumières de douze sursauts gamma observés par le détecteur FREGATE à bord d'HETE-2 et pour lesquels une mesure du redshift est disponible. En étudiant les écarts temporels entre des photons de différentes énergies, nous pouvons déterminer une limite inférieure sur l'échelle de gravitation quantique de Eqg > 10^15 GeV.
284

Modèles particulaires stochastiques pour des problèmes d'évolution adaptative et pour l'approximation de solutions statistiques

Tran, Viet Chi 13 December 2006 (has links) (PDF)
Cette thèse se divise en deux parties indépendantes. Dans la première, nous considérons un modèle microscopique individu-centré pour décrire une population structurée par traits et âges. Nous étudions l'écologie de ce système (problèmes de dynamique de populations) dans une asymptotique de grandes populations. Sous certaines renormalisations, le processus microscopique converge par la solution à valeurs mesures d'une équation d'évolution déterministe. Un théorème central limite et les déviations exponentielles associées à cette convergence sont étudiés. Nous appliquons ensuite ces résultats pour établir des généralisations aux populations structurées par âge de modèles d'évolution tirés de la récente théorie des dynamiques adaptatives. Ces derniers modélisent l'évolution de la structure en traits sur des grandes échelles de temps et sous les hypothèses de mutations rares (éventuellement petites) et de grandes populations. Dans la seconde partie de la thèse, nous considérons des équations aux dérivées partielles de McKean-Vlasov et de Navier-Stokes 2D avec conditions initiales aléatoires. La loi des solutions, qui sont alors des variables aléatoires, est appelée solution statistique. En nous basant sur une approche probabiliste de ces équations aux dérivées partielles, nous proposons de nouvelles approximations particulaires stochastiques avec ondelettes pour les moments d'ordre 1 des solutions statistiques, et nous étudions leurs vitesses de convergence.
285

Apport de la fusion d'images satellitaires multicapteurs au niveau pixel en télédétection et photo-interprétation

Mangolini, Marc 15 November 1994 (has links) (PDF)
Le nombre croissant d'images de la Terre en provenance de capteurs satellitaires pose aux utilisateurs un problème d'exploitation, auquel la fusion de données semble pouvoir apporter des solutions. Ce travail illustre l'apport de la fusion de données en télédétection et en photo-interprétation, sur des données issues des capteurs SPOT, ERS-1, et Landsat, qui sont parmi les plus utilisés dans le domaine. Les spécificités et complémentarités de ces capteurs, de type optique (visible ou infrarouge) ou radar, ont été prises en compte pour réaliser une fusion dite hétérogène. Face à la grande diversité des méthodes de fusion de données, nous avons choisi de nous restreindre à la fusion au niveau pixel, c'est-à-dire proche du signal physique bidimensionnel, par opposition au niveau sémantique. Trois développements méthodologiques majeurs ont été réalisés. L'exploitation thématique des images satellitaires multispectrales se heurte souvent à une limitation de leur résolution spatiale. Afin d'y remédier, nous proposons une méthode, nommée ARSIS, qui utilise une image de meilleure résolution spatiale pour améliorer celle des images multispectrales, sans en modifier l'information spectrale. Les outils mathématiques mis en oeuvre sont l'analyse multirésolution, la transformée en ondelettes, et la modélisation des similitudes spectrales entre les images à fusionner. Des critères d'estimation de la qualité image des produits synthétisés ont été développés, pour pouvoir comparer la méthode ARSIS aux méthodes préexistantes, sur plusieurs scènes SPOT et Landsat. L'intérêt de la méthode ARSIS tient à sa richesse conceptuelle et à un réel gain en qualité spectrale par rapport aux autres méthodes. Nous avons également étudié quelques méthodes de représentation visuelle du volume de données, qui sont destinées à faciliter le travail de photo-interprétation et à améliorer la qualité de l'information extraite, mais aussi à concentrer l'important volume de données en un minimum d'images. Les méthodes de changement d'espace de représentation des données et l'utilisation de la couleur ont été expérimentées. Les critiques des photo-interprètes sur les produits réalisés ont mis en évidence la nécessité de prendre en compte les spécificités des capteurs pour la fusion de données hétérogènes. Nous avons donc développé une méthode de fusion hétérogène optique-radar, qui consiste à extraire les objets ponctuels à fort écho radar pour les représenter dans un contexte optique. Le troisième développement a porté sur la comparaison de différentes architectures de fusion, dont le rôle est de définir l'enchaînement des algorithmes qui constituent une méthode de fusion. L'application retenue est la classification automatique, très utilisée en télédétection, qui permet de comparer numériquement les performances des architectures grâce à l'utilisation d'une vérité terrain. Des architectures centralisée, décentralisée, et une architecture "mixte" sont présentées. Leurs avantages et inconvénients en ternes de contraintes opérationnelles, de souplesse d'utilisation, et de qualité de la classification sont discutés. Ces derniers sont illustrés par la comparaison des résultats de classification des différentes architectures, pour deux classificateurs et deux sites différents. Enfin, ce travail met clairement en évidence l'apport de la fusion en classification par rapport aux traitements monocapteurs.
286

Analyse de signaux géophysiques dans l'atmosphère par les techniques en ondelettes [Texte imprimé] : étude des ondes de gravité en région tropicale

Chane-Ming, Fabrice 08 December 1998 (has links) (PDF)
Les techniques en ondelettes pour l'étude des structures géophysiques dans le domaine atmosphérique sont passées en revue afin de compléter les outils couramment utilisés (FFT...). Leurs contributions résident dans l'analyse visuelle et de synthèse de l'information des phénomènes géophysiques multi-échelles et / ou non-stationnaires et de leur quantification. Notre étude porte également sur les ondes de gravité qui jouent un rôle essentiel dans la circulation générale et qui restent mal documentées dans la région tropicale de l'hémisphère Sud dû à un manque de mesures expérimentales. Les techniques en ondelettes sont appliquées aux mesures à haute résolution issues des radiosondages (La Réunion, Irène, Tromelin) et du Lidar Rayleigh (La Réunion) pour l'analyse des ondes de gravité dans la basse et moyenne atmosphère. Dans la première partie, nous rappelons principalement le contexte historique des techniques en ondelettes, les descriptions et les théories des structures ondulatoires, en particulier des ondes de gravité en région tropicale. Dans une seconde partie, nous présentons les techniques en ondelettes : la transformée en ondelettes continues et les analyses multirésolution et en paquets d'ondelettes. Leur utilisation pratique est illustrée sur des signaux académiques. Dans une troisième partie, des études géophysiques soulignent la variabilité multi-échelle de l'ozone induite par les ondes de gravité dans la basse atmosphère au-dessus de la Réunion et Irène. De nouvelles méthodes, issues de l'analyse en ondelettes, sont proposés pour estimer les paramètres d'ondes de gravité à partir des données température du Lidar et pour suivre leur évolution spatio-temporelle. Pour finir, une étude climatologique préliminaire des paramètres spectraux des modes cohérents, extraits des données de Tromelin par la transformée en ondulettes continues, révèle le rôle prépondérant de la génération des ondes de gravité en région tropicale, particulièrement en été.
287

Analyse de Signaux Multicomposantes : Contributions à la Décomposition Modale Empirique, aux Représentations temps-fréquence et au Synchrosqueezing

Oberlin, Thomas 04 November 2013 (has links) (PDF)
Les superpositions d'ondes modulées en amplitude et en fréquence (modes AM--FM) sont couramment utilisées pour modéliser de nombreux signaux du monde réel : cela inclut des signaux audio (musique, parole), médicaux (ECG), ou diverses séries temporelles (températures, consommation électrique). L'objectif de ce travail est l'analyse et la compréhension fine de tels signaux, dits "multicomposantes" car ils contiennent plusieurs modes. Les méthodes mises en oeuvre vont permettre de les représenter efficacement, d'identifier les différents modes puis de les démoduler (c'est-à-dire déterminer leur amplitude et fréquence instantanée), et enfin de les reconstruire. On se place pour cela dans le cadre bien établi de l'analyse temps-fréquence (avec la transformée de Fourier à court terme) ou temps-échelle (transformée en ondelettes continue). On s'intéressera également à une méthode plus algorithmique et moins fondée mathématiquement, basée sur la notion de symétrie des enveloppes des modes : la décomposition modale empirique. La première contribution de la thèse propose une alternative au processus dit ''de tamisage'' dans la décomposition modale empirique, dont la convergence et la stabilité ne sont pas garanties. Á la place, une étape d'optimisation sous contraintes ainsi qu'une meilleure détection des extrema locaux du mode haute fréquence garantissent l'existence mathématique du mode, tout en donnant de bons résultats empiriques. La deuxième contribution concerne l'analyse des signaux multicomposantes par la transformée de Fourier à court terme et à la transformée en ondelettes continues, en exploitant leur structure particulière ''en ridge'' dans le plan temps-fréquence. Plus précisément, nous proposons une nouvelle méthode de reconstruction des modes par intégration locale, adaptée à la modulation fréquentielle, avec des garanties théoriques. Cette technique donne lieu à une nouvelle méthode de débruitage des signaux multicomposantes. La troisième contribution concerne l'amélioration de la qualité de la représentation au moyen de la ''réallocation'' et du ''synchrosqueezing''. Nous prolongeons le synchrosqueezing à la transformée de Fourier à court terme, et en proposons deux extensions inversibles et adaptées à des modulations fréquentielles importantes, que nous comparons aux méthodes originelles. Une généralisation du synchrosqueezing à la dimension 2 est enfin proposée, qui utilise le cadre de la transformée en ondelettes monogène.
288

Analyse Temps-Fréquence appliquée à l'imagerie SAR polarimétrique.

Duquenoy, Mickaël 20 October 2009 (has links) (PDF)
L'imagerie SAR considère les cibles comme un ensemble de diffuseurs ponctuels, isotropes et non-dispersifs. Ce modèle devient obsolète pour les nouvelles applications radar qui utilisent une large bande et une forte excursion angulaire. Il s'agit donc d'étudier les non-stationnarités par l'outil usuel : l'analyse temps-fréquence. Les transformées temps-fréquence usuelles permettent de construire des hyperimages (images à 4 dimensions) décrivant l'énergie en fonction de la fréquence émise et de l'angle de visée. Cette source d'information est reliée à la section efficace radar (SER). Une autre source d'information en imagerie radar est la polarimétrie. Il s'agit d'utiliser conjointement ces deux sources d'information afin de caractériser les diffuseurs. Par application des ondelettes continues et des décompositions cohérentes sur la matrice de Sinclair, des hyperimages polarimétriques sont générées. Ces hyperimages permettent de décrire le comportement polarimétrique en fonction de l'angle de visée et de la fréquence émise. Dans certains cas, elles décrivent globalement le mécanisme de rétrodiffusion, par sa nature, son orientation relative dans le plan horizontal et son orientation absolue dans le plan vertical. De plus, elles mettent en évidence un nouveau phénomène : la non-stationnarité polarimétrique. Celle-ci serait causée par le fait que le radar ne voit pas la même géométrie au cours de l'acquisition. De ces hyperimages polarimétriques, l'information est synthétisée et une nouvelle classification phénoménologique est proposée.
289

Approches multiéchelles pour la segmentation de très grandes images : application à la quantification de biomarqueurs en histopathologie cancérologique.

Signolle, Nicolas 03 November 2009 (has links) (PDF)
Visualiser et analyser automatiquement des coupes fines de tumeurs cancéreuses sont des enjeux majeurs pour progresser dans la compréhension des mécanismes de la cancérisation et mettre en évidence de nouveaux indicateurs de réponse au traitement. Les nouveaux scanners microscopiques apportent une aide essentielle en fournissant des images couleur haute résolution de la totalité des lames histologiques. Ceci permet de s'affranchir de l'hétérogénéité de distribution des marqueurs à quantifier. La taille de ces images, appelées lames virtuelles, peut atteindre plusieurs GigaOctets. L'objectif de cette thèse est de concevoir et d'implémenter une méthode de segmentation permettant de séparer les différents types de compartiments stromaux présents sur une lame virtuelle de carcinome ovarien. Les deux principales difficultés à surmonter sont la taille des images, qui empêche de les traiter en une seule fois, et le choix de critères permettant de différencier les compartiments stromaux. Pour répondre à ces problèmes, nous avons développé une méthode générique de segmentation multiéchelle qui associe un découpage judicieux de l'image à une caractérisation de chaque compartiment stromal, considéré comme une texture. Cette caractérisation repose sur une modélisation multiéchelle des textures par un modèle d'arbre de Markov caché, appliqué sur les coefficients de la décomposition en ondelettes. Plutôt que de considérer tous les types de compartiments stromaux simultanément, nous avons choisi de transformer le problème multiclasse en un ensemble de problèmes binaires. Nous avons également analysé l'influence d'hyperparamètres (représentation couleur, type d'ondelettes et nombre de niveaux de résolutions intégrés à l'analyse) sur la segmentation, ce qui nous a permis de sélectionner les classifieurs les mieux adaptés. Différentes méthodes de combinaison des décisions des meilleurs classifieurs ont ensuite été étudiées. La méthode a été testée sur une vingtaine de lames virtuelles. Afin d'évaluer les résultats de la segmentation, nous avons mis en œuvre un protocole de tests fondé sur une approche stéréologique. Les résultats sur différents jeux de tests (images synthétiques, images de petite taille, images réelles) sont présentés et commentés. Les résultats obtenus sur les lames virtuelles sont prometteurs, compte tenu de la variabilité des échantillons et de la difficulté, pour un expert, à identifier parfois très précisément un compartiment : environ 60% des points sont correctement classés (entre 35% et 80% selon les lames).
290

Classification non supervisée et sélection de variables dans les modèles mixtes fonctionnels. Applications à la biologie moléculaire.

Giacofci, Madison 22 October 2013 (has links) (PDF)
Un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels. Nous traitons, dans une première partie, de la classification non-supervisée dans les modèles mixtes fonctionnels. Nous présentons dans ce cadre une nouvelle procédure utilisant une décomposition en ondelettes des effets fixes et des effets aléatoires. Notre approche se décompose en deux étapes : une étape de réduction de dimension basée sur les techniques de seuillage des ondelettes et une étape de classification où l'algorithme EM est utilisé pour l'estimation des paramètres par maximum de vraisemblance. Nous présentons des résultats de simulations et nous illustrons notre méthode sur des jeux de données issus de la biologie moléculaire (données omiques). Cette procédure est implémentée dans le package R "curvclust" disponible sur le site du CRAN. Dans une deuxième partie, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection des effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent. Une étude de simulation visant à appréhender les comportements des deux approches développées est réalisée dans ce contexte.

Page generated in 0.0834 seconds