Spelling suggestions: "subject:"analyse multiresolution"" "subject:"analyse résolution""
1 |
Codage à description multiple d'images et de vidéos pour des canaux bruitésPereira, Manuela 18 June 2004 (has links) (PDF)
Les travaux développés dans cette thèse apportent un nouveau regard sur les techniques de codage par descriptions multiples (MDC). <br />Nous proposons une méthode (MDBA) de codage MDC source/canal conjoint robuste adaptée à la transmission d'images et de vidéos sur des canaux non stationnaires. Le principal avantage de cette méthode est qu'elle est bien adaptée pour des applications de transmission sur des canaux peu fiables et variables dans le temps. De plus, grâce à ses capacités de compression et de synchronisation, elle permet de faire de la transmission en temps réel. <br />Nous montrons que la méthode proposée présente les meilleurs résultats en terme de rapport signal à bruit et de qualité visuelle lorsqu'on la compare avec d'autres méthodes de descriptions multiples issues de l'état de l'art. De plus, elle s'avère bien adaptée pour des applications où les méthodes standard de contrôle d'erreur ne sont pas capables de s'adapter facilement aux caractéristiques du canal. <br />La méthode est validée sur différents modèles de canal (BSC, AWGN, Internet, UMTS, satellite) dans le cadre de la transmission d'images et de vidéos. <br />La méthode MDBA proposée est bien adaptée pour des applications qui ont besoin d'un codeur qui utilise l'information venant d'un canal de "feedback" comme par exemple "peer-to-peer video conferencing", vidéo sans fil, etc, mais s'avère insuffisante quand on veut faire du "streaming" vidéo. C'est pour cette raison que nous avons développé un système dédié au "streaming" de vidéo. Ainsi ce manuscrit termine avec une extension de la méthode pour faire du "streaming" vidéo robuste aux erreurs du canal. La méthode proposée permet à la fois de s'adapter à bande passante du canal (débit variable) et de s'adapter aux erreurs de transmission liés au niveau de bruit présent sur le canal.
|
2 |
Information visuelle multirésolution pour l'estimation de la vitesse du trafic routierGodin, Olivier January 2013 (has links)
La hausse du taux d'occupation des routes rend nécessaire l'utilisation de dispositifs visant à surveiller et analyser la circulation des utilisateurs du réseau routier. Bien souvent, des réseaux de surveillance par caméras sont déjà en place sur les routes. L'information visuelle est donc déjà disponible, mais est peu utilisée pour l'analyse automatisée du trafic. L'objectif de ce travail est de mettre au point une méthode automatisée basée sur l'information visuelle multirésolution permettant d'évaluer la fluidité de la circulation à plusieurs niveaux de précision. En effet, si une analyse manuelle de l'information visuelle peut permettre de dégager certaines tendances sur l'état du trafic routier, une approche automatisée permettra d'évaluer plus précisément plusieurs données sur le mouvement des véhicules. En tout temps, le déplacement moyen dans la scène sera évalué, afin d'obtenir un indice de fluidité global. Tant que la circulation demeure fluide, il n'est pas nécessaire d'estimer la vitesse du trafic avec plus de précision. Toutefois, si cet indice descend sous un certain seuil, l'analyse sera raffinée pour fournir le déplacement moyen par direction, en utilisant une résolution deux fois supérieure à la précédente. Finalement, à partir des images à pleine résolution, il sera possible d'obtenir une mesure du déplacement de chaque véhicule.
|
3 |
Analyse mustirésolution de données de classements / Multiresolution analysis of ranking dataSibony, Eric 14 June 2016 (has links)
Cette thèse introduit un cadre d’analyse multirésolution pour les données de classements. Initiée au 18e siècle dans le contexte d’élections, l’analyse des données de classements a attiré un intérêt majeur dans de nombreux domaines de la littérature scientifique : psychométrie, statistiques, économie, recherche opérationnelle, apprentissage automatique ou choix social computationel entre autres. Elle a de plus été revitalisée par des applications modernes comme les systèmes de recommandation, où le but est d’inférer les préférences des utilisateurs pour leur proposer les meilleures suggestions personnalisées. Dans ces contextes, les utilisateurs expriment leurs préférences seulement sur des petits sous-ensembles d’objets variant au sein d’un large catalogue. L’analyse de tels classements incomplets pose cependant un défi important, tant du point de vue statistique que computationnel, poussant les acteurs industriels à utiliser des méthodes qui n’exploitent qu’une partie de l’information disponible. Cette thèse introduit une nouvelle représentation pour les données, qui surmonte par construction ce double défi. Bien qu’elle repose sur des résultats de combinatoire et de topologie algébrique, ses nombreuses analogies avec l’analyse multirésolution en font un cadre naturel et efficace pour l’analyse des classements incomplets. Ne faisant aucune hypothèse sur les données, elle mène déjà à des estimateurs au-delà de l’état-de-l’art pour des petits catalogues d’objets et peut être combinée avec de nombreuses procédures de régularisation pour des larges catalogues. Pour toutes ces raisons, nous croyons que cette représentation multirésolution ouvre la voie à de nombreux développements et applications futurs. / This thesis introduces a multiresolution analysis framework for ranking data. Initiated in the 18th century in the context of elections, the analysis of ranking data has attracted a major interest in many fields of the scientific literature : psychometry, statistics, economics, operations research, machine learning or computational social choice among others. It has been even more revitalized by modern applications such as recommender systems, where the goal is to infer users preferences in order to make them the best personalized suggestions. In these settings, users express their preferences only on small and varying subsets of a large catalog of items. The analysis of such incomplete rankings poses however both a great statistical and computational challenge, leading industrial actors to use methods that only exploit a fraction of available information. This thesis introduces a new representation for the data, which by construction overcomes the two aforementioned challenges. Though it relies on results from combinatorics and algebraic topology, it shares several analogies with multiresolution analysis, offering a natural and efficient framework for the analysis of incomplete rankings. As it does not involve any assumption on the data, it already leads to overperforming estimators in small-scale settings and can be combined with many regularization procedures for large-scale settings. For all those reasons, we believe that this multiresolution representation paves the way for a wide range of future developments and applications
|
4 |
Compression adaptative de surfaces par ondelettes géométriques.Roudet, Céline 24 November 2008 (has links) (PDF)
L'évolution de l'infographie et des techniques de numérisation a récemment ouvert la voie à une modélisation tridimensionnelle du monde qui nous entoure. Afin de s'adapter à l'hétérogénéité des ressources et médias manipulant ces objets 3D, des techniques basées sur l'analyse multirésolution sont généralement utilisées car elles fournissent une représentation "scalable" de ces modèles géométriques. C'est dans ce cadre de compression et de transmission progressive d'objets 3D (modélisées sous forme de maillages surfaciques) que se situe ce travail de thèse, réalisé dans le cadre du projet "CoSurf" (collaboration entre le laboratoire LIRIS et France Télécom R&D Rennes). Nous proposons ainsi une nouvelle méthode de compression hiérarchique s'appuyant sur une décomposition en ondelettes, outil d'analyse performant et robuste qui a fait ses preuves en termes de compression d'images et de vidéos. Notre méthode se démarque des techniques existantes, puisqu'elle s'appuie sur une segmentation préalable de la surface en régions d'amplitudes fréquentielles variables. Les partitions résultantes peuvent ainsi être traitées indépendamment durant les phases d'analyse multirésolution, de quantification et d'allocation binaire, de façon à s'adapter aux caractéristiques surfaciques locales des maillages et ainsi réduire les informations à coder. La contribution visuelle de chacune des partitions à l'ensemble de la surface est également un point important à considérer dans la phase d'optimisation des bits alloués à celles-ci, notamment pour des applications comme la transmission et la visualisation sélectives. D'autres applications telles que le tatouage, le filtrage ou le débruitage adaptatifs, l'indexation ou enfin la correction d'erreurs après transmission sur un canal bruité, pourraient bénéficier de ce concept générique que nous avons proposé.
|
5 |
Méthodes de Galerkin stochastiques adaptatives pour la propagation d'incertitudes paramétriques dans les modèles hyperboliquesTryoen, Julie 21 November 2011 (has links) (PDF)
On considère des méthodes de Galerkin stochastiques pour des systèmes hyperboliques faisant intervenir des données en entrée incertaines de lois de distribution connues paramétrées par des variables aléatoires. On s'intéresse à des problèmes où un choc apparaît presque sûrement en temps fini. Dans ce cas, la solution peut développer des discontinuités dans les domaines spatial et stochastique. On utilise un schéma de Volumes Finis pour la discrétisation spatiale et une projection de Galerkin basée sur une approximation polynomiale par morceaux pour la discrétisation stochastique. On propose un solveur de type Roe avec correcteur entropique pour le système de Galerkin, utilisant une technique originale pour approcher la valeur absolue de la matrice de Roe et une adaptation du correcteur entropique de Dubois et Mehlmann. La méthode proposée reste coûteuse car une discrétisation stochastique très fine est nécessaire pour représenter la solution au voisinage des discontinuités. Il est donc nécessaire de faire appel à des stratégies adaptatives. Comme les discontinuités sont localisées en espace et évoluent en temps, on propose des représentations stochastiques dépendant de l'espace et du temps. On formule cette méthodologie dans un contexte multi-résolution basé sur le concept d'arbres binaires pour décrire la discrétisation stochastique. Les étapes d'enrichissement et d'élagage adaptatifs sont réalisées en utilisant des critères d'analyse multi-résolution. Dans le cas multidimensionnel, une anisotropie de la procédure adaptative est proposée. La méthodologie est évaluée sur le système des équations d'Euler dans un tube à choc et sur l'équation de Burgers en une et deux dimensions stochastiques
|
6 |
Méthodes de Galerkin stochastiques adaptatives pour la propagation d'incertitudes paramétriques dans les modèles hyperboliques / Adaptive stochastic Galerkin methods for parametric uncertainty propagation in hyperbolic systemsTryoen, Julie 21 November 2011 (has links)
On considère des méthodes de Galerkin stochastiques pour des systèmes hyperboliques faisant intervenir des données en entrée incertaines de lois de distribution connues paramétrées par des variables aléatoires. On s'intéresse à des problèmes où un choc apparaît presque sûrement en temps fini. Dans ce cas, la solution peut développer des discontinuités dans les domaines spatial et stochastique. On utilise un schéma de Volumes Finis pour la discrétisation spatiale et une projection de Galerkin basée sur une approximation polynomiale par morceaux pour la discrétisation stochastique. On propose un solveur de type Roe avec correcteur entropique pour le système de Galerkin, utilisant une technique originale pour approcher la valeur absolue de la matrice de Roe et une adaptation du correcteur entropique de Dubois et Mehlmann. La méthode proposée reste coûteuse car une discrétisation stochastique très fine est nécessaire pour représenter la solution au voisinage des discontinuités. Il est donc nécessaire de faire appel à des stratégies adaptatives. Comme les discontinuités sont localisées en espace et évoluent en temps, on propose des représentations stochastiques dépendant de l'espace et du temps. On formule cette méthodologie dans un contexte multi-résolution basé sur le concept d'arbres binaires pour décrire la discrétisation stochastique. Les étapes d'enrichissement et d'élagage adaptatifs sont réalisées en utilisant des critères d'analyse multi-résolution. Dans le cas multidimensionnel, une anisotropie de la procédure adaptative est proposée. La méthodologie est évaluée sur le système des équations d'Euler dans un tube à choc et sur l'équation de Burgers en une et deux dimensions stochastiques / This work is concerned with stochastic Galerkin methods for hyperbolic systems involving uncertain data with known distribution functions parametrized by random variables. We are interested in problems where a shock appears almost surely in finite time. In this case, the solution exhibits discontinuities in the spatial and in the stochastic domains. A Finite Volume scheme is used for the spatial discretization and a Galerkin projection based on piecewise poynomial approximation is used for the stochastic discretization. A Roe-type solver with an entropy correction is proposed for the Galerkin system, using an original technique to approximate the absolute value of the Roe matrix and an adaptation of the Dubois and Mehlman entropy corrector. Although this method deals with complex situations, it remains costly because a very fine stochastic discretization is needed to represent the solution in the vicinity of discontinuities. This fact calls for adaptive strategies. As discontinuities are localized in space and time, stochastic representations depending on space and time are proposed. This methodology is formulated in a multiresolution context based on the concept of binary trees for the stochastic discretization. The adaptive enrichment and coarsening steps are based on multiresolution analysis criteria. In the multidimensional case, an anisotropy of the adaptive procedure is proposed. The method is tested on the Euler equations in a shock tube and on the Burgers equation in one and two stochastic dimensions
|
7 |
Contributions à l'analyse multifractale des coefficients d'ondelettes dominants et du bootstrap : Images, performances d'estimation, nombre de moments nuls et structure de dépendance. Intervalles de confiance et tests d'hypothèse.Wendt, Herwig 23 September 2008 (has links) (PDF)
L'invariance d'échelle constitue un paradigme souvent avancé pour l'analyse et la modélisation de données expérimentales issues d'applications de natures différentes. L'analyse multifractale fournit un cadre conceptuel pour ses études théorique et pratique. Dans ce contexte, l'objectif de cette thèse réside dans l'apport à l'analyse multifractale, de l'utilisation des coefficients d'ondelettes dominants, d'une part, et des techniques statistiques de type bootstrap, d'autre part. Dans la première partie de ce travail, les propriétés et performances statistiques de procédures d'analyse multifractale construites à partir de coefficients dominants sont étudiées et caractérisées. Il est notamment montré qu'elles se comparent favorablement à celles obtenues à partir de coefficients d'ondelettes. De plus, une extension aux signaux bidimensionnels (images) est proposée et validée. En complément sont étudiées plusieurs difficultés théoriques, d'importance cruciale pour une réelle mise en œuvre pratique de l'analyse multifractale : régularité minimale et espaces fonctionnels, effet de linéarisation, robustesse vis-à-vis d'éventuelles quantifications des données. La deuxième partie de ce travail de thèse s'intéresse à la construction, pour les attributs multifractals, d'intervalles de confiance et de tests d'hypothèse, à partir de techniques 'bootstrap'. L'originalité de notre approche réside dans la mise en œuvre du bootstrap par construction de blocs temps-échelle dans le plan des coefficients d'ondelettes. Cette procédure, validée par simulations numériques, permet d'obtenir des intervalles de confiance et d'effectuer des tests d'hypothèses à partir d'une seule observation des données, de longueur finie. Une étude précise des structures de dépendance des coefficients d'ondelettes et coefficients dominants complète ce travail. Elle montre notamment que l'augmentation du nombre de moments nuls de l'ondelette d'analyse, qui, pour le mouvement brownien fractionnaire, permet de réduire la portée de la structure de dépendance de longue à courte, est inopérante pour les cascades multiplicatives multifractales : si l'augmentation du nombre de moments nuls décorrèle effectivement les coefficients d'ondelette, elle échoue à faire disparaître la dépendance longue. Enfin, les procédures d'analyse multifractale par coefficients dominants et bootstrap sont illustrées sur deux applications : la turbulence hydrodynamique et la classification de texture d'images.
|
8 |
Analyse multirésolution pour la recherche et l'indexation d'images par le contenu dans les bases de données images - Application à la base d'images paléontologique Trans'TyfipalLandre, Jérôme 07 December 2005 (has links) (PDF)
Les systèmes de recherche d'images par le contenu récents utilisent une approche de navigation visuelle interactive dans les bases d'images. Ces méthodes utilisent une classification des images (hors-ligne) dans un arbre de recherche pour une navigation visuelle (en ligne) des utilisateurs. Cette approche possède trois problèmes principaux:<br />1) La taille du vecteur descripteur (n>100) rend les calculs de distance sensibles à la malédiction de la dimension,<br />2) La présence d'attributs de nature différente dans le vecteur descripteur ne facilite pas la classification,<br />3) La classification ne s'adapte pas (en général) au contexte de recherche de l'utilisateur.<br /><br /> Nous proposons dans ce travail une méthode basée sur la construction de hiérarchies de signatures de tailles réduites croissantes qui permettent de prendre en compte le contexte de recherche de l'utilisateur. Notre méthode tend à imiter le comportement de la vision humaine.<br /><br /> Le vecteur descripteur contient des attributs issus de l'analyse multirésolution des images. Ces attributs sont organisés par un expert du domaine de la base d'images en plusieurs hiérarchies de quatre vecteur signature de taille réduite croissante (respectivement 4, 6, 8 et 10 attributs). Ces signatures sont utilisées pour construire un arbre de recherche flou grâce à l'algorithme des nuées dynamiques (dont deux améliorations sont proposées). Les utilisateurs en ligne choisissent une hiérarchie de signature parmi celles proposées par l'expert en fonction de leur contexte de recherche.<br /><br /> Un logiciel de démonstration a été développé. Il utilise une interface web dynamique (PHP), les traitements d'images (optimisés) sont réalisés grâce aux librairies Intel IPP et OpenCV, le stockage et l'indexation sont réalisés par une base de données MySQL, une interface de visualisation 3D (Java3D) permet de se rendre compte de la répartition des images dans la classification.<br /><br /> Un protocole de tests psycho-visuels a été réalisé. Les résultats sur la base paléontologique Trans'Tyfipal sont présentés et offrent des réponses pertinentes selon le contexte de recherche. La méthode donne de bons résultats, tant en temps de calcul qu'en pertinence des images résultats lors de la navigation dans les bases d'images homogènes.
|
9 |
Comparaison d'images binaires reposant sur une mesure locale des dissimilarités.<br />Application à la classification.Baudrier, Etienne 09 December 2005 (has links) (PDF)
Cette thèse se situe dans le cadre de la comparaison d'image. Elle est consacrée au développement d'une méthode de comparaison locale d'images binaires. En s'appuyant sur un exemple de mesure - la distance de Hausdorff (DH) - une mesure locale (à travers une<br />fenêtre) est définie, et ses propriétés en fonction de la taille de la fenêtre et de la mesure globale entre les deux images sont prouvées. Cela permet de définir un critère pour fixer une taille de fenêtre ajustée à celle de la dissimilarité locale. Cette méthode permet de<br />définir une Carte de Dissimilarités Locales (CDL) lorsque la mesure locale est faite sur tous les points de l'image. Elle n'est pas valable uniquement avec la DH, cependant les propriétés de la DH font que le calcul de la CDL dans ce cas est très rapide. La CDL est à la fois un outil de visualisation des dissimilarités entre deux images et une base pour décider de la similarité des images.<br />Dans cette optique, une première étape est la mise en oeuvre d'une analyse multirésolution adaptée aux images binaires reposant sur le filtre de la médiane morphologique qui offre la possibilité de traiter l'information à une résolution adaptée au degré de similarité recherché. La deuxième étape est l'utilisation de l'information de la CDL concernant les dissimilarités et leur distribution spatiale pour comparer les images. Plusieurs méthodes sont testées, et la plus efficace est basée sur les SVM auxquels on fournit en entrée les<br />CDL entières. Les tests réalisés sur une base d'impressions anciennes numérisées et sur<br />une base de formes montrent l'efficacité de la méthode.
|
10 |
Analyse multirésolution du Transfert Radiatif en milieu hétérogène: application de la méthode de Galerkin-ondelettes à l'Equation du Transfert RadiatifFerlay, Nicolas 04 July 2003 (has links) (PDF)
La prise en compte des nuages est essentielle dans l'étude du climat, en particulier leur rôle radiatif. A cause de ses aspects non-linéaire et multiéchelle, une des difficultées du transfert radiatif tient à la prise en compte des hétérogénéitées spatiales des propriétées microphysiques (variabilité horizontale, hétérogénéitée géométrique, ...), tant d'un point de vue théorique que numérique. Afin de répondre à cette problématique, nous utilisons ici l'analyse multirésolution de type ondelette dans une méthode de Galerkin appliquée à l'Equation du Transfert Radiatif. Cette méthode permet de formaliser le problème du transfert radiatif en milieu hétérogène en distinguant les processus élémentaires d'interaction entre le champ de rayonnement et le milieu nuageux, décrits par des coefficients de connexion. Cette réécriture a conduit à la mise au point d'un code de calcul, conçu comme un "modèle instrument", un outil d'analyse des problèmes d'échelle en transfert radiatif. Les résultats ont été validés par rapport aux codes Monte Carlo et SHDOM. Des premières simulations ont montré l'intérêt de cette approche pour quantifier les sources radiatives additionnelles à l'échelle de pixels dits d'approximation dues aux couplages locaux entre les echelles, et étudier les effets radiatifs 3D. Cette nouvelle approche ouvre des possibilités d'application aux études en cours sur les limitations des codes de calcul existants et des techniques d'inversion de mesures satellites, et peut amener à la définition de paramétrisation multichelle des hétérogénéités nuageuses.
|
Page generated in 0.1276 seconds