Spelling suggestions: "subject:"décomposition een valeur singulière"" "subject:"décomposition een valeur particulières""
1 |
Réduction de dimension pour modèles graphiques probabilistes appliqués à la désambiguïsation sémantiqueBoisvert, Maryse January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
2 |
Étude de mise en oeuvre d'un contrôleur vibratoire à grand nombre de canaux pour une suspension automobile Buick CenturyMouflard, Loïc January 2010 (has links)
The main objective of this research project is to study the feasibility and effectiveness of active structural control of car's suspension. These structural vibrations are transmitted to the chassis and radiate noise, called road noise, inside the cabin of a car. This project should lead to a reduction of the level of noise inside the vehicle. This project is accomplished in collaboration with research group AUTO 21, GM Canada and Acoustics Group of Université de Sherbrooke (GAUS). Firstly, experimental measurements of primary vibroacoustic transfer functions have been performed on a vehicle stationed. The disturbance is provided by a shaker mounted on the axis of the wheel and the measurement is taken by microphones inside the cabin. Suspension and cabin modal frequencies have been identified in the frequency band [0-500] Hz. Then, experimental measurements of secondary vibroacoustic transfer functions have been performed on the vehicle. The secondary disturbance is provided by an inertial actuator mounted at different positions and different orientations on the suspension and the measurement is taken by microphones inside the cabin. Using optimal control, an estimated value of radiated noise reduction inside the cabin has been found for different actuator configurations. Finally, Singular Value Decomposition (SVD) has been tested with experimental data in order to find an actuator configuration able to reduce radiated noise inside the cabin for minimum effort and/or minimum number of control actuators.
|
3 |
Analyse temps-fréquence par la transformée en S et interprétation des signaux de fluxmétrie laser Doppler: applications au diagnostic cliniqueAssous, Saïd 12 1900 (has links) (PDF)
aLa technique de fluxmétrie laser Doppler (LDF), est basée sur l'élargissement spectral d'une lumière monochromatique, qui interagit avec les globules rouges en mouvement dans le tissu. La densité spectrale de puissance de la lumière rétro-diffusée peut être utilisée pour l'estimation de la perfusion microvasculaire du tissu. L'objectif principal de ce travail est l'exploration de l'information contenue dans ce signal pour comprendre les phénomènes physiologiques qui se manifestent dans la microcirculation et de proposer des solutions d'aide au diagnostic des pathologies correspondantes. Le problème d'aide à la décision peut se présenter en étapes d'extraction de caractéristiques, réduction de dimensions et reconnaissance de formes. La représentation du signal est une étape cruciale pour l'interprétation et la prise de décision. Dans ce travail, la transformée en S, une représentation temps-fréquence linéaire qui surpasse le problème de la transformée de Fourier à fenêtre glissante de longueur fixe et qui corrige aussi la notion de phase dans la transformée en ondelettes pour l'analyse des signaux non stationnaires, est présentée. Cette transformée fournit un espace très convenable pour l'extraction de caractéristiques et la localisation en temps et en fréquences de l'information discriminante dans le signal LDF. Cette nouvelle approche a permis, entre autres, d'analyser les cinq fréquences caractéristiques contenues dans les signaux LDF et d'apporter une contributionà l'appréhension des signaux d'hypérémie réactionnelle. Du fait que les représentations temps-fréquence linéaires ont une dimension élevée, leur succès repose sur une forme appropriée de réduction e dimensions. La décomposition en valeurs singuliµeres des coe±cients du plan temps-fréquence se montre très prometteuse pour garder les informations pertinentes du signal et rejeter celles qui ne le sont pas. Ses vecteurs singuliers reflètent le comportement spectral dans le temps des différentes activités physiologiques présentes dans le signal de fluxmétrie laser Doppler.
|
4 |
Contribution aux méthodes de reconstruction d'images appliquées à la tomographie d'émission par positrons par l'exploitation des symétries du systèmeLeroux, Jean-Daniel January 2014 (has links)
Le désir d’atteindre une haute résolution spatiale en imagerie médicale pour petits animaux conduit au développement d’appareils composés de détecteurs de plus en plus petits. Des appareils s’approchant de la résolution théorique maximale en tomographie d’émission par positrons (TEP) sont à nos portes. Pour retirer le maximum d’information de ces appareils, il importe d’utiliser des méthodes de traitement évoluées qui prennent en considération l’ensemble des phénomènes physiques entourant la prise de mesure en TEP. Le problème est d’autant plus complexe à résoudre du fait que ces caméras sont composées de milliers de détecteurs qui donnent lieu à des millions de lignes de réponses mesurées pouvant alors être traitées par un algorithme de reconstruction d’images. Cette situation mène à des problèmes de reconstruction d’images en 3 dimensions (3D) qui sont difficiles à résoudre principalement à cause des limites en ressources mémoires et de calcul des ordinateurs modernes.
Les travaux réalisés dans le cadre de cette thèse répondent à deux grands besoins relatifs au domaine de la reconstruction d’images en TEP, soit l'atteinte d'une meilleure qualité d'image et l'accélération des calculs menant à l'obtention de celle-ci. Le premier volet des travaux repose sur le l'élaboration de méthodes de modélisation 3D précises du processus d’acquisition en TEP permettant d'atteindre une meilleure qualité d’image. Ces modèles 3D s'expriment sous forme de matrices systèmes qui sont utilisées par un algorithme de reconstruction d'images. Pour générer ces modèles 3D pour la TEP, des méthodes de calculs analytiques et basées sur des simulations Monte Carlo (MC) ont été développées. Des méthodes hybrides, basé sur des stratégies analytiques et Monte Carlo, ont également été mises en œuvre afin de combiner les avantages des deux approches. Les méthodes proposées se distinguent de l'art antérieur en ce qu'elles tirent profit des symétries du système afin de réduire considérablement le temps de calcul requis pour l'obtention de matrices 3D précises. Pour l’approche analytique, le calcul de la matrice est divisé en diverses étapes qui favorisent la réutilisation de modèles pré-calculés entre les lignes de réponses symétriques de l’appareil. Pour l’approche par simulations MC, la réutilisation des événements MC collectés entre les lignes de réponse symétriques de l’appareil permet d’augmenter la statistique utilisée pour générer la matrice MC et du même coup de réduire le temps de simulation. La méthode hybride proposée permet de réduire encore davantage le temps de simulation MC et cela, sans faire de compromis sur la qualité de la matrice système.
Le second volet des travaux repose sur le développement de nouvelles méthodes de reconstruction d’images basées sur un référentiel en coordonnées cylindriques permettant de réduire les contraintes d’espace mémoire et d'accélérer les calculs menant à l’image. Ces méthodes se divisent en deux catégories distinctes. Les premières sont des méthodes dites itératives qui permettent de résoudre le problème de reconstruction d’images par un processus itératif qui réalise une nouvelle estimation de l’image à chaque itération de façon à maximiser le degré de vraisemblance entre l’image et la mesure de l’appareil. Les secondes sont des méthodes dites directes qui permettent de résoudre le problème en inversant la matrice système qui relie l’image à la mesure de projections par une décomposition en valeurs singulières (DVS) de la matrice. La matrice inverse ainsi obtenue peut alors être multipliée directement avec la mesure pour obtenir l’image reconstruite. L’utilisation d’une image en coordonnées cylindriques entraîne une redondance au niveau des coefficients de la matrice système obtenue. En exploitant ces redondances, il est possible d’obtenir une matrice système avec une structure dite bloc circulante qui peut alors être transformée dans le domaine de Fourier afin d’accélérer les calculs lors du processus de reconstruction d’images itératif ou par DVS. De plus, pour la méthode par DVS, l’utilisation d’une matrice bloc circulante factorisée facilite grandement la procédure d'inversion de la matrice par DVS, ce qui rend l’application de la méthode possible pour des problèmes de reconstruction d’images en 3D. Or, la résolution de problèmes aussi complexes n’était jusqu’ici pas possible avec les méthodes par DVS de l’art antérieur dû aux contraintes d’espace mémoire et à la charge excessive de calcul.
En somme, les travaux combinés ont pour objectif ultime de réunir à la fois la vitesse de calcul et une qualité d'image optimale en un même algorithme afin de créer un outil de reconstruction 3D idéal pour l'utilisation dans un contexte clinique.
|
5 |
Diagnostic non invasif de piles à combustible par mesure du champ magnétique procheLe Ny, Mathieu 10 December 2012 (has links) (PDF)
Cette thèse propose une technique innovante de diagnostic non invasive pour les systèmes piles à combustible. Cette technique s'appuie sur la mesure de la signature magnétique générée par ces systèmes. A l'aide de ces champs magnétiques externes, il est possible d'obtenir une cartographie de la densité de courant interne par résolution d'un problème inverse. Ce problème est néanmoins mal posé : la solution est non unique et est extrêmement sensible au bruit. Des techniques de régularisation ont ainsi été mises en place pour filtrer les erreurs de mesures et obtenir une solution physiquement acceptable. Afin d'augmenter la qualité de reconstruction des courants, nous avons conçu notre outil de diagnostic de manière à ce qu'il soit uniquement sensible aux défaillances de la pile (capteur de défauts). De plus, cette reconstruction se base sur un nombre extrêmement faible de mesures. Une telle approche facilite l'instrumentation du système et augmente la précision et la rapidité de celui-ci. La sensibilité de notre outil à certaines défaillances (assèchements, appauvrissement en réactifs, dégradations) est démontrée.
|
6 |
Simulation de mouvement humain sur postes de travail pour le diagnostic et l'aide à la conceptionHue, Valentin 15 October 2008 (has links) (PDF)
Les travaux présentés dans ce mémoire concernent la génération automatique de postures et mouvements humains sur poste de travail industriel. L'objectif poursuivi est d'animer de façon réaliste un mannequin numérique a n de simuler un opérateur dans l'exécution de sa tâche. Cette animation doit permettre d'aider à l'analyse des facteurs biomécaniques pouvant engendrer des Troubles Musculo-Squelettiques. Dans un premier temps, des choix de modélisation sont proposés en fonction de ce contexte spécifique. Le modèle retenu se base sur une représentation squelettique du haut du corps composé de corps rigides et de liaisons idéales et intègre des données anthropométriques. Ensuite, un schéma général de lois de commande à base de modèle cinématique est développé. Il est décliné en plusieurs stratégies qui sont testées sur des mouvements caractéristiques et sur poste de travail. Ces tests et la comparaison aux mesures effectuées sur sujet humain permettent d'évaluer les performances du schéma de commande et les choix réalisés. Ces travaux ont donné naissance à un outil logiciel, baptisé OLARGE-TMS, de simulation de mouvement humain sur poste de travail.
|
7 |
Identification des défauts d'une pile à combustible par la mesure du champ magnétique externe : vers la détermination de défauts locaux / Faults identification on a fuel cell by external magnetic measurements. : towards of determination of local faultsIfrek, Lyes 20 November 2017 (has links)
Ce travail a permis de développer une technique non invasive d’identification de la distribution du courant dans une pile à combustible à partir du champ magnétique externe. La mesure du champ s’effectue sur un ensemble de points de mesures choisis spécialement pour détecter les variations du champ par rapport à un fonctionnement optimal de la pile. Les deux composantes du champ magnétique sensibles aux variations sont utilisées. La mesure du champ exploitable est la différence entre un mode considéré sain et un mode quelconque de fonctionnement. Autour de ces mesures de champ magnétique, un problème inverse est modélisé en explorant plusieurs approches de paramétrisation de la distribution du courant. Le caractère mal posé du problème s’est traduit par la non-unicité de la solution et sa sensibilité au bruit. L’affranchissement de ces problèmes est atteint par la régularisation du modèle inverse. L’outil développé permis de reconstruire la distribution du courant indépendamment de la taille du défaut dans la limite de sensibilité. La validation est faite sur un simulateur électrique de pile à combustible et sur une pile de type GENEPAC dans un environnement de laboratoire. / A noninvasive technique for identifying the current distribution in a fuel cell from the external magnetic field is developed. The magnetic field measurements are carried out on a set of points chosen in order to detect only the variations of the magnetic field in a case of a faulty fuel cell. Two components of the magnetic field are used because they are sensitive to current heterogeneities. The exploitable measurement of the magnetic field is the difference between a healthy mode and a faulty mode.An ill-posed inverse problem is modeled by investigating several parametrization approaches of the current distribution. The ill-posed property of the problem conducts to a non-uniqueness of the solution and a high sensitivity to the noise. A regularization method is used in order to get a stable solution. The developed tool allows identifying the current distribution independently of the size of the fault within the sensitivity limit. A validation is done on a fuel cell simulator and on a GENEPAC fuel cell in a laboratory conditions.
|
8 |
Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF / Improvement of cross section model in COCAGNE code of the calculation chain of EDFLuu, Thi Hieu 17 February 2017 (has links)
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision. / In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy.
|
9 |
Tools O' the Times : understanding the common proporties of species interaction networks across spaceStrydom, Tanya 11 1900 (has links)
Le domaine de l’écologie des réseaux est encore limité dans sa capacité à faire des inférences
mondiales à grande échelle. Ce défi est principalement dû à la difficulté d’échantillonnage
des interactions sur le terrain, entraînant de nombreuses « lacunes » en ce qui concerne
la couverture mondiale des données. Cette thèse adopte une approche « centrée sur les
méthodes » de l’écologie des réseaux et se concentre sur l’idée de développer des outils pour
aider à combler les lacunes en matière de données en présentant la prédiction comme une
alternative accessible à l’échantillonnage sur le terrain et introduit deux « outils » différents
qui sont prêts à poser des questions à l’échelle mondiale.
Le chapitre 1 présente les outils que nous pouvons utiliser pour faire des prédictions de
réseaux et est motivé par l’idée selon laquelle avoir la capacité de prédire les interactions entre
les espèces grâce à l’utilisation d’outils de modélisation est impératif pour une compréhension
plus globale des réseaux écologiques. Ce chapitre comprend une preuve de concept (dans
laquelle nous montrons comment un simple modèle de réseau neuronal est capable de faire
des prédictions précises sur les interactions entre espèces), une évaluation des défis et des
opportunités associés à l’amélioration des prédictions d’interaction et une feuille de route
conceptuelle concernant l’utilisation de modèles prédictifs pour les réseaux écologiques.
Les chapitres 2 et 3 sont étroitement liés et se concentrent sur l’utilisation de l’intégration
de graphiques pour la prédiction de réseau. Essentiellement, l’intégration de graphes nous
permet de transformer un graphe (réseau) en un ensemble de vecteurs, qui capturent une
propriété écologique du réseau et nous fournissent une abstraction simple mais puissante d’un
réseau d’interaction et servent de moyen de maximiser les informations disponibles. dispo-
nibles à partir des réseaux d’interactions d’espèces. Parce que l’intégration de graphes nous
permet de « décoder » les informations au sein d’un réseau, elle est conçue comme un outil
de prédiction de réseau, en particulier lorsqu’elle est utilisée dans un cadre d’apprentissage
par transfert. Elle s’appuie sur l’idée que nous pouvons utiliser les connaissances acquises
en résolvant un problème connu. et l’utiliser pour résoudre un problème étroitement lié. Ici,
nous avons utilisé le métaweb européen (connu) pour prédire un métaweb pour les espèces
canadiennes en fonction de leur parenté phylogénétique. Ce qui rend ce travail particulière-
ment passionnant est que malgré le faible nombre d’espèces partagées entre ces deux régions,
nous sommes capables de récupérer la plupart (91%) des interactions.
Le chapitre 4 approfondit la réflexion sur la complexité des réseaux et les différentes ma-
nières que nous pourrions choisir de définir la complexité. Plus spécifiquement, nous remet-
tons en question les mesures structurelles plus traditionnelles de la complexité en présentant
l’entropie SVD comme une mesure alternative de la complexité. Adopter une approche phy-
sique pour définir la complexité nous permet de réfléchir aux informations contenues dans un
réseau plutôt qu’à leurs propriétés émergentes. Il est intéressant de noter que l’entropie SVD
révèle que les réseaux bipartites sont très complexes et ne sont pas nécessairement conformes
à l’idée selon laquelle la complexité engendre la stabilité.
Enfin, je présente le package Julia SpatialBoundaries.jl. Ce package permet à l’utili-
sateur d’implémenter l’algorithme de wombling spatial pour des données disposées de manière
uniforme ou aléatoire dans l’espace. Étant donné que l’algorithme de wombling spatial se
concentre à la fois sur le gradient et sur la direction du changement pour un paysage donné,
il peut être utilisé à la fois pour détecter les limites au sens traditionnel du terme ainsi
que pour examiner de manière plus nuancée la direction des changements. Cette approche
pourrait être un moyen bénéfique de réfléchir aux questions liées à la détection des limites
des réseaux et à leur relation avec les limites environnementales. / The field of network ecology is still limited in its ability to make large-scale, global inferences.
This challenge is primarily driven by the difficulty of sampling interactions in the field, leading
to many ‘gaps’ with regards to global coverage of data. This thesis takes a ’methods-centric’
approach to network ecology and focuses on the idea of developing tools to help with filling
in the the data gaps by presenting prediction as an accessible alternative to sampling in the
field and introduces two different ’tools’ that are primed for asking questions at global scales.
Chapter 1 maps out tools we can use to make network predictions and is driven by the idea
that having the ability to predict interactions between species through the use of modelling
tools is imperative for a more global understanding of ecological networks. This chapter
includes a proof-of-concept (where we show how a simple neural network model is able to
make accurate predictions about species interactions), an assessment of the challenges and
opportunities associated with improving interaction predictions, and providing a conceptual
roadmap concerned with the use of predictive models for ecological networks.
Chapters 2 and 3 are closely intertwined and are focused on the use of graph embedding
for network prediction. Essentially graph embedding allows us to transform a graph (net-
work) into a set of vectors, which capture an ecological property of the network and provides
us with a simple, yet powerful abstraction of an interaction network and serves as a way
to maximise the available information available from species interaction networks. Because
graph embedding allows us to ’decode’ the information within a network it is primed as a tool
for network prediction, specifically when used in a transfer learning framework, this builds
on the idea that we can take the knowledge gained from solving a known problem and using
it to solve a closely related problem. Here we used the (known) European metaweb to predict
a metaweb for Canadian species based on their phylogenetic relatedness. What makes this
work particularly exciting is that despite the low number of species shared between these
two regions we are able to recover most (91%) of interactions.
Chapter 4 delves into thinking about the complexity of networks and the different ways
we might choose to define complexity. More specifically we challenge the more traditional
structural measures of complexity by presenting SVD entropy as an alternative measure of
complexity. Taking a physical approach to defining complexity allows us to think about the
information contained within a network as opposed to their emerging properties. Interest-
ingly, SVD entropy reveals that bipartite networks are highly complex and do not necessarily
conform to the idea that complexity begets stability.
Finally, I present the Julia package SpatialBoundaries.jl. This package allows the
user to implement the spatial wombling algorithm for data arranged uniformly or randomly
across space. Because the spatial wombling algorithm focuses on both the gradient as well as
the direction of change for the given landscape it can be used both for detecting boundaries
in the traditional sense as well as a more nuanced look at at the direction of changes. This
approach could be a beneficial way with which to think about questions which relate to
boundary detection for networks and how these relate to environmental boundaries.
|
10 |
Nouvelles méthodes de représentations parcimonieuses ; application à la compression et l'indexation d'imagesZepeda Salvatierra, Joaquin 28 October 2010 (has links) (PDF)
Une nouvelle structure de dictionnaire adaptés aux décompositions itératives de type poursuite, appelée un Iteration-Tuned Dictionary (ITD), est présentée. Les ITDs sont structurés en couche, chaque couche se composant d'un ensemble de dictionnaires candidats. Les décompositions itératives basées ITD sont alors réalisées en sélectionnant, à chaque itération i, l'un des dictionnaires de la i-ième couche. Une structure générale des ITDs est proposée, ainsi qu'une variante structurée en arbre appelée Tree-Structured Iteration-Tuned Dictionary (TSITD) et une version contrainte de cette dernière, appelée Iteration-Tuned and Aligned Dictionary (ITAD). Ces structures sont comparées à plusieurs méthodes de l'état de l'art et évaluées dans des applications de débruitage et de compression d'images. Un codec basé sur le schéma ITAD est également présenté et comparé à JPEG2000 dans des évaluations qualitatives et quantitatives. Dans le contexte de l'indexation d'images, un nouveau système de recherche approximative des plus proches voisins est également introduit, qui utilise les représentations parcimonieuses pour réduire la complexité de la recherche. La méthode traite l'instabilité dans la sélection des atomes lorsque l'image est soumise à de faibles transformations affines. Un nouveau système de conditionnement des données est également introduit, permettant de mieux distribuer les données sur la sphère unitaire tout en préservant leurs distances angulaires relatives. Il est montré que cette méthode améliore le compromis complexité/performance de la recherche approximative basée décompositions parcimonieuses.
|
Page generated in 0.113 seconds