Return to search

Algunas extensiones del método de vectores comunes discriminantes para la clasificación de imágenes

Los métodos basados en subespacios son una herramienta muy utilizada en aplicaciones de visión por computador. Aquí se presentan y validan algunos algoritmos que hemos propuesto en este campo de investigación. El primer algoritmo está relacionado con una extensión del método de vectores comunes discriminantes con kernel, que hemos llamado el método de vectores comunes discriminantes extendidos con kernel (RKDCV, Rough Discriminative Common Vector with Kernels). RKDCV reinterpreta el espacio nulo de la matriz de dispersión intra-clase del conjunto de entrenamiento para obtener las características discriminantes. Este método también se puede ver como una versión no lineal de los vectores comunes discriminantes extendidos.
Dentro de los métodos basados en subespacios existen diferentes tipos de entrenamiento. Uno de los más populares, pero no por ello uno de los más eficientes, es el aprendizaje por lotes. En este tipo de aprendizaje, todas las muestras del conjunto de entrenamiento tienen que estar disponibles desde el inicio. De este modo, cuando nuevas muestras se ponen a disposición del algoritmo, el sistema tiene que ser reentrenado de nuevo desde cero. Una alternativa a este tipo de entrenamiento es el aprendizaje incremental. En los últimos años, y debido a la necesidad de poder actualizar los sistemas de clasificación, muchos de los métodos basados en subespacios, que utilizan el aprendizaje por lotes, han sido modificados para un aprendizaje incremental. Aquí se proponen diferentes algoritmos incrementales del método de vectores comunes discriminantes.
El método DCV ha sido propuesto originalmente de dos formas diferentes, pero equivalentes. En este documento se formula un algoritmo incremental para cada uno de ellos. Además, se muestra una versión incremental propia para calcular los vectores comunes discriminantes. El primer algoritmo se basa en la eigendescomposición y lo hemos abreviado con las siglas IDCV-EVD del inglés Incremental Discriminative Common Vectors by Eigendecomposition. El segundo algoritmo emplea subespacios diferencia y la ortogonalización de Gram-Schmidt incremental (IDCV-GSO). El tercer algoritmo esta basado en subespacios diferencia y ortogonalización (IDCV-O).
Cuando la dimensión del espacio de las muestras es menor o igual a la diferencia entre el tamaño del conjunto de entrenamiento y el número de clases, la dimensión del subespacio discriminante en el método DCV es pequeña. Esto ocasiona que los vectores comunes discriminantes no sean representativos. En este caso, nosotros utilizamos el método de vectores comunes discriminantes extendidos (RDCV, Rough Discriminative Common Vector). RDCV relaja las bases del método DCV a partir de ampliar el subespacio discriminante. Aquí se presenta una versión incremental del método RDCV que permite actualizar la base de conocimiento desde un modelo precalculado.
Los algoritmos propuestos se validan empíricamente para diferentes casos de estudio, a partir de clasificar bases de datos que presentan características complejas. / Subspace-based methods are a widely used tool in computer vision applications. This document introduces and validates several algorithms that we have proposed in this field of research. The first algorithm is an extension of the discriminative common vector method with kernels, called the Rough Discriminative Common Vector Method with Kernels (RKDCV). RKDCV reinterprets the null space of the within-class scatter matrix of the training set for calculating the discriminative features. This method can also be understood as a nonlinear version of the rough discriminative common vectors.
Among the subspace-based methods, there are different types of training. One of the most popular, although not the most efficient one, is the batch learning. In this type of learning all the samples of the training set must be available at the start of training. If new training samples are available a posterior, the system must be retrained from scratch. An alternative to this type of training is the incremental learning. In the last years, due to the need of updating the classification systems, most of the subspace-based methodologies that were using batch learning, have been modified for an incremental learning. Here we propose different incremental algorithms for discriminative common vector method.
The DCV method was originally proposed of two different but equivalent ways. In this document an incremental algorithm for each of them is formulated. In addition, we show our own incremental version for calculating the discriminative common vectors.
When the dimension of the sample space is smaller than or equal to the difference between the training set size and the number of classes, the dimension of the discriminant subspace for the DCV method is small. This produces discriminative common vectors that are not representative. In this case, we use the rough discriminative common vector method (RDCV). RDCV relaxes the bases of DCV method, expanding the size of the discriminant subspace. We present an incremental version of the RDCV method, which allows updating the knowledge base from a precalculated model.
The proposed algorithms in this document are validated empirically for different case studies, by classifying databases that present complex characteristics.

Identiferoai:union.ndltd.org:TDX_UV/oai:www.tdx.cat:10803/81324
Date07 October 2011
CreatorsDíaz Chito, Katerine
ContributorsFerri Rabasa, Francesc, Universitat de València. Departament d'Informàtica
PublisherUniversitat de València
Source SetsUniversitat de València
LanguageSpanish
Detected LanguageSpanish
Typeinfo:eu-repo/semantics/doctoralThesis, info:eu-repo/semantics/publishedVersion
Format214 p., application/pdf
SourceTDX (Tesis Doctorals en Xarxa)
Rightsinfo:eu-repo/semantics/openAccess, ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.

Page generated in 0.0022 seconds