• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 2
  • Tagged with
  • 9
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Técnicas de agrupamiento para identificación y control por modelos locales

Diez Ruano, José Luís 25 July 2008 (has links)
Una opción interesante para el modelado de sistemas no lineales son los modelos borrosos, sin olvidar que una de las metas del modelado borroso es la interpretabilidad de los modelos. Además, si se pretenden usar los modelos identi?cados para una posterior aplicación a control, será necesario tener en cuenta algunas consideraciones adicionales que podrían modificar los criterios empleados en identificación para predicción. En esta Tesis, tras resaltar algunos conceptos poco claros relacionados con los criterios de modelado local encontrados en la bibliografía, se proponen las características deseables de las técnicas de modelado e identificación borrosa cuando el propósito es el control por modelos locales. Tras estudiar el comportamiento de las funciones objetivo de los algoritmos de agrupamiento borroso adecuados en el modelado para control, se presenta un nuevo índice que incorpora algunas características deseables relacionadas con la convexidad y suavidad de las clases finales identificadas, con ventajas respecto a otras metodologías como Gustaffson-Kessel. A continuación se define una familia de algoritmos de agrupamiento que minimizan la función objetivo previamente definida. Estos algoritmos llevan a una identificación más adecuada de modelos locales, aproximando los modelos locales el modelo linealizado de la planta en sus zonas de validez y, adicionalmente, con características deseables respecto a la interpretabilidad de las funciones de pertenencia (convexidad y suavidad). El algoritmo proporciona simultáneamente modelos locales lineales y agrupamiento de los datos de entrada, siendo especialmente aplicable para identi?cación de modelos borrosos Takagi-Sugeno y descomposición de sistemas no lineales en modelos locales lineales para control. / Diez Ruano, JL. (2003). Técnicas de agrupamiento para identificación y control por modelos locales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2684 / Palancia
2

Técnicas de agrupamiento bilingüe aplicadas a la inferencia de traductores

Barrachina Mir, Sergio 20 June 2003 (has links)
La tesis presenta un método de agrupamiento bilingüe que puede utilizarse para la mejora de sistemas de traducción automática basados en ejemplos. Este método de agrupamiento es una extensión del caso monolingüe y es mejorado mediante la detección automática de colocaciones -secuencias de palabras que se traducen como una unidad-. Asimismo, presentamos una técnica para la integración de este agrupamiento con un sistema de traducción basado en ejemplos, el modelo de transductores subsecuenciales, y los resultados de traducción obtenidos.Los asuntos que trata la tesis son:- Agrupamiento monolingüe.- Agrupamiento bilingüe.- Integración del agrupamiento bilingüe en transductores subsecuenciales.- Detección automática de colocaciones.- Mejora del agrupamiento bilingüe mediante colocaciones.- Experimentación con las tareas de traducción EuTrans I y EuTrans II.
3

El fuzzy clustering y la similitud musical: aplicación a la composición asistida por ordenador.

Martínez Rodríguez, Brian Santiago 07 January 2020 (has links)
[ES] La composición musical asistida por ordenador es un área de conocimiento que tiene sus orígenes en la segunda mitad del siglo pasado. Durante sus más de sesenta años de existencia han aparecido numerosas propuestas para abordar el problema de la creatividad artificial aplicada al ámbito de la variación musical, la emulación de estilos, la escritura automatizada de contrapunto o la composición estocástica, entre muchos otros. En la presente memoria propondremos un nuevo método para la generación computacional de variaciones y transiciones a partir de material musical proporcionado por el compositor, ya sea de carácter melódico, rítmico, armónico o tímbrico. La originalidad de nuestro método radica en la construcción de nuevos algoritmos basados en las técnicas de agrupamiento difuso, capaces incorporar el orden de los elementos de los conjuntos de datos durante el proceso de partición. Para implementar computacionalmente estas técnicas hemos diseñado el software Mercury mediante el que realizaremos distintos experimentos cuyos resultados, en forma de transiciones musicales, ilustrarán la utilidad de nuestra propuesta. Completaremos la presente investigación con la composición de la obra Transiciones difusas, para cuarteto de cuerdas, adjunta como apéndice. La metodología propuesta implica formular una nueva medida de la disimilitud musical, aplicable de forma general a la comparación de dos secuencias numéricas cualesquiera, con las que se pueda representar cualquier tupla de atributos musicales. Es posible, por tanto, aplicar esta disimilitud sobre ámbitos más teóricos como los sistemas de afinación. Finalmente propondremos diversos métodos para estimar la compatibilidad entre un conjunto de notas y un sistema de afinación generando, en última instancia, transiciones entre diferentes sistemas. / [CAT] La composició musical assistida per ordinador és una àrea de coneixement que té els seus orígens a meitat del segle passat. Durant els seus més de seixanta anys d'existència han aparegut nombroses propostes per a abordar el problema de la creativitat artificial aplicada a l'àmbit de la generació de variacions, emulació d'estils, escriptura automatitzada de contrapunt i composició de música estocàstica, entre molts altres. En aquesta memòria proposarem un nou mètode per a crear variacions i transicions entre material musical preexistent, ja siga de caràcter melòdic, rítmic, harmònic o tímbric. L'originalitat del nostre mètode radica en la construcció d'algoritmes basats en la tècnica de fuzzy clustering, capaços de realitzar agrupaments en què es té en compte l'ordre dels elements dels conjunts de dades. Per a implementar aquestes tècniques, hem dissenyat el programari Mercury mitjançant el qual es realitzaran experiments amb transicions entre melodies, ritmes i seqüències harmòniques que il·lustraran la utilitat de la nostra proposta, i que culminaran amb la composició de l'obra Transicions difuses, adjunta com a apèndix. La metodologia proposada no només té conseqüències pràctiques, sinó que implica formular una nova mesura de la dissimilitud musical, aplicable de forma general a la comparació de qualsevol parell de seqüències numèriques, que puguen representar melodies, ritmes, harmonies o timbres. Un cop establert com valorar la dissimilitud, aquesta també pot aplicar-se a àmbits molt més teòrics, com són els sistemes d'afinació. Proposarem diversos mètodes per a estimar la compatibilitat entre un conjunt de notes i un sistema d'afinació i generar, en última instància, transicions entre dos sistemes d'afinació. Aquesta tasca pot facilitar la interpretació d'obres en un sistema d'afinació diferent d'aquell per al qual van ser concebudes, sempre que s'exigisca que el nivell de compatibilitat entre els dos sistemes siga acceptable. / [EN] Computer-assisted composition is an area of knowledge that has its origins in the middle of the last century. During its more than sixty years of existence, numerous proposals have appeared to address the problem of artificial creativity applied to the field of generation of variations, emulation of styles, automated counterpoint writing, stochastic music composition, among many others. In this report we will propose a new method to create variations and transitions between pre-existing musical material, be it melodic, rhythmic, harmonic or timbre-related. The originality of our method lies in the construction of algorithms based on the technique of fuzzy clustering, capable of performing groupings in which the order of the elements of the data sets is taken into account. To implement these techniques, we designed the software Mercury through which experiments will be performed with transitions between melodies, rhythms and harmonic sequences that will illustrate the usefulness of our proposal, and that will culminate with the composition of the work Fuzzy Transitions, attached as an appendix. The proposed methodology not only has practical consequences, but also implies formulating a new measure of musical dissimilarity, applicable in a general way to the comparison of any pair of numerical sequences, which may represent melodies, rhythms, harmonies or timbres. Once established how to assess the dissimilarity, this can also be applied to much more theoretical areas, such as tuning systems. We will propose various methods to estimate the compatibility between a set of notes and an tuning system and, in the last instance, generate transitions between two tuning systems. This work can facilitate the interpretation of works in a tuning system different from that for which they were conceived, whenever it is required that the level of compatibility between both systems is acceptable. / Martínez Rodríguez, BS. (2019). El fuzzy clustering y la similitud musical: aplicación a la composición asistida por ordenador [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/134056 / TESIS
4

La capacidad hidráulica en las redes de agua potable y su influencia en el proceso de sectorización

Martins Alves, Carlos 21 January 2021 (has links)
[ES] La sectorización en sectores hidrométricos de las redes de abastecimiento de agua potable ha sido, a lo largo de los últimos años, una de las técnicas más empleadas para ubicar y controlar las fugas. Esto es de vital importancia ante un recurso, el agua potable, cada vez más escaso y valioso. Sin embargo, el empleo de esta técnica, algunas veces, es llevada a cabo por ensayo y error, o sin una estrategia previamente establecida. La capacidad hidráulica de la red, o caudal máximo que puede aportar cumpliendo los requisitos mínimos de servicio, puede afectarse cuando se lleva a cabo un proceso de sectorización. Esto es debido a que el cierre de tramos de la red cambia las condiciones de servicio, pudiendo generar afectaciones graves desde el punto de vista de presiones y de calidad de agua. Algunas veces, también, es aplicado el proceso de sectorización sin una evaluación previa de las características de la red y de las condiciones operativas. Partiendo de estas situaciones, se planteó indagar acerca de cómo las condiciones iniciales de operación de la red pudiesen afectar la formación de los sectores hidrométricos desde el punto de vista de su configuración. En los procesos de sectorización pueden emplearse algoritmos de clústering debido a la analogía existente entre los agrupamientos de los diferentes elementos de los sistemas de abastecimiento de agua y los principios aplicados en las técnicas de agrupamiento de datos. Así, se decidió aplicar diversas técnicas basadas en la detección de comunidades en redes, ya que poseen la ventaja de agrupar en función de la información en las conexiones, y no solo en la información almacenada en los nodos, lo cual resulta favorable para el tema en estudio en este trabajo, debido a que pudiera tomarse en cuenta cómo la variación de los niveles de exigencia en las tuberías, ocasionados por la variación en la demanda, afectaría la formación de sectores. Para ello se planteó trabajar con dos redes de prueba conocidas en la literatura, a las cuales se les simuló bajo distintas capacidades de carga de trabajo y a través del empleo de varios algoritmos de agrupamiento, tales como Infomap, Walktrap, Fast gready, Edge betweeness, Luovain y Leiden. La metodología desarrollada fue, finalmente, aplicada a una red real de gran tamaño, lo que valida dicha metodología para un problema del mundo real. Como parámetros para ponderar las conexiones se probaron cuatro opciones: caudal circulante con la red trabajando a la capacidad deseada; energía disipada en cada tramo con la red trabajando a la capacidad deseada; relación entre el caudal circulante en el tramo y el caudal circulante a capacidad máxima teórica de la red; y relación entre la energía disipada trabajando a la capacidad deseada y la disipación de la energía en los tramos con la red trabajando a capacidad máxima. Obtenida la partición por cualquiera de los métodos anteriormente expuestos, se optimizaron las entradas y salidas de los sectores por medio de la implementación de un algoritmo de enjambre de partículas; adicionalmente, se hace una comparación del resultado con otro obtenido a partir de un algoritmo de colonia de hormigas, lo que permite dar robustez a la metodología desarrollada. / [CA] La partició o sectorització de les xarxes d'abastiment d'aigua potable a les anomenades districtes hidromètrics ha estat, durant els darrers anys, una de les tècniques més utilitzades per localitzar i controlar les pèrdues d'aigua. La sectorització és crucial quan es tracta d'un recurs cada vegada més escàs i valuós com es l'aigua. Tanmateix, l'ús d'aquesta tècnica de vegades es duu a terme mitjançant proves i errors, o sense una estratègia prèviament establerta. La capacitat hidràulica d'una xarxa o el cabal màxim que pot proporcionar mentre compleix els requisits mínims de servei es pot veure afectat quan es realitza un procés de sectorització. Això es deu al fet que el tancament de seccions de la xarxa modifica les condicions del servei, la qual cosa pot generar greus efectes des del punt de vista de la pressió i la qualitat de l'aigua. A més, de vegades s'apliquen processos de sectorització sense una avaluació prèvia de les característiques de la xarxa i de les condicions de funcionament. Partint d'aquestes situacions, ens vam preguntar sobre com les condicions inicials de funcionament de la xarxa podrien afectar la construcció dels sectors hidromètrics des del punt de vista de la seva configuració. Els algoritmes de clusterització es poden utilitzar en processos de sectorització a causa de l'analogia entre l'agrupació dels diferents elements dels sistemes d'abastiment d'aigua i els principis aplicats en les tècniques d'agrupament de dades. Així, vam decidir aplicar diverses tècniques basades en la detecció de comunitats a les xarxes, ja que tenen l'avantatge de realitzar agrupacions basades en la informació de les unions i no només en la informació emmagatzemada als nodes. Això és favorable per al tema en estudi en aquest treball, perquè es pot considerar com la variació dels nivells de demanda a les canonades, causada per la variació de la demanda, pot afectar la construcció de sectors. Amb aquesta finalitat, es va proposar treballar amb dues xarxes de proves conegudes a la literatura, que es van simular sota diferents capacitats de càrrega i mitjançant l'ús de diversos algorismes de clusterització, com Infomap, Walktrap, Fast gready, Edge betweeness, Luovain i Leiden. La metodologia desenvolupada es va aplicar, finalment, a una gran xarxa real, que valida la metodologia per a una xarxa de subministrament d'aigua del món real. Com a paràmetres per ponderar les unions, es van provar quatre opcions: cabal circulant amb la xarxa treballant a la capacitat desitjada; energia dissipada a cada secció amb la xarxa treballant a la capacitat desitjada; relació entre el cabal circulant a la secció i el cabal circulant a la capacitat màxima teòrica de la xarxa; i la relació entre l'energia dissipada que treballa a la capacitat desitjada i la dissipació d'energia a les seccions amb la xarxa que treballa a la màxima capacitat. Un cop obtinguda la partició per qualsevol dels mètodes esmentats anteriorment, les entrades i sortides dels sectors s'optimitzen mitjançant un algorisme d'optimització d'eixam de partícules; a més, es fa una comparació del resultat amb un altre algoritme d'optimització, és a dir, un algoritme d'optimització de colònies de formigues, que permet proporcionar robustesa a la metodologia desenvolupada. / [EN] Partitioning or sectorization of drinking water supply networks into so-called district metered areas has been, over the last years, one of the most used techniques to locate and control leaks. Sectorization is crucial when dealing with an increasingly scarce and valuable resource as water. However, the use of this technique is sometimes carried out by trial and error, or without a previously established strategy. The hydraulic capacity of a network, or the maximum flow it can provide while meeting the minimum service requirements, can be affected when a sectorization process is carried out. This is due to the fact that the closure of sections of the network changes the service conditions, which could generate serious effects from the point of view of pressure and water quality. Also, sometimes sectorization processes are applied without a prior evaluation of the characteristics of the network and of the operating conditions. Starting from these situations, we inquired about how the initial operating conditions of the network could affect the construction of the hydrometric sectors or district metered areas from the point of view of their configuration. Clustering algorithms can be used in sectorization processes due to the analogy between the grouping of the different elements of water supply systems and the principles applied in data grouping techniques. Thus, we decided to apply various techniques based on the detection of communities in networks, since they have the advantage of performing grouping based on the information at the junctions, and not only on the information stored at the nodes. This is favourable for the subject under study in this work, because one may consider how the variation of the demand levels in the pipes, caused by the demand variation, can affect the construction of sectors. To this end, it was proposed to work with two test networks known in the literature, which were simulated under different load capacities and through the use of various clustering algorithms, namely Infomap, Walktrap, Fast gready, Edge betweeness, Luovain and Leiden. The methodology developed was, finally, applied to a large real network, which validates the methodology for a real-world water supply network. As parameters to weight the junctions, four options were tested: circulating flow with the network working at the desired capacity; energy dissipated in each section with the network working at the desired capacity; relationship between the circulating flow in the section and the circulating flow at the theoretical maximum capacity of the network; and the relationship between the energy dissipated working at the desired capacity and the dissipation of energy in the sections with the network working at maximum capacity. Once the partition is obtained by any of the previously said methods, the inputs and outputs of the sectors are optimized by using a particle swarm optimization algorithm; additionally, a comparison of the result is made with another optimization algorithm, namely, an ant colony optimization algorithm, which allows to provide robustness to the developed methodology. / Martins Alves, C. (2020). La capacidad hidráulica en las redes de agua potable y su influencia en el proceso de sectorización [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/159938 / TESIS
5

Un enfoque bayesiano para la extracción de características y agrupamiento en visión artificial

Cazorla, Miguel 19 May 2000 (has links)
No description available.
6

COVID-19 y adultos mayores: comparación espaciotemporal entre mortalidad y vacunación en la provincia de Buenos Aires, Argentina

Leveau, Carlos M., Velázquez, Guillermo A. 22 December 2021 (has links)
El objetivo de este estudio fue analizar las variaciones espaciotemporales de la mortalidad por COVID-19 en adultos mayores y de la vacunación contra la COVID-19 en esta población. Se utilizaron datos de defunciones por COVID-19 y de personas de 70 a más años inmunizadas con la primera dosis de vacunas contra esta enfermedad, en partidos de la provincia de Buenos Aires, desde el 29 de diciembre del 2020 al 30 de junio de 2021. Se emplearon técnicas de escaneo espaciotemporal para detectar conglomerados. Los partidos del Gran Buenos Aires que tuvieron mayor vacunación con la primera dosis de la vacuna Sputnik V en población de 70 a más años, entre mediados de marzo y principios de abril de 2021, coincidieron mayormente en registrar una disminución de la mortalidad en esta población, entre finales de abril y finales de junio de 2021. Este estudio mostró algunos indicios del impacto positivo de la aplicación de la primera dosis de la vacuna Sputnik V en el Gran Buenos Aires.
7

Manifold clustering for motion segmentation

Zappella, Luca 30 June 2011 (has links)
En aquesta tesi s’estudia el problema de la segmentació del moviment. La tesi presenta una revisió dels principals algoritmes de segmentació del moviment, s’analitzen les característiques principals i es proposa una classificació de les tècniques més recents i importants. La segmentació es pot entendre com un problema d’agrupament d’espais (manifold clustering). Aquest estudi aborda alguns dels reptes més difícils de la segmentació de moviment a través l’agrupament d’espais. S’han proposat nous algoritmes per a l’estimació del rang de la matriu de trajectòries, s’ha presenta una mesura de similitud entre subespais, s’han abordat problemes relacionats amb el comportament dels angles canònics i s’ha desenvolupat una eina genèrica per estimar quants moviments apareixen en una seqüència. L´ultima part de l’estudi es dedica a la correcció de l’estimació inicial d’una segmentació. Aquesta correcció es du a terme ajuntant els problemes de la segmentació del moviment i de l’estructura a partir del moviment. / IN THIS STUDY THE PROBLEM OF MOTION SEGMENTATION IS DISCUSSED. MOTION SEGMENTATION STATE OF THE ART IS PRESENTED, THE MAIN FEATURES OF MOTION SEGMENTATION ALGORITHMS ARE ANALYSED, AND A CLASSIFICATION OF THE RECENT AND MOST IMPORTANT TECHNIQUES IS PROPOSED. THE SEGMENTATION PROBLEM COULD BE CAST INTO A MANIFOLD CLUSTERING PROBLEM. IN THIS STUDY SOME OF THE MOST CHALLENGING ISSUES RELATED TO MOTION SEGMENTATION VIA MANIFOLD CLUSTERING ARE TACKLED. NEW ALGORITHMS FOR THE RANK ESTIMATION OF THE TRAJECTORY MATRIX ARE PROPOSED. A MEASURE OF SIMILARITY BETWEEN SUBSPACES IS PRESENTED. THE BEHAVIOUR OF PRINCIPAL ANGLES IS DISCUSSED. A GENERIC TOOL FOR THE ESTIMATION OF THE NUMBER OF MOTIONS IS DEVELOPED. THE LAST PART OF THE STUDY IS DEDICATED TO THE DEVELOPMENT OF AN ALGORITHM FOR THE CORRECTION OF AN INITIAL MOTION SEGMENTATION SOLUTION. SUCH A CORRECTION IS ACHIEVED BY BRINGING TOGETHER THE PROBLEMS OF MOTION SEGMENTATION AND STRUCTURE FROM MOTION.
8

On Clustering and Evaluation of Narrow Domain Short-Test Corpora

Pinto Avendaño, David Eduardo 23 July 2008 (has links)
En este trabajo de tesis doctoral se investiga el problema del agrupamiento de conjuntos especiales de documentos llamados textos cortos de dominios restringidos. Para llevar a cabo esta tarea, se han analizados diversos corpora y métodos de agrupamiento. Mas aún, se han introducido algunas medidas de evaluación de corpus, técnicas de selección de términos y medidas para la validez de agrupamiento con la finalidad de estudiar los siguientes problemas: -Determinar la relativa dificultad de un corpus para ser agrupado y estudiar algunas de sus características como longitud de los textos, amplitud del dominio, estilometría, desequilibrio de clases y estructura. -Contribuir en el estado del arte sobre el agrupamiento de corpora compuesto de textos cortos de dominios restringidos El trabajo de investigación que se ha llevado a cabo se encuentra parcialmente enfocado en el "agrupamiento de textos cortos". Este tema se considera relevante dado el modo actual y futuro en que las personas tienden a usar un "lenguaje reducido" constituidos por textos cortos (por ejemplo, blogs, snippets, noticias y generación de mensajes de textos como el correo electrónico y el chat). Adicionalmente, se estudia la amplitud del dominio de corpora. En este sentido, un corpus puede ser considerado como restringido o amplio si el grado de traslape de vocabulario es alto o bajo, respectivamente. En la tarea de categorización, es bastante complejo lidiar con corpora de dominio restringido tales como artículos científicos, reportes técnicos, patentes, etc. El objetivo principal de este trabajo consiste en estudiar las posibles estrategias para tratar con los siguientes dos problemas: a) las bajas frecuencias de los términos del vocabulario en textos cortos, y b) el alto traslape de vocabulario asociado a dominios restringidos. Si bien, cada uno de los problemas anteriores es un reto suficientemente alto, cuando se trata con textos cortos de dominios restringidos, la complejidad del problema se incr / Pinto Avendaño, DE. (2008). On Clustering and Evaluation of Narrow Domain Short-Test Corpora [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2641 / Palancia
9

Kernel Methods for Nonlinear Identification, Equalization and Separation of Signals

Vaerenbergh, Steven Van 03 February 2010 (has links)
En la última década, los métodos kernel (métodos núcleo) han demostrado ser técnicas muy eficaces en la resolución de problemas no lineales. Parte de su éxito puede atribuirse a su sólida base matemática dentro de los espacios de Hilbert generados por funciones kernel ("reproducing kernel Hilbert spaces", RKHS); y al hecho de que resultan en problemas convexos de optimización. Además, son aproximadores universales y la complejidad computacional que requieren es moderada. Gracias a estas características, los métodos kernel constituyen una alternativa atractiva a las técnicas tradicionales no lineales, como las series de Volterra, los polinómios y las redes neuronales. Los métodos kernel también presentan ciertos inconvenientes que deben ser abordados adecuadamente en las distintas aplicaciones, por ejemplo, las dificultades asociadas al manejo de grandes conjuntos de datos y los problemas de sobreajuste ocasionados al trabajar en espacios de dimensionalidad infinita.En este trabajo se desarrolla un conjunto de algoritmos basados en métodos kernel para resolver una serie de problemas no lineales, dentro del ámbito del procesado de señal y las comunicaciones. En particular, se tratan problemas de identificación e igualación de sistemas no lineales, y problemas de separación ciega de fuentes no lineal ("blind source separation", BSS). Esta tesis se divide en tres partes. La primera parte consiste en un estudio de la literatura sobre los métodos kernel. En la segunda parte, se proponen una serie de técnicas nuevas basadas en regresión con kernels para resolver problemas de identificación e igualación de sistemas de Wiener y de Hammerstein, en casos supervisados y ciegos. Como contribución adicional se estudia el campo del filtrado adaptativo mediante kernels y se proponen dos algoritmos recursivos de mínimos cuadrados mediante kernels ("kernel recursive least-squares", KRLS). En la tercera parte se tratan problemas de decodificación ciega en que las fuentes son dispersas, como es el caso en comunicaciones digitales. La dispersidad de las fuentes se refleja en que las muestras observadas se agrupan, lo cual ha permitido diseñar técnicas de decodificación basadas en agrupamiento espectral. Las técnicas propuestas se han aplicado al problema de la decodificación ciega de canales MIMO rápidamente variantes en el tiempo, y a la separación ciega de fuentes post no lineal. / In the last decade, kernel methods have become established techniques to perform nonlinear signal processing. Thanks to their foundation in the solid mathematical framework of reproducing kernel Hilbert spaces (RKHS), kernel methods yield convex optimization problems. In addition, they are universal nonlinear approximators and require only moderate computational complexity. These properties make them an attractive alternative to traditional nonlinear techniques such as Volterra series, polynomial filters and neural networks.This work aims to study the application of kernel methods to resolve nonlinear problems in signal processing and communications. Specifically, the problems treated in this thesis consist of the identification and equalization of nonlinear systems, both in supervised and blind scenarios, kernel adaptive filtering and nonlinear blind source separation.In a first contribution, a framework for identification and equalization of nonlinear Wiener and Hammerstein systems is designed, based on kernel canonical correlation analysis (KCCA). As a result of this study, various other related techniques are proposed, including two kernel recursive least squares (KRLS) algorithms with fixed memory size, and a KCCA-based blind equalization technique for Wiener systems that uses oversampling. The second part of this thesis treats two nonlinear blind decoding problems of sparse data, posed under conditions that do not permit the application of traditional clustering techniques. For these problems, which include the blind decoding of fast time-varying MIMO channels, a set of algorithms based on spectral clustering is designed. The effectiveness of the proposed techniques is demonstrated through various simulations.

Page generated in 0.089 seconds