• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 148
  • 102
  • Tagged with
  • 250
  • 250
  • 250
  • 250
  • 33
  • 30
  • 27
  • 26
  • 23
  • 22
  • 21
  • 20
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Multichannel audio processing for speaker localization, separation and enhancement

Martí Guerola, Amparo 29 October 2013 (has links)
This thesis is related to the field of acoustic signal processing and its applications to emerging communication environments. Acoustic signal processing is a very wide research area covering the design of signal processing algorithms involving one or several acoustic signals to perform a given task, such as locating the sound source that originated the acquired signals, improving their signal to noise ratio, separating signals of interest from a set of interfering sources or recognizing the type of source and the content of the message. Among the above tasks, Sound Source localization (SSL) and Automatic Speech Recognition (ASR) have been specially addressed in this thesis. In fact, the localization of sound sources in a room has received a lot of attention in the last decades. Most real-word microphone array applications require the localization of one or more active sound sources in adverse environments (low signal-to-noise ratio and high reverberation). Some of these applications are teleconferencing systems, video-gaming, autonomous robots, remote surveillance, hands-free speech acquisition, etc. Indeed, performing robust sound source localization under high noise and reverberation is a very challenging task. One of the most well-known algorithms for source localization in noisy and reverberant environments is the Steered Response Power - Phase Transform (SRP-PHAT) algorithm, which constitutes the baseline framework for the contributions proposed in this thesis. Another challenge in the design of SSL algorithms is to achieve real-time performance and high localization accuracy with a reasonable number of microphones and limited computational resources. Although the SRP-PHAT algorithm has been shown to be an effective localization algorithm for real-world environments, its practical implementation is usually based on a costly fine grid-search procedure, making the computational cost of the method a real issue. In this context, several modifications and optimizations have been proposed to improve its performance and applicability. An effective strategy that extends the conventional SRP-PHAT functional is presented in this thesis. This approach performs a full exploration of the sampled space rather than computing the SRP at discrete spatial positions, increasing its robustness and allowing for a coarser spatial grid that reduces the computational cost required in a practical implementation with a small hardware cost (reduced number of microphones). This strategy allows to implement real-time applications based on location information, such as automatic camera steering or the detection of speech/non-speech fragments in advanced videoconferencing systems. As stated before, besides the contributions related to SSL, this thesis is also related to the field of ASR. This technology allows a computer or electronic device to identify the words spoken by a person so that the message can be stored or processed in a useful way. ASR is used on a day-to-day basis in a number of applications and services such as natural human-machine interfaces, dictation systems, electronic translators and automatic information desks. However, there are still some challenges to be solved. A major problem in ASR is to recognize people speaking in a room by using distant microphones. In distant-speech recognition, the microphone does not only receive the direct path signal, but also delayed replicas as a result of multi-path propagation. Moreover, there are multiple situations in teleconferencing meetings when multiple speakers talk simultaneously. In this context, when multiple speaker signals are present, Sound Source Separation (SSS) methods can be successfully employed to improve ASR performance in multi-source scenarios. This is the motivation behind the training method for multiple talk situations proposed in this thesis. This training, which is based on a robust transformed model constructed from separated speech in diverse acoustic environments, makes use of a SSS method as a speech enhancement stage that suppresses the unwanted interferences. The combination of source separation and this specific training has been explored and evaluated under different acoustical conditions, leading to improvements of up to a 35% in ASR performance. / Martí Guerola, A. (2013). Multichannel audio processing for speaker localization, separation and enhancement [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/33101
102

A Novel Approach to Label-Free Biosensors Based on Photonic Bandgap Structures

García Castelló, Javier 07 February 2014 (has links)
The necessity of using extremely high sensitivity biosensors in certain research areas has remarkably increased during the last two decades. Optical structures, where light is used to transduce biochemical interactions into optical signals, are a very interesting approach for the development of this type of biosensors. Within optical sensors, photonic integrated architectures are probably the most promising platform to develop novel lab-on-a-chip devices. Such planar structures exhibit an extremely high sensitivity, a significantly reduced footprint and a high multiplexing potential for sensing applications. Furthermore, their compatibility with CMOS processes and materials, such as silicon, opens the route to mass production, thus reducing drastically the cost of the final devices. Optical sensors achieve their specificity and label-free operation by means of a proper chemical functionalization of their surfaces. The selective attachment of the receptors allows the detection of the target analytes within a complex matrix. This PhD Thesis is focused on the development of label-free photonic integrated sensors in which the detection is based on the interaction of the target analytes with the evanescent field that travels along the structures. Herein, we studied several photonic structures for sensing purposes, such as photonic crystals and ring resonators. Photonic crystals, where their periodicity provokes the appearance of multiple back and forth reflections, exhibits the so-called slow-light phenomenon that allows an increase of the interaction between the light and the target matter. On the other hand, the circulating nature of the resonant modes in a ring resonator offers a multiple interaction with the matter near the structure, providing a longer effective length. We have also proposed a novel approach for the interrogation of photonic bandgap sensing structures where simply the output power needs to measured, contrary to current approaches based on the spectral interrogation of the photonic structures. This novel technique consists on measuring the overlap between a broadband source and the band edge from a SOI-based corrugated waveguide, so that we can determine indirectly its spectral position in real-time. Since there is no need to employ tunable equipment, we obtain a lighter, simpler and a cost-effective platform, as well as a real-time observation of the molecular interactions. The experimental demonstration with antibody detection measurements has shown the potential of this technique for sensing purposes / García Castelló, J. (2014). A Novel Approach to Label-Free Biosensors Based on Photonic Bandgap Structures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/35398
103

"Preludio a Borís", "Aquarelle" y "Liebestod": La evocación de la música del pasado desde una síntesis de corrientes compositivas actuales

Fontcuberta Llavata, Carlos 03 June 2014 (has links)
El proyecto consiste en la realización de una investigación basada en la práctica artística en el ámbito de la composición musical. A partir del estudio de diversas corrientes compositivas actuales, se desarrollará un enfoque compositivo propio que será aplicado a la composición de tres obras musicales para formaciones instrumentales diversas. Dicho enfoque consistirá en la articulación y sistematización de una relación con la música del pasado a partir del uso de técnicas y procedimientos musicales recientes, no a través del collage o la cita temática, sino por medio del uso de un material ligado esencialmente al timbre y que, decididamente alejado de la sintaxis musical tradicional, posea sin embargo la capacidad de evocar sin esfuerzo el colorido armónico asociado a una música del repertorio tradicional. Para ello se recurrirá a la creación de un sistema armónico propio, responsable de la integración de armonías de procedencia diversa en un contexto sonoro nuevo, así como de contribuir al enriquecimiento de la dimensión vertical de la música. Su aplicación será uno de los aspectos más relevantes de todo el planteamiento compositivo, y por ello justamente, también uno de los más necesitados de evaluación en la investigación. La viabilidad y efectividad del enfoque compositivo propuesto constituirá la hipótesis de partida de la investigación. En este contexto serán compuestas las obras "Preludio a Borís (In memoriam Modest Mussorgsky)", para 8 instrumentos, "Aquarelle", para orquesta de cámara, y "Liebestod (Barcarola para orquesta)", en las que a través de una evocación de tipo armónico se aludirá respectivamente a la ópera "Borís Godunov" de M. Mussorgsky, el ciclo de canciones "Ariettes Oubliées" de C. Debussy y la ópera "Tristán e Isolda" de R. Wagner. La valoración de los resultados obtenidos a través de la composición de estas obras permitirá la verificación de la validez del enfoque compositivo desarrollado. / Fontcuberta Llavata, C. (2014). "Preludio a Borís", "Aquarelle" y "Liebestod": La evocación de la música del pasado desde una síntesis de corrientes compositivas actuales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37887
104

Optical Orthogonal Frequency Division Multiplexed communication systems: analysis, design and optimization

Sánchez Costa, Christian 03 September 2014 (has links)
En este trabajo se realiza una intensiva labor teórica de descripción de sistemas de comunicaciones ópticas que utilizan la técnica de multiplexación por división de frecuencias ortogonales (OFDM en inglés), más concretamente en sistemas con modulación directa de la intensidad de un láser y detección directa. Se parte pues de un modelo analítico que estudia con detalle todos aquellos fenómenos que afectan a la señal de información detectada en el receptor. Tales fenómenos son: la nolinealidad del láser, las modulaciones de intensidad y de fase ópticas, la propagación a través de la fibra óptica teniendo en cuenta la dispersión cromática de primer orden, y la detección de intensidad óptica final mediante un detector de ley cuadrática. El modelo analítico es validado mediante comparaciones con resultados obtenidos a través de simulaciones con software comercial. Dada la característica singularidad de las señales OFDM debidas a su naturaleza multi-portadora, la amplitud de la señal generada es aleatoria, y el modelo analítico es complementado con un estudio que contempla el recorte o "clipping" en el transmisor. Además, se tiene en cuenta los efectos de filtrado de la señal a lo largo de sistema de comunicaciones. Con el trabajo analítico realizado se está en disposición de realizar una descripción bastante completa de los principales fenómenos y realizar estudios para evaluar el funcionamiento final ante diferentes valores de los parámetros del sistema. Es bien sabido que los sistemas de comunicaciones ópticas con modulación y detección directa se ven perjudicados por la distorsión no lineal, que para señales multi-portadora como OFDM se traduce en la mezcla de los símbolos de información que transportan las diferentes subportadoras. Para mitigar la distorsión no lineal y así mejorar el funcionamiento del sistema, se propone el uso de una técnica de pre-distorsión que se basa en el modelo analítico previamente propuesto. Esta técnica mejora la eficiencia de modulación, haciendo posible incrementar el término de la señal de información sin que se vea incrementada la distorsión no lineal en el receptor. La técnica aquí propuesta se compara también con otra ya publicada con el objetivo de evaluar su funcionamiento. Otra técnica para la mejora de sistemas con modulación y detección directas es la realizada mediante filtrado óptico. Aunque se conoce de forma más o menos intuitiva su funcionamiento para formatos de modulación ópticos tradicionales, es preciso disponer de una formulación matemática para señales ópticas OFDM para entender de forma exacta su principio de operación, las mejoras obtenidas, así como su potencial. En esta estapa se realiza esta formulación matemática ampliando el análisis teórico previamente propuesto, y se aplica para evaluar el funcionamiento obtenido con diversas estructuras de filtrado óptico. Finalmente, puesto que un potencial escenario de funcionamiento para señales ópticas OFDM son las redes de acceso donde operan más de un usuario, se propone y se estudia la técnica "interleaving division multiple access" (IDMA) en combinación con OFDM. / Sánchez Costa, C. (2014). Optical Orthogonal Frequency Division Multiplexed communication systems: analysis, design and optimization [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/39375
105

Intervenciones basadas en realidad virtual para el entrenamiento de las estrategias de equilibrio en sujetos crónicos con daño cerebral adquirido

Llorens Rodríguez, Roberto 03 November 2014 (has links)
El equilibrio se define como el estado en el cual el centro de gravedad (CDG) del cuerpo se encuentra dentro de los límites de estabilidad. La gestión del equilibrio es un claro ejemplo del control motor humano, donde la información sensorial es procesada por el sistema nervioso central para generar la actividad muscular adecuada para producir los mecanismos de anticipación y/o compensación que preserven este estado. El equilibrio tiene una gran implicación en las actividades de la vida diaria, por lo que es fundamental para la independencia de los pacientes. Se define como daño cerebral adquirido (DCA) a toda aquella lesión que afecte a un cerebro sano hasta el momento del daño. El DCA es una de las patologías de mayor incidencia y prevalencia, siendo los ictus y los traumatismos craneoencefálicos una de las causas de mortalidad e incapacidad más elevadas de los países desarrollados. Las consecuencias de un DCA son muy heterogéneas tanto en intensidad como en naturaleza, por lo que cada paciente representa un único ejemplo de la patología. Desde el punto de vista motor, la lesión puede dañar las estructuras involucradas tanto en la transmisión como el procesamiento de la información impidiendo que se generen las eferencias adecuadas que controlen las respuestas motoras. Consecuencias como la hemiparesis (debilidad en un lado del cuerpo) son muy frecuentes y tienen un efecto devastador en el equilibrio de los pacientes. Estudios recientes han demostrado que lejos de tener un carácter estático, el cerebro está en constante cambio. Los mecanismos de plasticidad cerebral posibilitan que las neuronas vecinas a una zona dañada tras un DCA puedan adquirir parte de la función que éstas tenían. Las estrategias de neurorrehabilitación actuales pretenden desde un punto de vista holístico, aprovechar los mecanismos de plasticidad cerebral y aprendizaje motor humano para recuperar o compensar las funciones perdidas. Uno de los primeros objetivos desde el punto de vista fisioterapéutico es la recuperación jerárquica del equilibrio y el control postural. La realidad virtual (RV) se define como la sustitución de estímulos reales en los canales sensoriales por estímulos sintéticos. De esta manera es posible sumergir a los usuarios en entornos virtuales que proporcionen experiencias similares a las reales pero modificadas con un determinado objetivo. Existe un creciente número de estudios que reportan los beneficios derivados del uso de RV en rehabilitación, lo cual se conoce como rehabilitación virtual (RHBV). La RHBV ha demostrado proporcionar beneficios frente a las terapias convencionales, permitiendo inducir una reorganización cortical que maximice la mejoría locomotora. Las técnicas de valoración del equilibrio permiten cuantificar el estado de los pacientes que han sufrido un DCA. Las escalas clínicas tradicionales proporcionan información funcional de dicha capacidad. Los estudios posturográficos mediante plataformas de fuerzas intentar cuantificar las respuestas del CDG en determinadas condiciones. La hipótesis de este trabajo es: por una parte, que es posible proporcionar mejorías clínicas significativas a pacientes con DCA frente a terapias convencionales mediante el uso de RV; por otra parte, que es posible cuantificar el equilibrio de dichos pacientes mediante técnicas de análisis de señal aplicadas al CDG; y de manera transversal, que los sistemas de interacción de bajo coste que se utilizarán en las verificaciones de estas hipótesis tienen un funcionamiento comparable a los dispositivos tradicionales. / Llorens Rodríguez, R. (2014). Intervenciones basadas en realidad virtual para el entrenamiento de las estrategias de equilibrio en sujetos crónicos con daño cerebral adquirido [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/43772 / Premios Extraordinarios de tesis doctorales
106

Evaluation of precoding and feedback quantization schemes for multiuser communications systems

Domene Oltra, Fernando 13 February 2015 (has links)
Los sistemas de comunicaciones con múltiples antenas o sistemas MIMO (multiple-input multiple-output) se presentan como una de las tecnologías más prometedoras en el campo de las comunicaciones inalámbricas, ya que permiten aprovechar la dimensión espacial además de las dimensiones de frecuencia y tiempo. De esta forma, se pueden obtener tasas de transmisión más elevadas usando el mismo ancho de banda, que es un recurso escaso, y manteniendo una potencia de transmisión baja, lo cual es crucial para dispositivos alimentados por baterías. Por estas razones, la tecnología MIMO ha sido adoptada en muchos estándares como Long-Term Evolution (LTE), LTE Advanced y Worldwide Interoperability for Microwave Access (WiMAX). Las técnicas MIMO también pueden se pueden emplear en un escenario multiusuario, donde varios usuarios comparten la dimensión espacial provocando una interferencia multiusuario. A través de la precodificación y del uso de múltiples antenas en el transmisor, la señal de los diferentes usuarios puede ser multiplexada espacialmente de forma que se mitigue la interferencia multiusuario incluso con usuarios de una sola antena. Estos sistemas, conocidos como sistemas MU-MISO (multiuser multiple-input single-output), han atraído mucho la atención en los últimos años ya que permiten el desarrollo de terminales pequeños y baratos, manteniendo así el equipamiento más caro en el transmisor. Sin embargo, estos beneficios conllevan un sistema más complejo. Por una parte, el multiplexado espacial requiere una carga de procesado considerable, que depende del tamaño del sistema: número de antenas transmisoras, número de receptores y ancho de banda. Por otra parte, las técnicas MIMO requieren un conocimiento del canal en transmisión o CSIT (channel state information at the transmitter) preciso. En sistemas con duplexación por división en frecuencia o FDD (frequency-division duplex), la información de canal o CSI (channel state information) debe ser estimada en el receptor y proporcionada al transmisor a través del enlace de realimentación, reduciendo así la eficiencia del sistema. Por lo tanto, esta tesis se centra en la mejora de la eficiencia de las implementaciones de precodificación y en el rendimiento de los esquemas de realimentación de canal en sistemas MU-MISO. El problema de la precodificación se aborda en primer lugar. Se ha llevado a cabo un análisis de algunas de las técnicas de precodificación más usadas, prestando especial atención a su rendimiento y a su complejidad. Este análisis revela que aquellas técnicas que hacen uso de lattice reduction (LR) obtienen un mejor rendimiento. Sin embargo, la complejidad computacional de la técnica LR dificulta su implementación en la práctica. El análisis también revela que las técnicas zero-forcing (ZF), Tomlinson-Harashima precoding (THP) y LR-THP son las técnicas más adecuadas para cubrir todo el rango de rendimiento y complejidad computacional. Asimismo, se ha llevado a cabo un análisis de estas técnicas bajo CSIT imperfecto. Dicho análisis ha demostrado que LR es una técnica muy importante también para el caso de CSIT imperfecto. A continuación, se han presentado implementaciones paralelas de técnicas de precodificación sobre unidades de procesamiento gráfico o GPUs (graphic processing unit), comparándose con implementaciones en unidades de procesamiento central o CPU (central processing unit). Dado que las implementaciones de THP y LR-THP han demostrado ser las que mejor se adaptan a la arquitectura de la GPU y ya que tienen muchas operaciones comunes, se ha propuesto una implementación sobre GPU de un esquema THP reconfigurable combinado con LR. La reconfigurabilidad de las GPUs permite desactivar la etapa de LR cuando los requisitos de los usuarios están garantizados por el esquema THP, combinando complejidad computacional con rendimiento. Aunque esta implementación consigue una mejora significativa respecto a la implementación sobre CPU, su paralelismo viene limitado por la naturaleza secuencial del problema LR. Por ello, se han propuesto varias estrategias para la paralelización del problema LR que han sido evaluadas en distintas plataformas: CPU multi-núcleo, GPU y plataforma heterogénea que consiste en CPU+GPU. Los resultados revelan que la arquitectura GPU permite reducir considerablemente el tiempo de computación del problema LR, especialmente en la plataforma heterogénea. La segunda parte de la tesis trata el problema de la realimentación de canal en sistemas FDD. En estos sistemas, los receptores normalmente proporcionan una versión cuantificada del canal a través del canal de realimentación. Con el objetivo de mantener una eficiencia alta, el canal debe ser cuantificado con los mínimos bits posibles. En primer lugar, se explora el uso de la correlación en frecuencia para reducir el volumen de información de realimentación. Se han presentado dos esquemas diferentes basados en cuantificación vectorial o VQ (vector quantization) y en la transformación Karhunen-Loève, respectivamente, y se han comparado con esquemas existentes en términos de rendimiento y complejidad computacional. Los resultados muestran que ambas técnicas son capaces de reducir significativamente el volumen de información de realimentación aprovechando la correlación en frecuencia. Finalmente, la correlación espacial también se aprovecha para reducir la información de realimentación. Se ha presentado una caracterización espacial estadística del modelo de canal SCM (spatial channel model) del 3GPP (3rd Generation Partnership Project) para un entorno de alta correlación. Basado en esta caracterización, se propone un esquema de cuantificación de canal para entornos de alta correlación. Con el objetivo de obtener una caracterización para alta y baja correlación, se considera un modelo de correlación más sencillo como el modelo de Kronecker. Basado en esta caracterización, se proponen dos esquemas de cuantificación y se evalúan con un modelo de canal realista como el SCM. Los resultados muestran que ambos esquemas son capaces de reducir la información de realimentación en ambientes con correlación alta y moderada. / Multiple-input multiple-output (MIMO) communication systems have emerged as one of the most promising technologies in the field of wireless communications, allowing to exploit the spatial dimension as well as the time and frequency dimensions. Thus, higher rates can be obtained by using the same bandwidth, which is a scarce resource, and keeping a low transmit power, which is crucial in battery-operated devices. For these reasons, MIMO technologies have been adopted by many standards such as Long-Term Evolution (LTE), LTE advanced (LTE-A) and Worldwide Interoperability for Microwave Access (WiMAX). MIMO techniques can also be used in a multiuser scenario, where several usersshare the spatial dimension causing multiuser interference. By means of precoding and the use of multiple antennas at the transmitter, the signal of the different users can be spatially multiplexed so that multiuser interference is mitigated even for single-antenna users. These systems, known as multiuser multiple-input singular-output (MU-MISO) systems, have attracted much attention in recent years since they allow the development of small and inexpensive terminals, keeping the most expensive hardware at the transmitter. However, these benefits come at the cost of having a more complex system. On the one hand, spatial multiplexing requires a considerable processing load that depends on the size of the system: number of transmit antennas, number of receivers and bandwidth. On the other hand, MIMO techniques require accurate channel state information at the transmitter (CSIT). In frequency-division duplex (FDD) systems, channel state information (CSI) has to be estimated at the receiver and provided to the transmitter through the feedback link, hence reducing the efficiency of the system. Therefore, this thesis is primarily focused on improving the efficiency of precoding implementations and the performance of feedback schemes in MU-MISO systems. First, the problem of precoding is addressed. An analysis of some of the most utilized precoding techniques is conducted, paying special attention to their performance and computational complexity. The analysis reveals that those techniques that make use of lattice reduction (LR) achieve the best performance. However, the computational complexity of LR makes its implementation difficult for practical systems. The analysis reveals that zero-forcing (ZF), Tomlinson-Harashima precoding (THP) and lattice reduction Tomlinson-Harashima precoding (LR-THP) are the most suitable techniques for covering the entire range of performance and computational complexity. An analysis of these techniques with imperfect CSIT has also been performed. In this analysis, LR has proven to be a key technique also when imperfect CSIT is available. Next, parallel implementations of the precoding techniques on a graphic processing unit (GPU) are presented and compared to implementations that use a central processing unit (CPU). Since the implementations of THP and LR-THP have shown to best fit the GPU architecture and since they also share many operations, a GPU implementation of a reconfigurable THP scheme combined with LR has been proposed. The reconfigurable nature of GPUs allows gating the LR stage off when the user requirements are sufficiently guaranteed by the THP scheme, trading computational cost and performance. Although this implementation achieves a significant speed-up compared to its CPU implementation, its parallelism is limited by the sequential nature of LR. Therefore, several strategies for the parallelization of the LR problem are proposed and evaluated on different platforms: multicore CPU, GPU and a heterogeneous platform consisting of CPU+GPU. Results reveal that a GPU architecture allows a considerable reduction of the computational time of the LR problem, especially in the heterogeneous platform. The second part of this thesis addresses the problem of feedback in FDD systems. In these systems, a quantized version of the channel is usually provided by the receivers through the feedback link. In order to keep a high efficiency, the channel must be quantized using as few bits as possible. First, the use of the frequency correlation to reduce the feedback information is explored. Two different schemes based on vector quantization (VQ) and the Karhunen-Loève (KL) transform, respectively, are presented and compared with existing schemes in terms of performance and complexity. Results show that both techniques are able to significantly reduce the feedback overhead by taking advantage of the frequency correlation. Finally, the spatial correlation is leveraged to reduce the feedback information. A spatial statistical characterization of the spatial channel model (SCM) from the 3rd Generation Partnership Project (3GPP) for a highly correlated environment is presented. Based on this characterization, a channel quantization scheme for highly correlated environments is proposed. In order to obtain a statistical characterization for both high and low correlations, a simpler model such as the Kronecker correlation model is considered. Based on this characterization, two quantization schemes have been presented and evaluated using a realistic channel model such as the SCM. Results show that both schemes are able to reduce the feedback overhead in highly and moderately correlated scenarios. / Domene Oltra, F. (2015). Evaluation of precoding and feedback quantization schemes for multiuser communications systems [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/46971
107

New Insights in Prediction and Dynamic Modeling from Non-Gaussian Mixture Processing Methods

Safont Armero, Gonzalo 29 July 2015 (has links)
[EN] This thesis considers new applications of non-Gaussian mixtures in the framework of statistical signal processing and pattern recognition. The non-Gaussian mixtures were implemented by mixtures of independent component analyzers (ICA). The fundamental hypothesis of ICA is that the observed signals can be expressed as a linear transformation of a set of hidden variables, usually referred to as sources, which are statistically independent. This independence allows factoring the original M-dimensional probability density function (PDF) of the data as a product of one-dimensional probability densities, greatly simplifying the modeling of the data. ICA mixture models (ICAMM) provide further flexibility by alleviating the independency requirement of ICA, thus allowing the model to obtain local projections of the data without compromising its generalization capabilities. Here are explored new possibilities of ICAMM for the purposes of estimation and classification of signals. The thesis makes several contributions to the research in non-Gaussian mixtures: (i) a method for maximum-likelihood estimation of missing data, based on the maximization of the PDF of the data given the ICAMM; (ii) a method for Bayesian estimation of missing data that minimizes the mean squared error and can obtain the confidence interval of the prediction; (iii) a generalization of the sequential dependence model for ICAMM to semi-supervised or supervised learning and multiple chains of dependence, thus allowing the use of multimodal data; and (iv) introduction of ICAMM in diverse novel applications, both for estimation and for classification. The developed methods were validated via an extensive number of simulations that covered multiple scenarios. These tested the sensitivity of the proposed methods with respect to the following parameters: number of values to estimate; kinds of source distributions; correspondence of the data with respect to the assumptions of the model; number of classes in the mixture model; and unsupervised, semi-supervised, and supervised learning. The performance of the proposed methods was evaluated using several figures of merit, and compared with the performance of multiple classical and state-of-the-art techniques for estimation and classification. Aside from the simulations, the methods were also tested on several sets of real data from different types: data from seismic exploration studies; ground penetrating radar surveys; and biomedical data. These data correspond to the following applications: reconstruction of damaged or missing data from ground-penetrating radar surveys of historical walls; reconstruction of damaged or missing data from a seismic exploration survey; reconstruction of artifacted or missing electroencephalographic (EEG) data; diagnosis of sleep disorders; modeling of the brain response during memory tasks; and exploration of EEG data from subjects performing a battery of neuropsychological tests. The obtained results demonstrate the capability of the proposed methods to work on problems with real data. Furthermore, the proposed methods are general-purpose and can be used in many signal processing fields. / [ES] Esta tesis considera nuevas aplicaciones de las mezclas no Gaussianas dentro del marco de trabajo del procesado estadístico de señal y del reconocimiento de patrones. Las mezclas no Gaussianas fueron implementadas mediante mezclas de analizadores de componentes independientes (ICA). La hipótesis fundamental de ICA es que las señales observadas pueden expresarse como una transformación lineal de un grupo de variables ocultas, normalmente llamadas fuentes, que son estadísticamente independientes. Esta independencia permite factorizar la función de densidad de probabilidad (PDF) original M-dimensional de los datos como un producto de densidades unidimensionales, simplificando ampliamente el modelado de los datos. Los modelos de mezclas ICA (ICAMM) aportan una mayor flexibilidad al relajar el requisito de independencia de ICA, permitiendo que el modelo obtenga proyecciones locales de los datos sin comprometer su capacidad de generalización. Aquí se exploran nuevas posibilidades de ICAMM para los propósitos de estimación y clasificación de señales. La tesis realiza varias contribuciones a la investigación en mezclas no Gaussianas: (i) un método de estimación de datos faltantes por máxima verosimilitud, basado en la maximización de la PDF de los datos dado el ICAMM; (ii) un método de estimación Bayesiana de datos faltantes que minimiza el error cuadrático medio y puede obtener el intervalo de confianza de la predicción; (iii) una generalización del modelo de dependencia secuencial de ICAMM para aprendizaje supervisado o semi-supervisado y múltiples cadenas de dependencia, permitiendo así el uso de datos multimodales; y (iv) introducción de ICAMM en varias aplicaciones novedosas, tanto para estimación como para clasificación. Los métodos desarrollados fueron validados mediante un número extenso de simulaciones que cubrieron múltiples escenarios. Éstos comprobaron la sensibilidad de los métodos propuestos con respecto a los siguientes parámetros: número de valores a estimar; tipo de distribuciones de las fuentes; correspondencia de los datos con respecto a las suposiciones del modelo; número de clases en el modelo de mezclas; y aprendizaje supervisado, semi-supervisado y no supervisado. El rendimiento de los métodos propuestos fue evaluado usando varias figuras de mérito, y comparado con el rendimiento de múltiples técnicas clásicas y del estado del arte para estimación y clasificación. Además de las simulaciones, los métodos también fueron probados sobre varios grupos de datos de diferente tipo: datos de estudios de exploración sísmica; exploraciones por radar de penetración terrestre; y datos biomédicos. Estos datos corresponden a las siguientes aplicaciones: reconstrucción de datos dañados o faltantes de exploraciones de radar de penetración terrestre de muros históricos; reconstrucción de datos dañados o faltantes de un estudio de exploración sísmica; reconstrucción de datos electroencefalográficos (EEG) dañados o artefactados; diagnóstico de desórdenes del sueño; modelado de la respuesta del cerebro durante tareas de memoria; y exploración de datos EEG de sujetos durante la realización de una batería de pruebas neuropsicológicas. Los resultados obtenidos demuestran la capacidad de los métodos propuestos para trabajar en problemas con datos reales. Además, los métodos propuestos son de propósito general y pueden utilizarse en muchos campos del procesado de señal. / [CA] Aquesta tesi considera noves aplicacions de barreges no Gaussianes dins del marc de treball del processament estadístic de senyal i del reconeixement de patrons. Les barreges no Gaussianes van ser implementades mitjançant barreges d'analitzadors de components independents (ICA). La hipòtesi fonamental d'ICA és que els senyals observats poden ser expressats com una transformació lineal d'un grup de variables ocultes, comunament anomenades fonts, que són estadísticament independents. Aquesta independència permet factoritzar la funció de densitat de probabilitat (PDF) original M-dimensional de les dades com un producte de densitats de probabilitat unidimensionals, simplificant àmpliament la modelització de les dades. Els models de barreges ICA (ICAMM) aporten una major flexibilitat en alleugerar el requeriment d'independència d'ICA, permetent així que el model obtinga projeccions locals de les dades sense comprometre la seva capacitat de generalització. Ací s'exploren noves possibilitats d'ICAMM pels propòsits d'estimació i classificació de senyals. Aquesta tesi aporta diverses contribucions a la recerca en barreges no Gaussianes: (i) un mètode d'estimació de dades faltants per màxima versemblança, basat en la maximització de la PDF de les dades donat l'ICAMM; (ii) un mètode d'estimació Bayesiana de dades faltants que minimitza l'error quadràtic mitjà i pot obtenir l'interval de confiança de la predicció; (iii) una generalització del model de dependència seqüencial d'ICAMM per entrenament supervisat o semi-supervisat i múltiples cadenes de dependència, permetent així l'ús de dades multimodals; i (iv) introducció d'ICAMM en diverses noves aplicacions, tant per a estimació com per a classificació. Els mètodes desenvolupats van ser validats mitjançant una extensa quantitat de simulacions que cobriren múltiples situacions. Aquestes van verificar la sensibilitat dels mètodes proposats amb respecte als següents paràmetres: nombre de valors per estimar; mena de distribucions de les fonts; correspondència de les dades amb respecte a les suposicions del model; nombre de classes del model de barreges; i aprenentatge supervisat, semi-supervisat i no-supervisat. El rendiment dels mètodes proposats va ser avaluat mitjançant diverses figures de mèrit, i comparat amb el rendiments de múltiples tècniques clàssiques i de l'estat de l'art per a estimació i classificació. A banda de les simulacions, els mètodes van ser verificats també sobre diversos grups de dades reals de diferents tipus: dades d'estudis d'exploració sísmica; exploracions de radars de penetració de terra; i dades biomèdiques. Aquestes dades corresponen a les següents aplicacions: reconstrucció de dades danyades o faltants d'estudis d'exploracions de radar de penetració de terra sobre murs històrics; reconstrucció de dades danyades o faltants en un estudi d'exploració sísmica; reconstrucció de dades electroencefalogràfiques (EEG) artefactuades o faltants; diagnosi de desordres de la son; modelització de la resposta del cervell durant tasques de memòria; i exploració de dades EEG de subjectes realitzant una bateria de tests neuropsicològics. Els resultats obtinguts han demostrat la capacitat dels mètodes proposats per treballar en problemes amb dades reals. A més, els mètodes proposats són de propòsit general i poden fer-se servir en molts camps del processament de senyal. / Safont Armero, G. (2015). New Insights in Prediction and Dynamic Modeling from Non-Gaussian Mixture Processing Methods [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/53913
108

MIMOPack: A High Performance Computing Library for MIMO Communication Systems

Ramiro Sánchez, Carla 30 July 2015 (has links)
[EN] Nowadays, several communication standards are emerging and evolving, searching higher transmission rates, reliability and coverage. This expansion is primarily driven by the continued increase in consumption of mobile multimedia services due to the emergence of new handheld devices such as smartphones and tablets. One of the most significant techniques employed to meet these demands is the use of multiple transmit and receive antennas, known as MIMO systems. The use of this technology allows to increase the transmission rate and the quality of the transmission through the use of multiple antennas at the transmitter and receiver sides. MIMO technologies have become an essential key in several wireless standards such as WLAN, WiMAX and LTE. These technologies will be incorporated also in future standards, therefore is expected in the coming years a great deal of research in this field. Clearly, the study of MIMO systems is critical in the current investigation, however the problems that arise from this technology are very complex. High Performance Computing (HPC) systems, and specifically, modern hardware architectures as multi-core and many-cores (e.g Graphics Processing Units (GPU)) are playing a key role in the development of efficient and low-complexity algorithms for MIMO transmissions. Proof of this is that the number of scientific contributions and research projects related to its use has increased in the last years. Also, some high performance libraries have been implemented as tools for researchers involved in the development of future communication standards. Two of the most popular libraries are: IT++ that is a library based on the use of some optimized libraries for multi-core processors and the Communications System Toolbox designed for use with MATLAB, which uses GPU computing. However, there is not a library able to run on a heterogeneous platform using all the available resources. In view of the high computational requirements in MIMO application research and the shortage of tools able to satisfy them, we have made a special effort to develop a library to ease the development of adaptable parallel applications in accordance with the different architectures of the executing platform. The library, called MIMOPack, aims to implement efficiently using parallel computing, a set of functions to perform some of the critical stages of MIMO communication systems simulation. The main contribution of the thesis is the implementation of efficient Hard and Soft output detectors, since the detection stage is considered the most complex part of the communication process. These detectors are highly configurable and many of them include preprocessing techniques that reduce the computational cost and increase the performance. The proposed library shows three important features: portability, efficiency and easy of use. Current realease allows GPUs and multi-core computation, or even simultaneously, since it is designed to use on heterogeneous machines. The interface of the functions are common to all environments in order to simplify the use of the library. Moreover, some of the functions are callable from MATLAB increasing the portability of developed codes between different computing environments. According to the library design and the performance assessment, we consider that MIMOPack may facilitate industrial and academic researchers the implementation of scientific codes without having to know different programming languages and machine architectures. This will allow to include more complex algorithms in their simulations and obtain their results faster. This is particularly important in the industry, since the manufacturers work to analyze and to propose their own technologies with the aim that it will be approved as a standard. Thus allowing to enforce their intellectual property rights over their competitors, who should obtain the corresponding licenses to include these technologies into their products. / [ES] En la actualidad varios estándares de comunicación están surgiendo buscando velocidades de transmisión más altas y mayor fiabilidad. Esta expansión está impulsada por el aumento en el consumo de servicios multimedia debido a la aparición de nuevos dispositivos como los smartphones y las tabletas. Una de las técnicas empleadas más importantes es el uso de múltiples antenas de transmisión y recepción, conocida como sistemas MIMO, que permite aumentar la velocidad y la calidad de la transmisión. Las tecnologías MIMO se han convertido en una parte esencial en diferentes estándares tales como WLAN, WiMAX y LTE. Estas tecnologías se incorporarán también en futuros estándares, por lo tanto, se espera en los próximos años una gran cantidad de investigación en este campo. Está claro que el estudio de los sistemas MIMO es crítico en la investigación actual, sin embargo los problemas que surgen de esta tecnología son muy complejos. La sistemas de computación de alto rendimiento, y en concreto, las arquitecturas hardware actuales como multi-core y many-core (p. ej. GPUs) están jugando un papel clave en el desarrollo de algoritmos eficientes y de baja complejidad en las transmisiones MIMO. Prueba de ello es que el número de contribuciones científicas y proyectos de investigación relacionados con su uso se han incrementado en el últimos años. Algunas librerías de alto rendimiento se están utilizando como herramientas por investigadores en el desarrollo de futuros estándares. Dos de las librerías más destacadas son: IT++ que se basa en el uso de distintas librerías optimizadas para procesadores multi-core y el paquete Communications System Toolbox diseñada para su uso con MATLAB, que utiliza computación con GPU. Sin embargo, no hay una biblioteca capaz de ejecutarse en una plataforma heterogénea. En vista de los altos requisitos computacionales en la investigación MIMO y la escasez de herramientas capaces de satisfacerlos, hemos implementado una librería que facilita el desarrollo de aplicaciones paralelas adaptables de acuerdo con las diferentes arquitecturas de la plataforma de ejecución. La librería, llamada MIMOPack, implementa de manera eficiente un conjunto de funciones para llevar a cabo algunas de las etapas críticas en la simulación de un sistema de comunicación MIMO. La principal aportación de la tesis es la implementación de detectores eficientes de salida Hard y Soft, ya que la etapa de detección es considerada la parte más compleja en el proceso de comunicación. Estos detectores son altamente configurables y muchos de ellos incluyen técnicas de preprocesamiento que reducen el coste computacional y aumentan el rendimiento. La librería propuesta tiene tres características importantes: la portabilidad, la eficiencia y facilidad de uso. La versión actual permite computación en GPU y multi-core, incluso simultáneamente, ya que está diseñada para ser utilizada sobre plataformas heterogéneas que explotan toda la capacidad computacional. Para facilitar el uso de la biblioteca, las interfaces de las funciones son comunes para todas las arquitecturas. Algunas de las funciones se pueden llamar desde MATLAB aumentando la portabilidad de códigos desarrollados entre los diferentes entornos. De acuerdo con el diseño de la biblioteca y la evaluación del rendimiento, consideramos que MIMOPack puede facilitar la implementación de códigos sin tener que saber programar con diferentes lenguajes y arquitecturas. MIMOPack permitirá incluir algoritmos más complejos en las simulaciones y obtener los resultados más rápidamente. Esto es particularmente importante en la industria, ya que los fabricantes trabajan para proponer sus propias tecnologías lo antes posible con el objetivo de que sean aprobadas como un estándar. De este modo, los fabricantes pueden hacer valer sus derechos de propiedad intelectual frente a sus competidores, quienes luego deben obtener las correspon / [CA] En l'actualitat diversos estàndards de comunicació estan sorgint i evolucionant cercant velocitats de transmissió més altes i major fiabilitat. Aquesta expansió, està impulsada pel continu augment en el consum de serveis multimèdia a causa de l'aparició de nous dispositius portàtils com els smartphones i les tablets. Una de les tècniques més importants és l'ús de múltiples antenes de transmissió i recepció (MIMO) que permet augmentar la velocitat de transmissió i la qualitat de transmissió. Les tecnologies MIMO s'han convertit en una part essencial en diferents estàndards inalàmbrics, tals com WLAN, WiMAX i LTE. Aquestes tecnologies s'incorporaran també en futurs estàndards, per tant, s'espera en els pròxims anys una gran quantitat d'investigació en aquest camp. L'estudi dels sistemes MIMO és crític en la recerca actual, no obstant açó, els problemes que sorgeixen d'aquesta tecnologia són molt complexos. Els sistemes de computació d'alt rendiment com els multi-core i many-core (p. ej. GPUs)), estan jugant un paper clau en el desenvolupament d'algoritmes eficients i de baixa complexitat en les transmissions MIMO. Prova d'açò és que el nombre de contribucions científiques i projectes d'investigació relacionats amb el seu ús s'han incrementat en els últims anys. Algunes llibreries d'alt rendiment estan utilitzant-se com a eines per investigadors involucrats en el desenvolupament de futurs estàndards. Dos de les llibreries més destacades són: IT++ que és una llibreria basada en lús de diferents llibreries optimitzades per a processadors multi-core i el paquet Communications System Toolbox dissenyat per al seu ús amb MATLAB, que utilitza computació amb GPU. No obstant açò, no hi ha una biblioteca capaç d'executar-se en una plataforma heterogènia. Degut als alts requisits computacionals en la investigació MIMO i l'escacès d'eines capaces de satisfer-los, hem implementat una llibreria que facilita el desenvolupament d'aplicacions paral·leles adaptables d'acord amb les diferentes arquitectures de la plataforma d'ejecució. La llibreria, anomenada MIMOPack, implementa de manera eficient, un conjunt de funcions per dur a terme algunes de les etapes crítiques en la simulació d'un sistema de comunicació MIMO. La principal aportació de la tesi és la implementació de detectors eficients d'exida Hard i Soft, ja que l'etapa de detecció és considerada la part més complexa en el procés de comunicació. Estos detectors són altament configurables i molts d'ells inclouen tècniques de preprocessament que redueixen el cost computacional i augmenten el rendiment. La llibreria proposta té tres característiques importants: la portabilitat, l'eficiència i la facilitat d'ús. La versió actual permet computació en GPU i multi-core, fins i tot simultàniament, ja que està dissenyada per a ser utilitzada sobre plataformes heterogènies que exploten tota la capacitat computacional. Amb el fi de simplificar l'ús de la biblioteca, les interfaces de les funcions són comunes per a totes les arquitectures. Algunes de les funcions poden ser utilitzades des de MATLAB augmentant la portabilitat de còdics desenvolupats entre els diferentes entorns. D'acord amb el disseny de la biblioteca i l'evaluació del rendiment, considerem que MIMOPack pot facilitar la implementació de còdics a investigadors sense haver de saber programar amb diferents llenguatges i arquitectures. MIMOPack permetrà incloure algoritmes més complexos en les seues simulacions i obtindre els seus resultats més ràpid. Açò és particularment important en la industria, ja que els fabricants treballen per a proposar les seues pròpies tecnologies el més prompte possible amb l'objectiu que siguen aprovades com un estàndard. D'aquesta menera, els fabricants podran fer valdre els seus drets de propietat intel·lectual enfront dels seus competidors, els qui després han d'obtenir les corresponents llicències si vole / Ramiro Sánchez, C. (2015). MIMOPack: A High Performance Computing Library for MIMO Communication Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/53930 / Premios Extraordinarios de tesis doctorales
109

Adaptive signal processing for multichannel sound using high performance computing

Lorente Giner, Jorge 02 December 2015 (has links)
[EN] The field of audio signal processing has undergone a major development in recent years. Both the consumer and professional marketplaces continue to show growth in audio applications such as immersive audio schemes that offer optimal listening experience, intelligent noise reduction in cars or improvements in audio teleconferencing or hearing aids. The development of these applications has a common interest in increasing or improving the number of discrete audio channels, the quality of the audio or the sophistication of the algorithms. This often gives rise to problems of high computational cost, even when using common signal processing algorithms, mainly due to the application of these algorithms to multiple signals with real-time requirements. The field of High Performance Computing (HPC) based on low cost hardware elements is the bridge needed between the computing problems and the real multimedia signals and systems that lead to user's applications. In this sense, the present thesis goes a step further in the development of these systems by using the computational power of General Purpose Graphics Processing Units (GPGPUs) to exploit the inherent parallelism of signal processing for multichannel audio applications. The increase of the computational capacity of the processing devices has been historically linked to the number of transistors in a chip. However, nowadays the improvements in the computational capacity are mainly given by increasing the number of processing units and using parallel processing. The Graphics Processing Units (GPUs), which have now thousands of computing cores, are a representative example. The GPUs were traditionally used to graphic or image processing, but new releases in the GPU programming environments such as CUDA have allowed the use of GPUS for general processing applications. Hence, the use of GPUs is being extended to a wide variety of intensive-computation applications among which audio processing is included. However, the data transactions between the CPU and the GPU and viceversa have questioned the viability of the use of GPUs for audio applications in which real-time interaction between microphones and loudspeakers is required. This is the case of the adaptive filtering applications, where an efficient use of parallel computation in not straightforward. For these reasons, up to the beginning of this thesis, very few publications had dealt with the GPU implementation of real-time acoustic applications based on adaptive filtering. Therefore, this thesis aims to demonstrate that GPUs are totally valid tools to carry out audio applications based on adaptive filtering that require high computational resources. To this end, different adaptive applications in the field of audio processing are studied and performed using GPUs. This manuscript also analyzes and solves possible limitations in each GPU-based implementation both from the acoustic point of view as from the computational point of view. / [ES] El campo de procesado de señales de audio ha experimentado un desarrollo importante en los últimos años. Tanto el mercado de consumo como el profesional siguen mostrando un crecimiento en aplicaciones de audio, tales como: los sistemas de audio inmersivo que ofrecen una experiencia de sonido óptima, los sistemas inteligentes de reducción de ruido en coches o las mejoras en sistemas de teleconferencia o en audífonos. El desarrollo de estas aplicaciones tiene un propósito común de aumentar o mejorar el número de canales de audio, la propia calidad del audio o la sofisticación de los algoritmos. Estas mejoras suelen dar lugar a sistemas de alto coste computacional, incluso usando algoritmos comunes de procesado de señal. Esto se debe principalmente a que los algoritmos se suelen aplicar a sistemas multicanales con requerimientos de procesamiento en tiempo real. El campo de la Computación de Alto Rendimiento basado en elementos hardware de bajo coste es el puente necesario entre los problemas de computación y los sistemas multimedia que dan lugar a aplicaciones de usuario. En este sentido, la presente tesis va un paso más allá en el desarrollo de estos sistemas mediante el uso de la potencia de cálculo de las Unidades de Procesamiento Gráfico (GPU) en aplicaciones de propósito general. Con ello, aprovechamos la inherente capacidad de paralelización que poseen las GPU para procesar señales de audio y obtener aplicaciones de audio multicanal. El aumento de la capacidad computacional de los dispositivos de procesado ha estado vinculado históricamente al número de transistores que había en un chip. Sin embargo, hoy en día, las mejoras en la capacidad computacional se dan principalmente por el aumento del número de unidades de procesado y su uso para el procesado en paralelo. Las GPUs son un ejemplo muy representativo. Hoy en día, las GPUs poseen hasta miles de núcleos de computación. Tradicionalmente, las GPUs se han utilizado para el procesado de gráficos o imágenes. Sin embargo, la aparición de entornos sencillos de programación GPU, como por ejemplo CUDA, han permitido el uso de las GPU para aplicaciones de procesado general. De ese modo, el uso de las GPU se ha extendido a una amplia variedad de aplicaciones que requieren cálculo intensivo. Entre esta gama de aplicaciones, se incluye el procesado de señales de audio. No obstante, las transferencias de datos entre la CPU y la GPU y viceversa pusieron en duda la viabilidad de las GPUs para aplicaciones de audio en las que se requiere una interacción en tiempo real entre micrófonos y altavoces. Este es el caso de las aplicaciones basadas en filtrado adaptativo, donde el uso eficiente de la computación en paralelo no es sencillo. Por estas razones, hasta el comienzo de esta tesis, había muy pocas publicaciones que utilizaran la GPU para implementaciones en tiempo real de aplicaciones acústicas basadas en filtrado adaptativo. A pesar de todo, esta tesis pretende demostrar que las GPU son herramientas totalmente válidas para llevar a cabo aplicaciones de audio basadas en filtrado adaptativo que requieran elevados recursos computacionales. Con este fin, la presente tesis ha estudiado y desarrollado varias aplicaciones adaptativas de procesado de audio utilizando una GPU como procesador. Además, también analiza y resuelve las posibles limitaciones de cada aplicación tanto desde el punto de vista acústico como desde el punto de vista computacional. / [CA] El camp del processament de senyals d'àudio ha experimentat un desenvolupament important als últims anys. Tant el mercat de consum com el professional segueixen mostrant un creixement en aplicacions d'àudio, com ara: els sistemes d'àudio immersiu que ofereixen una experiència de so òptima, els sistemes intel·ligents de reducció de soroll en els cotxes o les millores en sistemes de teleconferència o en audiòfons. El desenvolupament d'aquestes aplicacions té un propòsit comú d'augmentar o millorar el nombre de canals d'àudio, la pròpia qualitat de l'àudio o la sofisticació dels algorismes que s'utilitzen. Això, sovint dóna lloc a sistemes d'alt cost computacional, fins i tot quan es fan servir algorismes comuns de processat de senyal. Això es deu principalment al fet que els algorismes se solen aplicar a sistemes multicanals amb requeriments de processat en temps real. El camp de la Computació d'Alt Rendiment basat en elements hardware de baix cost és el pont necessari entre els problemes de computació i els sistemes multimèdia que donen lloc a aplicacions d'usuari. En aquest sentit, aquesta tesi va un pas més enllà en el desenvolupament d'aquests sistemes mitjançant l'ús de la potència de càlcul de les Unitats de Processament Gràfic (GPU) en aplicacions de propòsit general. Amb això, s'aprofita la inherent capacitat de paral·lelització que posseeixen les GPUs per processar senyals d'àudio i obtenir aplicacions d'àudio multicanal. L'augment de la capacitat computacional dels dispositius de processat ha estat històricament vinculada al nombre de transistors que hi havia en un xip. No obstant, avui en dia, les millores en la capacitat computacional es donen principalment per l'augment del nombre d'unitats de processat i el seu ús per al processament en paral·lel. Un exemple molt representatiu són les GPU, que avui en dia posseeixen milers de nuclis de computació. Tradicionalment, les GPUs s'han utilitzat per al processat de gràfics o imatges. No obstant, l'aparició d'entorns senzills de programació de la GPU com és CUDA, han permès l'ús de les GPUs per a aplicacions de processat general. D'aquesta manera, l'ús de les GPUs s'ha estès a una àmplia varietat d'aplicacions que requereixen càlcul intensiu. Entre aquesta gamma d'aplicacions, s'inclou el processat de senyals d'àudio. No obstant, les transferències de dades entre la CPU i la GPU i viceversa van posar en dubte la viabilitat de les GPUs per a aplicacions d'àudio en què es requereix la interacció en temps real de micròfons i altaveus. Aquest és el cas de les aplicacions basades en filtrat adaptatiu, on l'ús eficient de la computació en paral·lel no és senzilla. Per aquestes raons, fins al començament d'aquesta tesi, hi havia molt poques publicacions que utilitzessin la GPU per implementar en temps real aplicacions acústiques basades en filtrat adaptatiu. Malgrat tot, aquesta tesi pretén demostrar que les GPU són eines totalment vàlides per dur a terme aplicacions d'àudio basades en filtrat adaptatiu que requereixen alts recursos computacionals. Amb aquesta finalitat, en la present tesi s'han estudiat i desenvolupat diverses aplicacions adaptatives de processament d'àudio utilitzant una GPU com a processador. A més, aquest manuscrit també analitza i resol les possibles limitacions de cada aplicació, tant des del punt de vista acústic, com des del punt de vista computacional. / Lorente Giner, J. (2015). Adaptive signal processing for multichannel sound using high performance computing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58427
110

Análisis y optimización eficiente de agrupaciones de ranuras en guía

Herranz Herruzo, José Ignacio 07 January 2016 (has links)
[EN] The present thesis develops an efficient and optimized design for large waveguide slot-arrays. Specifically, RLSA antennas on radial guides and classic arrays on monomode rectangular waveguides are considered. Besides, the standard performance of this kind of antennas is improved by adding parasitic dipoles above slots. This novelty allows on the one hand to alleviate the known drawbacks of RLSA antennas with linear polarization (LPRLSA). On the other hand, the new elements enable radiation of circular polarization by rectangular waveguide slot arrays, conceptually limited to linear polarization. The attainment of the aimed objectives is accomplished by following a three-stage sequential methodology. Firstly, an efficient and rigorous analysis method for each structure under study is implemented. This aspect turns out to be essential due to the huge size of involved antennas. Then, efficient design and optimization algorithms are conceived and developed, which must be suitable for arrays formed by a high number of elements. Finally, the achieved results are validated by means of the fabrication and measurement of several prototypes. New LP-RLSA topologies proposed in this thesis provide a desired advance in their limited performance, without sacrificing their original low-cost concept. This progress becomes a reality thanks to the development of dedicated optimization algorithms. The achieved experimental results confirm such advance, thus postulating as a promising approach to the performance exhibited by CP-RLSA antennas. Concerning rectangular waveguide slot arrays, an exhaustive and versatile optimization process is applied. This thesis also comprises a deep study about the attainable bandwidth of this kind of antennas, including the well-known detuning technique. As a result, a frequency optimization method is proposed, which aims to maximize the specifications' compliance within a targeted frequency band. Every proposed algorithm is extended to account for circular polarization arrays, given by the inclusion of parasitic dipoles. This modification enables this antennas to cover a wider scope of applications. Fabrication and measurement of several prototypes, envisaged for an actual deployment of different systems, confirm the conclusions of theoretical analysis. / [ES] La presente tesis desarrolla el diseño optimizado eficiente de grandes agrupaciones de ranuras en guía. Específicamente, se contemplan las antenas RLSA sobre guía radial y las clásicas agrupaciones en guías rectangulares monomodo. Adicionalmente, el funcionamiento estándar de este tipo de antenas es mejorado introduciendo unos dipolos parásitos sobre las ranuras. Esta novedad permite por un lado aliviar los conocidos inconvenientes de las agrupaciones RLSA con polarización lineal (LP-RLSA). Por otro lado, los nuevos elementos posibilitan la radiación de polarización circular por parte de las agrupaciones de ranuras en guía rectangular, limitadas conceptualmente a polarización lineal. La consecución de los objetivos planteados se lleva a cabo siguiendo una metodología secuencial de tres etapas. En primer lugar se implementa un método de análisis eficiente y riguroso de cada una de las estructuras bajo estudio. Este aspecto resulta fundamental debido al gran tamaño de las antenas consideradas. A continuación, se conciben y desarrollan algoritmos eficientes de diseño y optimización, adecuados para agrupaciones con un elevado número de elementos. Finalmente, se validan los resultados obtenidos mediante la fabricación y medida de varios prototipos. Las nuevas topologías de LP-RLSA concebidas en esta tesis proporcionan un ansiado avance en sus limitadas prestaciones, sin abandonar su filosofía original de bajo coste. Este progreso se hace realidad gracias al desarrollo de algoritmos de optimización dedicados. Los resultados experimentales obtenidos confirman dicho avance, suponiendo un prometedor acercamiento a las prestaciones ofrecidas por las agrupaciones CP-RLSA. Las agrupaciones en guía rectangular, por su parte, son objeto de un exhaustivo y versátil proceso de optimización. Esta tesis también incluye un profundo estudio sobre el ancho de banda de este tipo de antenas, incluyendo la conocida técnica de desintonización. Como resultado, se propone un método de optimización frecuencial, el cual pretende maximizar el cumplimiento de especificaciones en una determinada banda de frecuencias. Todos los algoritmos propuestos son además extendidos a agrupaciones con polarización circular, gracias a la inclusión de dipolos parásitos. Esta modificación habilita a estas antenas para cubrir un mayor espectro de aplicaciones. La fabricación y medida de varios prototipos, concebidos para el despliegue real de diferentes sistemas, confirman las conclusiones del análisis teórico. / [CA] La present tesi desenvolupa el disseny optimitzat i eficient de grans agrupacions de ranures en guia. Específicament, es contemplen les antenes RLSA sobre guia radial i les clàssiques agrupacions en guies rectangulars monomodo. Addicionalment, el funcionament convencional d'aquest tipus d'antenes és millorat introduint uns dipolos paràsits damunt de les ranures. Esta novetat permet per un costat alleujar els coneguts inconvenients de les agrupacions RLSA amb polarització lineal (LP-RLSA). D'altra banda, els nous elements possibiliten la radiació de polarització circular per part de les agrupacions de ranures en guia rectangular, limitades conceptualment a polarització lineal. La consecució dels objectius plantejats es du a terme seguint una metodologia seqüencial de tres etapes. En primer lloc s'implementa un mètode d'anàlisi eficient i rigorós de cadascuna de les estructures baix estudi. Este aspecte resulta fonamental a causa del gran tamany de les antenes considerades. A continuació, es conceben i desenvolupen algoritmes eficients de disseny i optimització, adequats per a agrupacions amb un elevat nombre d'elements. Finalment, es validen els resultats obtinguts per mitjà de la construcció i mesura de diversos prototips. Les noves topologies de LP-RLSA concebudes en esta tesi proporcionen el anhelat avanç en les seues limitades prestacions, sense abandonar la seua filosofia original de baix cost. Este progrés es fa realitat gràcies al desenvolupament d'algoritmes d'optimització dedicats. Els resultats experimentals obtinguts confirmen el esmentat avanç, suposant un prometedor acostament a les prestacions oferides per les agrupacions CP-RLSA. Les agrupacions en guia rectangular, per la seua banda, són objecte d'un exhaustiu i versàtil procés d'optimització. Esta tesi també inclou un profund estudi sobre l'amplada de banda d'aquest tipus d'antenes, incloent la coneguda tècnica de desintonització. Com a resultat, es proposa un mètode d'optimització freqüencial, el qual pretén maximitzar el compliment d'especificacions en una determinada banda de freqüències. Tots els algoritmes proposats són a més estesos a agrupacions amb polarització circular, gràcies a la inclusió de dipolos paràsits. Esta modificació habilita a estes antenes per a cobrir un major espectre d'aplicacions. La construcció i mesura de diversos prototips, concebuts per al desplegament real de diferents sistemes, confirmen les conclusions extretes del anàlisi teòric. / Herranz Herruzo, JI. (2015). Análisis y optimización eficiente de agrupaciones de ranuras en guía [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59416 / Premios Extraordinarios de tesis doctorales

Page generated in 0.0456 seconds