101 |
Multichannel audio processing for speaker localization, separation and enhancementMartí Guerola, Amparo 29 October 2013 (has links)
This thesis is related to the field of acoustic signal processing and its applications to emerging
communication environments. Acoustic signal processing is a very wide research area covering
the design of signal processing algorithms involving one or several acoustic signals to perform
a given task, such as locating the sound source that originated the acquired signals, improving
their signal to noise ratio, separating signals of interest from a set of interfering sources or recognizing
the type of source and the content of the message. Among the above tasks, Sound Source
localization (SSL) and Automatic Speech Recognition (ASR) have been specially addressed in
this thesis. In fact, the localization of sound sources in a room has received a lot of attention in
the last decades. Most real-word microphone array applications require the localization of one
or more active sound sources in adverse environments (low signal-to-noise ratio and high reverberation).
Some of these applications are teleconferencing systems, video-gaming, autonomous
robots, remote surveillance, hands-free speech acquisition, etc. Indeed, performing robust sound
source localization under high noise and reverberation is a very challenging task. One of the
most well-known algorithms for source localization in noisy and reverberant environments is
the Steered Response Power - Phase Transform (SRP-PHAT) algorithm, which constitutes the
baseline framework for the contributions proposed in this thesis. Another challenge in the design
of SSL algorithms is to achieve real-time performance and high localization accuracy with a reasonable
number of microphones and limited computational resources. Although the SRP-PHAT
algorithm has been shown to be an effective localization algorithm for real-world environments,
its practical implementation is usually based on a costly fine grid-search procedure, making the
computational cost of the method a real issue. In this context, several modifications and optimizations
have been proposed to improve its performance and applicability. An effective strategy
that extends the conventional SRP-PHAT functional is presented in this thesis. This approach
performs a full exploration of the sampled space rather than computing the SRP at discrete spatial
positions, increasing its robustness and allowing for a coarser spatial grid that reduces the
computational cost required in a practical implementation with a small hardware cost (reduced
number of microphones). This strategy allows to implement real-time applications based on
location information, such as automatic camera steering or the detection of speech/non-speech
fragments in advanced videoconferencing systems.
As stated before, besides the contributions related to SSL, this thesis is also related to the
field of ASR. This technology allows a computer or electronic device to identify the words spoken
by a person so that the message can be stored or processed in a useful way. ASR is used on
a day-to-day basis in a number of applications and services such as natural human-machine
interfaces, dictation systems, electronic translators and automatic information desks. However,
there are still some challenges to be solved. A major problem in ASR is to recognize people
speaking in a room by using distant microphones. In distant-speech recognition, the microphone
does not only receive the direct path signal, but also delayed replicas as a result of multi-path
propagation. Moreover, there are multiple situations in teleconferencing meetings when multiple
speakers talk simultaneously. In this context, when multiple speaker signals are present, Sound
Source Separation (SSS) methods can be successfully employed to improve ASR performance
in multi-source scenarios. This is the motivation behind the training method for multiple talk
situations proposed in this thesis. This training, which is based on a robust transformed model
constructed from separated speech in diverse acoustic environments, makes use of a SSS method
as a speech enhancement stage that suppresses the unwanted interferences. The combination
of source separation and this specific training has been explored and evaluated under different
acoustical conditions, leading to improvements of up to a 35% in ASR performance. / Martí Guerola, A. (2013). Multichannel audio processing for speaker localization, separation and enhancement [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/33101
|
102 |
A Novel Approach to Label-Free Biosensors Based on Photonic Bandgap StructuresGarcía Castelló, Javier 07 February 2014 (has links)
The necessity of using extremely high sensitivity biosensors in certain research areas has remarkably increased during the last two decades. Optical structures, where light is used to transduce biochemical interactions into optical signals, are a very interesting approach for the development of this type of biosensors. Within optical sensors, photonic integrated architectures are probably the most promising platform to develop novel lab-on-a-chip devices. Such planar structures exhibit an extremely high sensitivity, a significantly reduced footprint and a high multiplexing potential for sensing applications. Furthermore, their compatibility with CMOS processes and materials, such as silicon, opens the route to mass production, thus reducing drastically the cost of the final devices. Optical sensors achieve their specificity and label-free operation by means of a proper chemical functionalization of their surfaces. The selective attachment of the receptors allows the detection of the target analytes within a complex matrix.
This PhD Thesis is focused on the development of label-free photonic integrated sensors in which the detection is based on the interaction of the target analytes with the evanescent field that travels along the structures. Herein, we studied several photonic structures for sensing purposes, such as photonic crystals and ring resonators. Photonic crystals, where their periodicity provokes the appearance of multiple back and forth reflections, exhibits the so-called slow-light phenomenon that allows an increase of the interaction between the light and the target matter. On the other hand, the circulating nature of the resonant modes in a ring resonator offers a multiple interaction with the matter near the structure, providing a longer effective length.
We have also proposed a novel approach for the interrogation of photonic bandgap sensing structures where simply the output power needs to measured, contrary to current approaches based on the spectral interrogation of the photonic structures. This novel technique consists on measuring the overlap between a broadband source and the band edge from a SOI-based corrugated waveguide, so that we can determine indirectly its spectral position in real-time. Since there is no need to employ tunable equipment, we obtain a lighter, simpler and a cost-effective platform, as well as a real-time observation of the molecular interactions. The experimental demonstration with antibody detection measurements has shown the potential of this technique for sensing purposes / García Castelló, J. (2014). A Novel Approach to Label-Free Biosensors Based on Photonic Bandgap Structures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/35398
|
103 |
"Preludio a Borís", "Aquarelle" y "Liebestod": La evocación de la música del pasado desde una síntesis de corrientes compositivas actualesFontcuberta Llavata, Carlos 03 June 2014 (has links)
El proyecto consiste en la realización de una investigación basada en la práctica artística en el ámbito de la composición musical. A partir del estudio de diversas corrientes compositivas actuales, se desarrollará un enfoque compositivo propio que será aplicado a la composición de tres obras musicales para formaciones instrumentales diversas. Dicho enfoque consistirá en la articulación y sistematización de una relación con la música del pasado a partir del uso de técnicas y procedimientos musicales recientes, no a través del collage o la cita temática, sino por medio del uso de un material ligado esencialmente al timbre y que, decididamente alejado de la sintaxis musical tradicional, posea sin embargo la capacidad de evocar sin esfuerzo el colorido armónico asociado a una música del repertorio tradicional. Para ello se recurrirá a la creación de un sistema armónico propio, responsable de la integración de armonías de procedencia diversa en un contexto sonoro nuevo, así como de contribuir al enriquecimiento de la dimensión vertical de la música. Su aplicación será uno de los aspectos más relevantes de todo el planteamiento compositivo, y por ello justamente, también uno de los más necesitados de evaluación en la investigación. La viabilidad y efectividad del enfoque compositivo propuesto constituirá la hipótesis de partida de la investigación. En este contexto serán compuestas las obras "Preludio a Borís (In memoriam Modest Mussorgsky)", para 8 instrumentos, "Aquarelle", para orquesta de cámara, y "Liebestod (Barcarola para orquesta)", en las que a través de una evocación de tipo armónico se aludirá respectivamente a la ópera "Borís Godunov" de M. Mussorgsky, el ciclo de canciones "Ariettes Oubliées" de C. Debussy y la ópera "Tristán e Isolda" de R. Wagner. La valoración de los resultados obtenidos a través de la composición de estas obras permitirá la verificación de la validez del enfoque compositivo desarrollado. / Fontcuberta Llavata, C. (2014). "Preludio a Borís", "Aquarelle" y "Liebestod": La evocación de la música del pasado desde una síntesis de corrientes compositivas actuales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37887
|
104 |
Optical Orthogonal Frequency Division Multiplexed communication systems: analysis, design and optimizationSánchez Costa, Christian 03 September 2014 (has links)
En este trabajo se realiza una intensiva labor teórica de descripción de sistemas de comunicaciones ópticas que utilizan la técnica de multiplexación por división de frecuencias ortogonales (OFDM en inglés), más concretamente en sistemas con modulación directa de la intensidad de un láser y detección directa.
Se parte pues de un modelo analítico que estudia con detalle todos aquellos fenómenos que afectan a la señal de información detectada en el receptor. Tales fenómenos son: la nolinealidad del láser, las modulaciones de intensidad y de fase ópticas, la propagación a través de la fibra óptica teniendo en cuenta la dispersión cromática de primer orden, y la detección de intensidad óptica final mediante un detector de ley cuadrática. El modelo analítico es validado mediante comparaciones con resultados obtenidos a través de simulaciones con software comercial.
Dada la característica singularidad de las señales OFDM debidas a su naturaleza multi-portadora, la amplitud de la señal generada es aleatoria, y el modelo analítico es complementado con un estudio que contempla el recorte o "clipping" en el transmisor. Además, se tiene en cuenta los efectos de filtrado de la señal a lo largo de sistema de comunicaciones. Con el trabajo analítico realizado se está en disposición de realizar una descripción bastante completa de los principales fenómenos y realizar estudios para evaluar el funcionamiento final ante diferentes valores de los parámetros del sistema.
Es bien sabido que los sistemas de comunicaciones ópticas con modulación y detección directa se ven perjudicados por la distorsión no lineal, que para señales multi-portadora como OFDM se traduce en la mezcla de los símbolos de información que transportan las diferentes subportadoras. Para mitigar la distorsión no lineal y así mejorar el funcionamiento del sistema, se propone el uso de una técnica de pre-distorsión que se basa en el modelo analítico previamente propuesto. Esta técnica mejora la eficiencia de modulación, haciendo posible incrementar el término de la señal de información sin que se vea incrementada la distorsión no lineal en el receptor. La técnica aquí propuesta se compara también con otra ya publicada con el objetivo de evaluar su funcionamiento.
Otra técnica para la mejora de sistemas con modulación y detección directas es la realizada mediante filtrado óptico. Aunque se conoce de forma más o menos intuitiva su funcionamiento para formatos de modulación ópticos tradicionales, es preciso disponer de una formulación matemática para señales ópticas OFDM para entender de forma exacta su principio de operación, las mejoras obtenidas, así como su potencial. En esta estapa se realiza esta formulación matemática ampliando el análisis teórico previamente propuesto, y se aplica para evaluar el funcionamiento obtenido con diversas estructuras de filtrado óptico.
Finalmente, puesto que un potencial escenario de funcionamiento para señales ópticas OFDM son las redes de acceso donde operan más de un usuario, se propone y se estudia la técnica "interleaving division multiple access" (IDMA) en combinación con OFDM. / Sánchez Costa, C. (2014). Optical Orthogonal Frequency Division Multiplexed communication systems: analysis, design and optimization [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/39375
|
105 |
Intervenciones basadas en realidad virtual para el entrenamiento de las estrategias de equilibrio en sujetos crónicos con daño cerebral adquiridoLlorens Rodríguez, Roberto 03 November 2014 (has links)
El equilibrio se define como el estado en el cual el centro de gravedad (CDG) del cuerpo se encuentra dentro de los límites de estabilidad. La gestión del equilibrio es un claro ejemplo del control motor humano, donde la información sensorial es procesada por el sistema nervioso central para generar la actividad muscular adecuada para producir los mecanismos de anticipación y/o compensación que preserven este estado. El equilibrio tiene una gran implicación en las actividades de la vida diaria, por lo que es fundamental para la independencia de los pacientes.
Se define como daño cerebral adquirido (DCA) a toda aquella lesión que afecte a un cerebro sano hasta el momento del daño. El DCA es una de las patologías de mayor incidencia y prevalencia, siendo los ictus y los traumatismos craneoencefálicos una de las causas de mortalidad e incapacidad más elevadas de los países desarrollados. Las consecuencias de un DCA son muy heterogéneas tanto en intensidad como en naturaleza, por lo que cada paciente representa un único ejemplo de la patología. Desde el punto de vista motor, la lesión puede dañar las estructuras involucradas tanto en la transmisión como el procesamiento de la información impidiendo que se generen las eferencias adecuadas que controlen las respuestas motoras. Consecuencias como la hemiparesis (debilidad en un lado del cuerpo) son muy frecuentes y tienen un efecto devastador en el equilibrio de los pacientes.
Estudios recientes han demostrado que lejos de tener un carácter estático, el cerebro está en constante cambio. Los mecanismos de plasticidad cerebral posibilitan que las neuronas vecinas a una zona dañada tras un DCA puedan adquirir parte de la función que éstas tenían. Las estrategias de neurorrehabilitación actuales pretenden desde un punto de vista holístico, aprovechar los mecanismos de plasticidad cerebral y aprendizaje motor humano para recuperar o compensar las funciones perdidas. Uno de los primeros objetivos desde el punto de vista fisioterapéutico es la recuperación jerárquica del equilibrio y el control postural.
La realidad virtual (RV) se define como la sustitución de estímulos reales en los canales sensoriales por estímulos sintéticos. De esta manera es posible sumergir a los usuarios en entornos virtuales que proporcionen experiencias similares a las reales pero modificadas con un determinado objetivo. Existe un creciente número de estudios que reportan los beneficios derivados del uso de RV en rehabilitación, lo cual se conoce como rehabilitación virtual (RHBV). La RHBV ha demostrado proporcionar beneficios frente a las terapias convencionales, permitiendo inducir una reorganización cortical que maximice la mejoría locomotora.
Las técnicas de valoración del equilibrio permiten cuantificar el estado de los pacientes que han sufrido un DCA. Las escalas clínicas tradicionales proporcionan información funcional de dicha capacidad. Los estudios posturográficos mediante plataformas de fuerzas intentar cuantificar las respuestas del CDG en determinadas condiciones.
La hipótesis de este trabajo es: por una parte, que es posible proporcionar mejorías clínicas significativas a pacientes con DCA frente a terapias convencionales mediante el uso de RV; por otra parte, que es posible cuantificar el equilibrio de dichos pacientes mediante técnicas de análisis de señal aplicadas al CDG; y de manera transversal, que los sistemas de interacción de bajo coste que se utilizarán en las verificaciones de estas hipótesis tienen un funcionamiento comparable a los dispositivos tradicionales. / Llorens Rodríguez, R. (2014). Intervenciones basadas en realidad virtual para el entrenamiento de las estrategias de equilibrio en sujetos crónicos con daño cerebral adquirido [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/43772 / Premios Extraordinarios de tesis doctorales
|
106 |
Evaluation of precoding and feedback quantization schemes for multiuser communications systemsDomene Oltra, Fernando 13 February 2015 (has links)
Los sistemas de comunicaciones con múltiples antenas o sistemas MIMO (multiple-input
multiple-output) se presentan como una de las tecnologías más prometedoras en el campo de
las comunicaciones inalámbricas, ya que permiten aprovechar la dimensión espacial además de
las dimensiones de frecuencia y tiempo. De esta forma, se pueden obtener tasas de transmisión
más elevadas usando el mismo ancho de banda, que es un recurso escaso, y manteniendo una
potencia de transmisión baja, lo cual es crucial para dispositivos alimentados por baterías. Por
estas razones, la tecnología MIMO ha sido adoptada en muchos estándares como Long-Term
Evolution (LTE), LTE Advanced y Worldwide Interoperability for Microwave Access (WiMAX).
Las técnicas MIMO también pueden se pueden emplear en un escenario multiusuario, donde
varios usuarios comparten la dimensión espacial provocando una interferencia multiusuario. A
través de la precodificación y del uso de múltiples antenas en el transmisor, la señal de los
diferentes usuarios puede ser multiplexada espacialmente de forma que se mitigue la
interferencia multiusuario incluso con usuarios de una sola antena. Estos sistemas, conocidos
como sistemas MU-MISO (multiuser multiple-input single-output), han atraído mucho la
atención en los últimos años ya que permiten el desarrollo de terminales pequeños y baratos,
manteniendo así el equipamiento más caro en el transmisor.
Sin embargo, estos beneficios conllevan un sistema más complejo. Por una parte, el
multiplexado espacial requiere una carga de procesado considerable, que depende del tamaño
del sistema: número de antenas transmisoras, número de receptores y ancho de banda. Por otra
parte, las técnicas MIMO requieren un conocimiento del canal en transmisión o CSIT (channel
state information at the transmitter) preciso. En sistemas con duplexación por división en
frecuencia o FDD (frequency-division duplex), la información de canal o CSI (channel state
information) debe ser estimada en el receptor y proporcionada al transmisor a través del enlace
de realimentación, reduciendo así la eficiencia del sistema. Por lo tanto, esta tesis se centra en
la mejora de la eficiencia de las implementaciones de precodificación y en el rendimiento de los
esquemas de realimentación de canal en sistemas MU-MISO.
El problema de la precodificación se aborda en primer lugar. Se ha llevado a cabo un análisis de
algunas de las técnicas de precodificación más usadas, prestando especial atención a su
rendimiento y a su complejidad. Este análisis revela que aquellas técnicas que hacen uso de
lattice reduction (LR) obtienen un mejor rendimiento. Sin embargo, la complejidad
computacional de la técnica LR dificulta su implementación en la práctica. El análisis también
revela que las técnicas zero-forcing (ZF), Tomlinson-Harashima precoding (THP) y LR-THP son las
técnicas más adecuadas para cubrir todo el rango de rendimiento y complejidad computacional. Asimismo, se ha llevado a cabo un análisis de estas técnicas bajo CSIT imperfecto. Dicho análisis
ha demostrado que LR es una técnica muy importante también para el caso de CSIT imperfecto.
A continuación, se han presentado implementaciones paralelas de técnicas de precodificación
sobre unidades de procesamiento gráfico o GPUs (graphic processing unit), comparándose con
implementaciones en unidades de procesamiento central o CPU (central processing unit). Dado
que las implementaciones de THP y LR-THP han demostrado ser las que mejor se adaptan a la
arquitectura de la GPU y ya que tienen muchas operaciones comunes, se ha propuesto una
implementación sobre GPU de un esquema THP reconfigurable combinado con LR. La
reconfigurabilidad de las GPUs permite desactivar la etapa de LR cuando los requisitos de los
usuarios están garantizados por el esquema THP, combinando complejidad computacional con
rendimiento. Aunque esta implementación consigue una mejora significativa respecto a la
implementación sobre CPU, su paralelismo viene limitado por la naturaleza secuencial del
problema LR. Por ello, se han propuesto varias estrategias para la paralelización del problema
LR que han sido evaluadas en distintas plataformas: CPU multi-núcleo, GPU y plataforma
heterogénea que consiste en CPU+GPU. Los resultados revelan que la arquitectura GPU permite
reducir considerablemente el tiempo de computación del problema LR, especialmente en la
plataforma heterogénea.
La segunda parte de la tesis trata el problema de la realimentación de canal en sistemas FDD. En
estos sistemas, los receptores normalmente proporcionan una versión cuantificada del canal a
través del canal de realimentación. Con el objetivo de mantener una eficiencia alta, el canal debe
ser cuantificado con los mínimos bits posibles. En primer lugar, se explora el uso de la correlación
en frecuencia para reducir el volumen de información de realimentación. Se han presentado dos
esquemas diferentes basados en cuantificación vectorial o VQ (vector quantization) y en la
transformación Karhunen-Loève, respectivamente, y se han comparado con esquemas
existentes en términos de rendimiento y complejidad computacional. Los resultados muestran
que ambas técnicas son capaces de reducir significativamente el volumen de información de
realimentación aprovechando la correlación en frecuencia.
Finalmente, la correlación espacial también se aprovecha para reducir la información de
realimentación. Se ha presentado una caracterización espacial estadística del modelo de canal
SCM (spatial channel model) del 3GPP (3rd Generation Partnership Project) para un entorno de
alta correlación. Basado en esta caracterización, se propone un esquema de cuantificación de
canal para entornos de alta correlación. Con el objetivo de obtener una caracterización para alta
y baja correlación, se considera un modelo de correlación más sencillo como el modelo de
Kronecker. Basado en esta caracterización, se proponen dos esquemas de cuantificación y se
evalúan con un modelo de canal realista como el SCM. Los resultados muestran que ambos
esquemas son capaces de reducir la información de realimentación en ambientes con
correlación alta y moderada. / Multiple-input multiple-output (MIMO) communication systems have emerged as one of the
most promising technologies in the field of wireless communications, allowing to exploit the
spatial dimension as well as the time and frequency dimensions. Thus, higher rates can be
obtained by using the same bandwidth, which is a scarce resource, and keeping a low transmit
power, which is crucial in battery-operated devices. For these reasons, MIMO technologies have
been adopted by many standards such as Long-Term Evolution (LTE), LTE advanced (LTE-A) and
Worldwide Interoperability for Microwave Access (WiMAX).
MIMO techniques can also be used in a multiuser scenario, where several usersshare the spatial
dimension causing multiuser interference. By means of precoding and the use of multiple
antennas at the transmitter, the signal of the different users can be spatially multiplexed so that
multiuser interference is mitigated even for single-antenna users. These systems, known as
multiuser multiple-input singular-output (MU-MISO) systems, have attracted much attention in
recent years since they allow the development of small and inexpensive terminals, keeping the
most expensive hardware at the transmitter.
However, these benefits come at the cost of having a more complex system. On the one hand,
spatial multiplexing requires a considerable processing load that depends on the size of the
system: number of transmit antennas, number of receivers and bandwidth. On the other hand,
MIMO techniques require accurate channel state information at the transmitter (CSIT). In
frequency-division duplex (FDD) systems, channel state information (CSI) has to be estimated at
the receiver and provided to the transmitter through the feedback link, hence reducing the
efficiency of the system. Therefore, this thesis is primarily focused on improving the efficiency
of precoding implementations and the performance of feedback schemes in MU-MISO systems.
First, the problem of precoding is addressed. An analysis of some of the most utilized precoding
techniques is conducted, paying special attention to their performance and computational
complexity. The analysis reveals that those techniques that make use of lattice reduction (LR)
achieve the best performance. However, the computational complexity of LR makes its
implementation difficult for practical systems. The analysis reveals that zero-forcing (ZF),
Tomlinson-Harashima precoding (THP) and lattice reduction Tomlinson-Harashima precoding
(LR-THP) are the most suitable techniques for covering the entire range of performance and
computational complexity. An analysis of these techniques with imperfect CSIT has also been
performed. In this analysis, LR has proven to be a key technique also when imperfect CSIT is
available.
Next, parallel implementations of the precoding techniques on a graphic processing unit (GPU)
are presented and compared to implementations that use a central processing unit (CPU). Since
the implementations of THP and LR-THP have shown to best fit the GPU architecture and since
they also share many operations, a GPU implementation of a reconfigurable THP scheme
combined with LR has been proposed. The reconfigurable nature of GPUs allows gating the LR
stage off when the user requirements are sufficiently guaranteed by the THP scheme, trading computational cost and performance. Although this implementation achieves a significant
speed-up compared to its CPU implementation, its parallelism is limited by the sequential nature
of LR. Therefore, several strategies for the parallelization of the LR problem are proposed and
evaluated on different platforms: multicore CPU, GPU and a heterogeneous platform consisting
of CPU+GPU. Results reveal that a GPU architecture allows a considerable reduction of the
computational time of the LR problem, especially in the heterogeneous platform.
The second part of this thesis addresses the problem of feedback in FDD systems. In these
systems, a quantized version of the channel is usually provided by the receivers through the
feedback link. In order to keep a high efficiency, the channel must be quantized using as few bits
as possible. First, the use of the frequency correlation to reduce the feedback information is
explored. Two different schemes based on vector quantization (VQ) and the Karhunen-Loève
(KL) transform, respectively, are presented and compared with existing schemes in terms of
performance and complexity. Results show that both techniques are able to significantly reduce
the feedback overhead by taking advantage of the frequency correlation.
Finally, the spatial correlation is leveraged to reduce the feedback information. A spatial
statistical characterization of the spatial channel model (SCM) from the 3rd Generation
Partnership Project (3GPP) for a highly correlated environment is presented. Based on this
characterization, a channel quantization scheme for highly correlated environments is
proposed. In order to obtain a statistical characterization for both high and low correlations, a
simpler model such as the Kronecker correlation model is considered. Based on this
characterization, two quantization schemes have been presented and evaluated using a realistic
channel model such as the SCM. Results show that both schemes are able to reduce the
feedback overhead in highly and moderately correlated scenarios. / Domene Oltra, F. (2015). Evaluation of precoding and feedback quantization schemes for multiuser communications systems [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/46971
|
107 |
New Insights in Prediction and Dynamic Modeling from Non-Gaussian Mixture Processing MethodsSafont Armero, Gonzalo 29 July 2015 (has links)
[EN] This thesis considers new applications of non-Gaussian mixtures in the framework of statistical signal processing and pattern recognition. The non-Gaussian mixtures were implemented by mixtures of independent component analyzers (ICA). The fundamental hypothesis of ICA is that the observed signals can be expressed as a linear transformation of a set of hidden variables, usually referred to as sources, which are statistically independent. This independence allows factoring the original M-dimensional probability density function (PDF) of the data as a product of one-dimensional probability densities, greatly simplifying the modeling of the data. ICA mixture models (ICAMM) provide further flexibility by alleviating the independency requirement of ICA, thus allowing the model to obtain local projections of the data without compromising its generalization capabilities. Here are explored new possibilities of ICAMM for the purposes of estimation and classification of signals.
The thesis makes several contributions to the research in non-Gaussian mixtures: (i) a method for maximum-likelihood estimation of missing data, based on the maximization of the PDF of the data given the ICAMM; (ii) a method for Bayesian estimation of missing data that minimizes the mean squared error and can obtain the confidence interval of the prediction; (iii) a generalization of the sequential dependence model for ICAMM to semi-supervised or supervised learning and multiple chains of dependence, thus allowing the use of multimodal data; and (iv) introduction of ICAMM in diverse novel applications, both for estimation and for classification.
The developed methods were validated via an extensive number of simulations that covered multiple scenarios. These tested the sensitivity of the proposed methods with respect to the following parameters: number of values to estimate; kinds of source distributions; correspondence of the data with respect to the assumptions of the model; number of classes in the mixture model; and unsupervised, semi-supervised, and supervised learning. The performance of the proposed methods was evaluated using several figures of merit, and compared with the performance of multiple classical and state-of-the-art techniques for estimation and classification.
Aside from the simulations, the methods were also tested on several sets of real data from different types: data from seismic exploration studies; ground penetrating radar surveys; and biomedical data. These data correspond to the following applications: reconstruction of damaged or missing data from ground-penetrating radar surveys of historical walls; reconstruction of damaged or missing data from a seismic exploration survey; reconstruction of artifacted or missing electroencephalographic (EEG) data; diagnosis of sleep disorders; modeling of the brain response during memory tasks; and exploration of EEG data from subjects performing a battery of neuropsychological tests. The obtained results demonstrate the capability of the proposed methods to work on problems with real data. Furthermore, the proposed methods are general-purpose and can be used in many signal processing fields. / [ES] Esta tesis considera nuevas aplicaciones de las mezclas no Gaussianas dentro del marco de trabajo del procesado estadístico de señal y del reconocimiento de patrones. Las mezclas no Gaussianas fueron implementadas mediante mezclas de analizadores de componentes independientes (ICA). La hipótesis fundamental de ICA es que las señales observadas pueden expresarse como una transformación lineal de un grupo de variables ocultas, normalmente llamadas fuentes, que son estadísticamente independientes. Esta independencia permite factorizar la función de densidad de probabilidad (PDF) original M-dimensional de los datos como un producto de densidades unidimensionales, simplificando ampliamente el modelado de los datos. Los modelos de mezclas ICA (ICAMM) aportan una mayor flexibilidad al relajar el requisito de independencia de ICA, permitiendo que el modelo obtenga proyecciones locales de los datos sin comprometer su capacidad de generalización. Aquí se exploran nuevas posibilidades de ICAMM para los propósitos de estimación y clasificación de señales.
La tesis realiza varias contribuciones a la investigación en mezclas no Gaussianas: (i) un método de estimación de datos faltantes por máxima verosimilitud, basado en la maximización de la PDF de los datos dado el ICAMM; (ii) un método de estimación Bayesiana de datos faltantes que minimiza el error cuadrático medio y puede obtener el intervalo de confianza de la predicción; (iii) una generalización del modelo de dependencia secuencial de ICAMM para aprendizaje supervisado o semi-supervisado y múltiples cadenas de dependencia, permitiendo así el uso de datos multimodales; y (iv) introducción de ICAMM en varias aplicaciones novedosas, tanto para estimación como para clasificación.
Los métodos desarrollados fueron validados mediante un número extenso de simulaciones que cubrieron múltiples escenarios. Éstos comprobaron la sensibilidad de los métodos propuestos con respecto a los siguientes parámetros: número de valores a estimar; tipo de distribuciones de las fuentes; correspondencia de los datos con respecto a las suposiciones del modelo; número de clases en el modelo de mezclas; y aprendizaje supervisado, semi-supervisado y no supervisado. El rendimiento de los métodos propuestos fue evaluado usando varias figuras de mérito, y comparado con el rendimiento de múltiples técnicas clásicas y del estado del arte para estimación y clasificación.
Además de las simulaciones, los métodos también fueron probados sobre varios grupos de datos de diferente tipo: datos de estudios de exploración sísmica; exploraciones por radar de penetración terrestre; y datos biomédicos. Estos datos corresponden a las siguientes aplicaciones: reconstrucción de datos dañados o faltantes de exploraciones de radar de penetración terrestre de muros históricos; reconstrucción de datos dañados o faltantes de un estudio de exploración sísmica; reconstrucción de datos electroencefalográficos (EEG) dañados o artefactados; diagnóstico de desórdenes del sueño; modelado de la respuesta del cerebro durante tareas de memoria; y exploración de datos EEG de sujetos durante la realización de una batería de pruebas neuropsicológicas. Los resultados obtenidos demuestran la capacidad de los métodos propuestos para trabajar en problemas con datos reales. Además, los métodos propuestos son de propósito general y pueden utilizarse en muchos campos del procesado de señal. / [CA] Aquesta tesi considera noves aplicacions de barreges no Gaussianes dins del marc de treball del processament estadístic de senyal i del reconeixement de patrons. Les barreges no Gaussianes van ser implementades mitjançant barreges d'analitzadors de components independents (ICA). La hipòtesi fonamental d'ICA és que els senyals observats poden ser expressats com una transformació lineal d'un grup de variables ocultes, comunament anomenades fonts, que són estadísticament independents. Aquesta independència permet factoritzar la funció de densitat de probabilitat (PDF) original M-dimensional de les dades com un producte de densitats de probabilitat unidimensionals, simplificant àmpliament la modelització de les dades. Els models de barreges ICA (ICAMM) aporten una major flexibilitat en alleugerar el requeriment d'independència d'ICA, permetent així que el model obtinga projeccions locals de les dades sense comprometre la seva capacitat de generalització. Ací s'exploren noves possibilitats d'ICAMM pels propòsits d'estimació i classificació de senyals.
Aquesta tesi aporta diverses contribucions a la recerca en barreges no Gaussianes: (i) un mètode d'estimació de dades faltants per màxima versemblança, basat en la maximització de la PDF de les dades donat l'ICAMM; (ii) un mètode d'estimació Bayesiana de dades faltants que minimitza l'error quadràtic mitjà i pot obtenir l'interval de confiança de la predicció; (iii) una generalització del model de dependència seqüencial d'ICAMM per entrenament supervisat o semi-supervisat i múltiples cadenes de dependència, permetent així l'ús de dades multimodals; i (iv) introducció d'ICAMM en diverses noves aplicacions, tant per a estimació com per a classificació.
Els mètodes desenvolupats van ser validats mitjançant una extensa quantitat de simulacions que cobriren múltiples situacions. Aquestes van verificar la sensibilitat dels mètodes proposats amb respecte als següents paràmetres: nombre de valors per estimar; mena de distribucions de les fonts; correspondència de les dades amb respecte a les suposicions del model; nombre de classes del model de barreges; i aprenentatge supervisat, semi-supervisat i no-supervisat. El rendiment dels mètodes proposats va ser avaluat mitjançant diverses figures de mèrit, i comparat amb el rendiments de múltiples tècniques clàssiques i de l'estat de l'art per a estimació i classificació.
A banda de les simulacions, els mètodes van ser verificats també sobre diversos grups de dades reals de diferents tipus: dades d'estudis d'exploració sísmica; exploracions de radars de penetració de terra; i dades biomèdiques. Aquestes dades corresponen a les següents aplicacions: reconstrucció de dades danyades o faltants d'estudis d'exploracions de radar de penetració de terra sobre murs històrics; reconstrucció de dades danyades o faltants en un estudi d'exploració sísmica; reconstrucció de dades electroencefalogràfiques (EEG) artefactuades o faltants; diagnosi de desordres de la son; modelització de la resposta del cervell durant tasques de memòria; i exploració de dades EEG de subjectes realitzant una bateria de tests neuropsicològics. Els resultats obtinguts han demostrat la capacitat dels mètodes proposats per treballar en problemes amb dades reals. A més, els mètodes proposats són de propòsit general i poden fer-se servir en molts camps del processament de senyal. / Safont Armero, G. (2015). New Insights in Prediction and Dynamic Modeling from Non-Gaussian Mixture Processing Methods [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/53913
|
108 |
MIMOPack: A High Performance Computing Library for MIMO Communication SystemsRamiro Sánchez, Carla 30 July 2015 (has links)
[EN] Nowadays, several communication standards are emerging and evolving, searching
higher transmission rates, reliability and coverage. This expansion is
primarily driven by the continued increase in consumption of mobile multimedia services
due to the emergence of new handheld devices such as smartphones and tablets.
One of the most significant techniques employed to meet these demands is the use
of multiple transmit and receive antennas, known as MIMO systems. The use of this technology allows to increase the
transmission rate and the quality of the transmission through the use of multiple antennas at the
transmitter and receiver sides.
MIMO technologies have become an essential key in several wireless standards such as WLAN, WiMAX and LTE.
These technologies will be incorporated also in future standards, therefore is
expected in the coming years a great deal of research in this field.
Clearly, the study of MIMO systems is critical in the current investigation,
however the problems that arise from this technology are very complex.
High Performance Computing (HPC) systems, and specifically, modern hardware
architectures as multi-core and many-cores (e.g Graphics Processing Units (GPU))
are playing a key role in the development of efficient and low-complexity
algorithms for MIMO transmissions. Proof of this is that the number of
scientific contributions and research projects related to its use has increased in the last years.
Also, some high performance libraries have been implemented as
tools for researchers involved in the development of future
communication standards. Two of the most popular libraries are: IT++
that is a library based on the use of some optimized libraries for multi-core
processors and the Communications System Toolbox designed for use with MATLAB, which uses GPU computing. However, there is not a library able to
run on a heterogeneous platform using all the available resources.
In view of the high computational requirements in MIMO application research and
the shortage of tools able to satisfy them, we have made a special effort to develop a
library to ease the development of adaptable parallel applications in accordance
with the different architectures of the executing platform. The library, called MIMOPack, aims to implement efficiently using parallel computing, a set of functions to perform some of the critical stages of MIMO communication systems simulation.
The main contribution of the thesis is the implementation of efficient Hard and Soft output detectors, since the detection stage is considered the most complex part of the communication process. These detectors are highly configurable and many of them include preprocessing techniques that reduce the computational cost and increase the performance.
The proposed library shows three important features: portability,
efficiency and easy of use. Current realease allows GPUs and multi-core computation, or even
simultaneously, since it is designed to use on heterogeneous machines. The interface of the functions are common to all environments
in order to simplify the use of the library. Moreover, some of the functions are callable from MATLAB increasing the portability of developed codes between different computing environments.
According to the library design and the performance assessment, we consider that MIMOPack may facilitate
industrial and academic researchers the implementation of scientific codes without having to know different programming
languages and machine architectures. This will allow to include more complex
algorithms in their simulations and obtain their results faster. This is
particularly important in the industry, since the manufacturers work
to analyze and to propose their own technologies with the aim that it will be
approved as a standard. Thus allowing to enforce their intellectual property
rights over their competitors, who should obtain the corresponding licenses
to include these technologies into their products. / [ES] En la actualidad varios estándares de comunicación están surgiendo buscando velocidades de transmisión más altas y mayor fiabilidad. Esta expansión está impulsada por el aumento en el consumo de servicios multimedia debido a la aparición de nuevos dispositivos como los smartphones y las tabletas.
Una de las técnicas empleadas más importantes es el uso de múltiples antenas de transmisión y recepción, conocida como sistemas MIMO, que permite aumentar la velocidad y la calidad de la transmisión.
Las tecnologías MIMO se han convertido en una parte esencial en diferentes estándares tales como WLAN, WiMAX y LTE.
Estas tecnologías se incorporarán también en futuros estándares, por lo tanto, se espera en los próximos años una gran cantidad de investigación en este campo.
Está claro que el estudio de los sistemas MIMO es crítico en la investigación actual, sin embargo los problemas que surgen de esta tecnología son muy complejos. La sistemas de computación de alto rendimiento, y en concreto, las arquitecturas hardware actuales como multi-core y many-core (p. ej. GPUs) están jugando un papel clave en el desarrollo de algoritmos eficientes y de baja complejidad en las transmisiones MIMO. Prueba de ello es que el número de contribuciones científicas y proyectos de investigación relacionados con su uso se han incrementado en el últimos años.
Algunas librerías de alto rendimiento se están utilizando como
herramientas por investigadores en el desarrollo de
futuros estándares. Dos de las librerías más destacadas
son: IT++ que se basa en el uso de distintas librerías optimizadas para procesadores multi-core y el paquete Communications System Toolbox diseñada para su uso con MATLAB, que utiliza computación con GPU. Sin embargo, no hay una biblioteca capaz de ejecutarse en una plataforma heterogénea.
En vista de los altos requisitos computacionales en la investigación MIMO y
la escasez de herramientas capaces de satisfacerlos, hemos implementado una
librería que facilita el desarrollo de aplicaciones paralelas adaptables de
acuerdo con las diferentes arquitecturas de la plataforma de ejecución. La
librería, llamada MIMOPack, implementa de manera eficiente un conjunto de funciones para llevar a cabo algunas de las etapas críticas en la simulación de un sistema de comunicación MIMO.
La principal aportación de la tesis es la implementación de detectores eficientes de salida Hard y Soft, ya que la etapa de detección es considerada la parte más compleja en el proceso de comunicación.
Estos detectores son altamente configurables y muchos de ellos incluyen
técnicas de preprocesamiento que reducen el coste computacional y
aumentan el rendimiento.
La librería propuesta tiene tres características importantes: la portabilidad, la eficiencia y facilidad de uso. La versión actual permite computación en GPU y multi-core, incluso simultáneamente, ya que está diseñada para ser utilizada sobre plataformas heterogéneas que explotan toda la capacidad computacional. Para facilitar el uso de la biblioteca, las interfaces de las funciones son comunes para todas las arquitecturas. Algunas de las funciones se pueden llamar desde MATLAB aumentando la portabilidad de códigos desarrollados entre los diferentes entornos.
De acuerdo con el diseño de la biblioteca y la evaluación del rendimiento,
consideramos que MIMOPack puede facilitar la implementación de códigos sin tener que saber programar con diferentes lenguajes y arquitecturas. MIMOPack permitirá incluir algoritmos más complejos en las simulaciones y obtener los resultados
más rápidamente. Esto es particularmente importante en la industria,
ya que los fabricantes trabajan para proponer sus propias tecnologías lo antes posible con el objetivo de que sean aprobadas como un estándar. De este modo, los fabricantes pueden hacer valer sus derechos de propiedad intelectual frente a sus competidores, quienes luego deben obtener las correspon / [CA] En l'actualitat diversos estàndards de comunicació estan sorgint i
evolucionant cercant velocitats de transmissió més altes i major
fiabilitat. Aquesta expansió, està impulsada pel continu augment en el consum de serveis multimèdia a causa de l'aparició de
nous dispositius portàtils com els smartphones i les tablets.
Una de les tècniques més importants és l'ús de múltiples antenes de transmissió i recepció (MIMO) que permet augmentar la velocitat de transmissió i la qualitat de transmissió.
Les tecnologies MIMO s'han convertit en una part essencial en diferents
estàndards inalàmbrics, tals com WLAN, WiMAX i LTE. Aquestes
tecnologies s'incorporaran també en futurs estàndards, per tant, s'espera en
els pròxims anys una gran quantitat d'investigació en aquest camp.
L'estudi dels sistemes MIMO és crític en la recerca actual,
no obstant açó, els problemes que sorgeixen d'aquesta tecnologia són molt
complexos. Els sistemes de computació d'alt rendiment com els multi-core i many-core (p. ej. GPUs)), estan jugant un paper clau en el desenvolupament
d'algoritmes eficients i de baixa complexitat en les transmissions MIMO. Prova
d'açò és que el nombre de contribucions científiques i projectes
d'investigació relacionats amb el seu ús s'han incrementat en els últims anys.
Algunes llibreries d'alt rendiment estan utilitzant-se com a eines
per investigadors involucrats en el desenvolupament de futurs
estàndards. Dos de les llibreries més destacades són:
IT++ que és una llibreria basada en lús de diferents llibreries optimitzades per a
processadors multi-core i el paquet Communications System Toolbox dissenyat per
al seu ús amb MATLAB, que utilitza computació amb GPU. No obstant açò, no hi ha una
biblioteca capaç d'executar-se en una plataforma heterogènia.
Degut als alts requisits computacionals en la investigació MIMO i l'escacès
d'eines capaces de satisfer-los, hem implementat
una llibreria que facilita el desenvolupament d'aplicacions paral·leles
adaptables d'acord amb les diferentes arquitectures de la plataforma
d'ejecució. La llibreria, anomenada MIMOPack, implementa
de manera eficient, un conjunt de
funcions per dur a terme algunes de les etapes crítiques en la simulació
d'un sistema de comunicació MIMO.
La principal aportació de la tesi és la implementació de detectors
eficients d'exida Hard i Soft, ja que l'etapa de detecció és considerada
la part més complexa en el procés de comunicació. Estos detectors són
altament configurables i molts d'ells inclouen tècniques de preprocessament
que redueixen el cost computacional i augmenten el rendiment. La llibreria
proposta té tres característiques importants: la portabilitat,
l'eficiència i la facilitat d'ús. La versió actual permet
computació en GPU i multi-core, fins i tot simultàniament, ja que està
dissenyada per a ser utilitzada sobre plataformes heterogènies que exploten
tota la capacitat computacional. Amb el fi de simplificar l'ús de la biblioteca,
les interfaces de les funcions són comunes per a totes les arquitectures. Algunes de
les funcions poden ser utilitzades des de MATLAB augmentant la portabilitat de
còdics desenvolupats entre els diferentes entorns.
D'acord amb el disseny de la biblioteca i l'evaluació del rendiment,
considerem que MIMOPack pot facilitar la implementació de còdics a investigadors sense haver de saber programar amb diferents llenguatges i arquitectures. MIMOPack permetrà
incloure algoritmes més complexos en les seues simulacions i obtindre els seus
resultats més ràpid. Açò és particularment important en la
industria, ja que els fabricants treballen per a proposar les seues pròpies
tecnologies el més prompte possible amb l'objectiu que siguen aprovades com un
estàndard. D'aquesta menera, els fabricants podran fer valdre els seus drets
de propietat intel·lectual enfront dels seus competidors, els qui després han
d'obtenir les corresponents llicències si vole / Ramiro Sánchez, C. (2015). MIMOPack: A High Performance Computing Library for MIMO Communication Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/53930 / Premios Extraordinarios de tesis doctorales
|
109 |
Adaptive signal processing for multichannel sound using high performance computingLorente Giner, Jorge 02 December 2015 (has links)
[EN] The field of audio signal processing has undergone a major development in recent years. Both the consumer and professional marketplaces continue to show growth in audio applications such as immersive audio schemes that offer optimal listening experience, intelligent noise reduction in cars or improvements in audio teleconferencing or hearing aids. The development of these applications has a common interest in increasing or improving the number of discrete audio channels, the quality of the audio or the sophistication of the algorithms. This often gives rise to problems of high computational cost, even when using common signal processing algorithms, mainly due to the application of these algorithms to multiple signals with real-time requirements. The field of High Performance Computing (HPC) based on low cost hardware elements is the bridge needed between the computing problems and the real multimedia signals and systems that lead to user's applications. In this sense, the present thesis goes a step further in the development of these systems by using the computational power of General Purpose Graphics Processing Units (GPGPUs) to exploit the inherent parallelism of signal processing for multichannel audio applications.
The increase of the computational capacity of the processing devices has been historically linked to the number of transistors in a chip. However, nowadays the improvements in the computational capacity are mainly given by increasing the number of processing units and using parallel processing. The Graphics Processing Units (GPUs), which have now thousands of computing cores, are a representative example. The GPUs were traditionally used to graphic or image processing, but new releases in the GPU programming environments such as CUDA have allowed the use of GPUS for general processing applications. Hence, the use of GPUs is being extended to a wide variety of intensive-computation applications among which audio processing is included. However, the data transactions between the CPU and the GPU and viceversa have questioned the viability of the use of GPUs for audio applications in which real-time interaction between microphones and loudspeakers is required. This is the case of the adaptive filtering applications, where an efficient use of parallel computation in not straightforward. For these reasons, up to the beginning of this thesis, very few publications had dealt with the GPU implementation of real-time acoustic applications based on adaptive filtering. Therefore, this thesis aims to demonstrate that GPUs are totally valid tools to carry out audio applications based on adaptive filtering that require high computational resources. To this end, different adaptive applications in the field of audio processing are studied and performed using GPUs. This manuscript also analyzes and solves possible limitations in each GPU-based implementation both from the acoustic point of view as from the computational point of view. / [ES] El campo de procesado de señales de audio ha experimentado un desarrollo importante en los últimos años. Tanto el mercado de consumo como el profesional siguen mostrando un crecimiento en aplicaciones de audio, tales como: los sistemas de audio inmersivo que ofrecen una experiencia de sonido óptima, los sistemas inteligentes de reducción de ruido en coches o las mejoras en sistemas de teleconferencia o en audífonos. El desarrollo de estas aplicaciones tiene un propósito común de aumentar o mejorar el número de canales de audio, la propia calidad del audio o la sofisticación de los algoritmos. Estas mejoras suelen dar lugar a sistemas de alto coste computacional, incluso usando algoritmos comunes de procesado de señal. Esto se debe principalmente a que los algoritmos se suelen aplicar a sistemas multicanales con requerimientos de procesamiento en tiempo real. El campo de la Computación de Alto Rendimiento basado en elementos hardware de bajo coste es el puente necesario entre los problemas de computación y los sistemas multimedia que dan lugar a aplicaciones de usuario. En este sentido, la presente tesis va un paso más allá en el desarrollo de estos sistemas mediante el uso de la potencia de cálculo de las Unidades de Procesamiento Gráfico (GPU) en aplicaciones de propósito general. Con ello, aprovechamos la inherente capacidad de paralelización que poseen las GPU para procesar señales de audio y obtener aplicaciones de audio multicanal.
El aumento de la capacidad computacional de los dispositivos de procesado ha estado vinculado históricamente al número de transistores que había en un chip. Sin embargo, hoy en día, las mejoras en la capacidad computacional se dan principalmente por el aumento del número de unidades de procesado y su uso para el procesado en paralelo. Las GPUs son un ejemplo muy representativo. Hoy en día, las GPUs poseen hasta miles de núcleos de computación. Tradicionalmente, las GPUs se han utilizado para el procesado de gráficos o imágenes. Sin embargo, la aparición de entornos sencillos de programación GPU, como por ejemplo CUDA, han permitido el uso de las GPU para aplicaciones de procesado general. De ese modo, el uso de las GPU se ha extendido a una amplia variedad de aplicaciones que requieren cálculo intensivo. Entre esta gama de aplicaciones, se incluye el procesado de señales de audio. No obstante, las transferencias de datos entre la CPU y la GPU y viceversa pusieron en duda la viabilidad de las GPUs para aplicaciones de audio en las que se requiere una interacción en tiempo real entre micrófonos y altavoces. Este es el caso de las aplicaciones basadas en filtrado adaptativo, donde el uso eficiente de la computación en paralelo no es sencillo. Por estas razones, hasta el comienzo de esta tesis, había muy pocas publicaciones que utilizaran la GPU para implementaciones en tiempo real de aplicaciones acústicas basadas en filtrado adaptativo. A pesar de todo, esta tesis pretende demostrar que las GPU son herramientas totalmente válidas para llevar a cabo aplicaciones de audio basadas en filtrado adaptativo que requieran elevados recursos computacionales. Con este fin, la presente tesis ha estudiado y desarrollado varias aplicaciones adaptativas de procesado de audio utilizando una GPU como procesador. Además, también analiza y resuelve las posibles limitaciones de cada aplicación tanto desde el punto de vista acústico como desde el punto de vista computacional. / [CA] El camp del processament de senyals d'àudio ha experimentat un desenvolupament important als últims anys. Tant el mercat de consum com el professional segueixen mostrant un creixement en aplicacions d'àudio, com ara: els sistemes d'àudio immersiu que ofereixen una experiència de so òptima, els sistemes intel·ligents de reducció de soroll en els cotxes o les millores en sistemes de teleconferència o en audiòfons. El desenvolupament d'aquestes aplicacions té un propòsit comú d'augmentar o millorar el nombre de canals d'àudio, la pròpia qualitat de l'àudio o la sofisticació dels algorismes que s'utilitzen. Això, sovint dóna lloc a sistemes d'alt cost computacional, fins i tot quan es fan servir algorismes comuns de processat de senyal. Això es deu principalment al fet que els algorismes se solen aplicar a sistemes multicanals amb requeriments de processat en temps real. El camp de la Computació d'Alt Rendiment basat en elements hardware de baix cost és el pont necessari entre els problemes de computació i els sistemes multimèdia que donen lloc a aplicacions d'usuari. En aquest sentit, aquesta tesi va un pas més enllà en el desenvolupament d'aquests sistemes mitjançant l'ús de la potència de càlcul de les Unitats de Processament Gràfic (GPU) en aplicacions de propòsit general. Amb això, s'aprofita la inherent capacitat de paral·lelització que posseeixen les GPUs per processar senyals d'àudio i obtenir aplicacions d'àudio multicanal.
L'augment de la capacitat computacional dels dispositius de processat ha estat històricament vinculada al nombre de transistors que hi havia en un xip. No obstant, avui en dia, les millores en la capacitat computacional es donen principalment per l'augment del nombre d'unitats de processat i el seu ús per al processament en paral·lel. Un exemple molt representatiu són les GPU, que avui en dia posseeixen milers de nuclis de computació. Tradicionalment, les GPUs s'han utilitzat per al processat de gràfics o imatges. No obstant, l'aparició d'entorns senzills de programació de la GPU com és CUDA, han permès l'ús de les GPUs per a aplicacions de processat general. D'aquesta manera, l'ús de les GPUs s'ha estès a una àmplia varietat d'aplicacions que requereixen càlcul intensiu. Entre aquesta gamma d'aplicacions, s'inclou el processat de senyals d'àudio. No obstant, les transferències de dades entre la CPU i la GPU i viceversa van posar en dubte la viabilitat de les GPUs per a aplicacions d'àudio en què es requereix la interacció en temps real de micròfons i altaveus. Aquest és el cas de les aplicacions basades en filtrat adaptatiu, on l'ús eficient de la computació en paral·lel no és senzilla. Per aquestes raons, fins al començament d'aquesta tesi, hi havia molt poques publicacions que utilitzessin la GPU per implementar en temps real aplicacions acústiques basades en filtrat adaptatiu. Malgrat tot, aquesta tesi pretén demostrar que les GPU són eines totalment vàlides per dur a terme aplicacions d'àudio basades en filtrat adaptatiu que requereixen alts recursos computacionals. Amb aquesta finalitat, en la present tesi s'han estudiat i desenvolupat diverses aplicacions adaptatives de processament d'àudio utilitzant una GPU com a processador. A més, aquest manuscrit també analitza i resol les possibles limitacions de cada aplicació, tant des del punt de vista acústic, com des del punt de vista computacional. / Lorente Giner, J. (2015). Adaptive signal processing for multichannel sound using high performance computing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58427
|
110 |
Análisis y optimización eficiente de agrupaciones de ranuras en guíaHerranz Herruzo, José Ignacio 07 January 2016 (has links)
[EN] The present thesis develops an efficient and optimized design for large waveguide slot-arrays. Specifically, RLSA antennas on radial guides and classic arrays on monomode rectangular waveguides are considered. Besides, the standard performance of this kind of antennas is improved by adding parasitic dipoles above slots. This novelty allows on the one hand to alleviate the known drawbacks of RLSA antennas with linear polarization (LPRLSA). On the other hand, the new elements enable radiation of circular polarization by rectangular waveguide slot arrays, conceptually limited to linear polarization.
The attainment of the aimed objectives is accomplished by following a three-stage sequential methodology. Firstly, an efficient and rigorous analysis method for each structure under study is implemented. This aspect turns out to be essential due to the huge size of involved antennas. Then, efficient design and optimization algorithms are conceived and developed, which must be suitable for arrays formed by a high number of elements. Finally, the achieved results are validated by means of the fabrication and measurement of several prototypes.
New LP-RLSA topologies proposed in this thesis provide a desired advance in their limited performance, without sacrificing their original low-cost concept. This progress becomes a reality thanks to the development of dedicated optimization algorithms. The achieved experimental results confirm such advance, thus postulating as a promising approach to the performance exhibited by CP-RLSA antennas.
Concerning rectangular waveguide slot arrays, an exhaustive and versatile optimization process is applied. This thesis also comprises a deep study about the attainable bandwidth of this kind of antennas, including the well-known detuning technique. As a result, a frequency optimization method is proposed, which aims to maximize the specifications' compliance within a targeted frequency band. Every proposed algorithm is extended to account for circular polarization arrays, given by the inclusion of parasitic dipoles. This modification enables this antennas to cover a wider scope of applications. Fabrication and measurement of several prototypes, envisaged for an actual deployment of different systems, confirm the conclusions of theoretical analysis. / [ES] La presente tesis desarrolla el diseño optimizado eficiente de grandes agrupaciones de ranuras en guía. Específicamente, se contemplan las antenas RLSA sobre guía radial y las clásicas agrupaciones en guías rectangulares monomodo. Adicionalmente, el funcionamiento estándar de este tipo de antenas es mejorado introduciendo unos dipolos parásitos sobre las ranuras. Esta novedad permite por un lado aliviar los conocidos inconvenientes de las agrupaciones RLSA con polarización lineal (LP-RLSA). Por otro lado, los nuevos elementos posibilitan la radiación de polarización circular por parte de las agrupaciones de ranuras en guía rectangular, limitadas conceptualmente a polarización lineal.
La consecución de los objetivos planteados se lleva a cabo siguiendo una metodología secuencial de tres etapas. En primer lugar se implementa un método de análisis eficiente y riguroso de cada una de las estructuras bajo estudio. Este aspecto resulta fundamental debido al gran tamaño de las antenas consideradas. A continuación, se conciben y desarrollan algoritmos eficientes de diseño y optimización, adecuados para agrupaciones con un elevado número de elementos. Finalmente, se validan los resultados obtenidos mediante la fabricación y medida de varios prototipos.
Las nuevas topologías de LP-RLSA concebidas en esta tesis proporcionan un ansiado avance en sus limitadas prestaciones, sin abandonar su filosofía original de bajo coste. Este progreso se hace realidad gracias al desarrollo de algoritmos de optimización dedicados. Los resultados experimentales obtenidos confirman dicho avance, suponiendo un prometedor acercamiento a las prestaciones ofrecidas por las agrupaciones CP-RLSA.
Las agrupaciones en guía rectangular, por su parte, son objeto de un exhaustivo y versátil proceso de optimización. Esta tesis también incluye un profundo estudio sobre el ancho de banda de este tipo de antenas, incluyendo la conocida técnica de desintonización. Como resultado, se propone un método de optimización frecuencial, el cual pretende maximizar el cumplimiento de especificaciones en una determinada banda de frecuencias. Todos los algoritmos propuestos son además extendidos a agrupaciones con polarización circular, gracias a la inclusión de dipolos parásitos. Esta modificación habilita a estas antenas para cubrir un mayor espectro de aplicaciones. La fabricación y medida de varios prototipos, concebidos para el despliegue real de diferentes sistemas, confirman las conclusiones del análisis teórico. / [CA] La present tesi desenvolupa el disseny optimitzat i eficient de grans agrupacions de ranures en guia. Específicament, es contemplen les antenes RLSA sobre guia radial i les clàssiques agrupacions en guies rectangulars monomodo. Addicionalment, el funcionament convencional d'aquest tipus d'antenes és millorat introduint uns dipolos paràsits damunt de les ranures. Esta novetat permet per un costat alleujar els coneguts inconvenients de les agrupacions RLSA amb polarització lineal (LP-RLSA). D'altra banda, els nous elements possibiliten la radiació de polarització circular per part de les agrupacions de ranures en guia rectangular, limitades conceptualment a polarització lineal.
La consecució dels objectius plantejats es du a terme seguint una metodologia seqüencial de tres etapes. En primer lloc s'implementa un mètode d'anàlisi eficient i rigorós de cadascuna de les estructures baix estudi. Este aspecte resulta fonamental a causa del gran tamany de les antenes considerades. A continuació, es conceben i desenvolupen algoritmes eficients de disseny i optimització, adequats per a agrupacions amb un elevat nombre d'elements. Finalment, es validen els resultats obtinguts per mitjà de la construcció i mesura de diversos prototips.
Les noves topologies de LP-RLSA concebudes en esta tesi proporcionen el anhelat avanç en les seues limitades prestacions, sense abandonar la seua filosofia original de baix cost. Este progrés es fa realitat gràcies al desenvolupament d'algoritmes d'optimització dedicats. Els resultats experimentals obtinguts confirmen el esmentat avanç, suposant un prometedor acostament a les prestacions oferides per les agrupacions CP-RLSA.
Les agrupacions en guia rectangular, per la seua banda, són objecte d'un exhaustiu i versàtil procés d'optimització. Esta tesi també inclou un profund estudi sobre l'amplada de banda d'aquest tipus d'antenes, incloent la coneguda tècnica de desintonització. Com a resultat, es proposa un mètode d'optimització freqüencial, el qual pretén maximitzar el compliment d'especificacions en una determinada banda de freqüències. Tots els algoritmes proposats són a més estesos a agrupacions amb polarització circular, gràcies a la inclusió de dipolos paràsits. Esta modificació habilita a estes antenes per a cobrir un major espectre d'aplicacions. La construcció i mesura de diversos prototips, concebuts per al desplegament real de diferents sistemes, confirmen les conclusions extretes del anàlisi teòric. / Herranz Herruzo, JI. (2015). Análisis y optimización eficiente de agrupaciones de ranuras en guía [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59416 / Premios Extraordinarios de tesis doctorales
|
Page generated in 0.0456 seconds