• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 188
  • 169
  • 3
  • 3
  • Tagged with
  • 364
  • 313
  • 306
  • 251
  • 62
  • 42
  • 37
  • 32
  • 32
  • 29
  • 28
  • 27
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Estudio e implementación de algoritmos digitales para la mejora de la resolución temporal en sistemas de tomografía por emisión de positrones

Monzó Ferrer, José María 26 September 2012 (has links)
La Tomografía por emisión de positrones (PET, Positron Emission Tomography) es una técnica de diagnóstico médico que se encarga de mostrar imágenes de la distribución de radioisótopos dentro del cuerpo, permitiendo de esta forma observar procesos metabólicos que ocurren en su interior. Los sistemas PET se encargan de detectar pares de rayos gamma de 511KeV cada uno generados tras la aniquilación de un positrón con un electrón. De cada rayo gamma detectado, obtenemos su energía, la posición en la que el rayo es detectado y el tiempo exacto en el que el evento ha sido detectado. Denominamos tiempo de coincidencia a la diferencia de tiempos entre dos eventos. La resolución temporal de un sistema vendrá determinada por el error temporal cometido en la medida del tiempo de coincidencia. Una mejora en la resolución temporal implica una reducción del ruido de las imágenes generadas en el sistema PET. Tradicionalmente, las técnicas para la extracción del tiempo de un evento recibido han sido implementadas analógicamente. Estas técnicas permiten alcanzar una resolución temporal muy elevada. Sin embargo, la electrónica usada en las técnicas analógicas está muy adaptada a un detector específico, es compleja y poco configurable. La búsqueda de coincidencias en sistemas con muchos detectores que hacen uso de técnicas analógicas se vuelve un gran problema, pues hace necesario un incremento de la complejidad de la electrónica muchas veces inabordable. Existe una tendencia actual a reducir la electrónica analógica de los sistemas PET sustituyéndola por electrónica digital mediante una temprana digitalización de las señales de los detectores. Por tanto, deben proponerse y estudiarse algoritmos digitales para la extracción de una marca temporal de los eventos detectados. Por el momento, las técnicas digitales actuales no alcanzan las resoluciones temporales de las técnicas analógicas. El presente estudio se enmarca dentro del ámbito de los discriminadores de tiempo digitales. En el grupo de investigación, se dispone de un setup de medida con dos detectores de rayos gamma cuyas señales de salida se procesan en un front-end analógico. Las señales resultantes del front-end analógico son digitalizadas en un sistema de adquisición donde se procesan digitalmente. La búsqueda de una mejora en la resolución temporal del sistema y el hecho de que el procesado digital, todavía poco aplicado a los sistemas PET, puede proporcionar grandes mejoras en dicha resolución fueron la motivación inicial de la presente investigación. Durante la tesis, se proponen diferentes algoritmos digitales para la extracción de la información temporal de los pulsos recibidos. En un primer paso, se realiza un estado del arte a partir del cual se aportan diferentes posibles soluciones al problema. Los algoritmos propuestos están basados en bloques de procesado digital que pueden combinarse entre ellos. Estos algoritmos extraen la información temporal de las señales procesadas haciendo uso de versiones digitales adaptadas y configurables de discriminadores analógicos clásicos junto con bloques digitales que no poseen su análogo analógico. Uno de estos bloques digitales implementado se encarga de aumentar la frecuencia de muestreo mediante interpolación por filtro paso bajo, interpolando por factores x2 y x3 la señal de entrada. Entre los algoritmos analizados, el estudio propone nuevos discriminadores que se basan en hacer un cálculo digital de la carga de los pulsos recibidos, interpolados o no interpolados, obteniendo resultados mejores que con las configuraciones clásicas que trabajan con el pulso directamente adquirido y sin procesar. Para realizar el estudio del comportamiento de los discriminadores evaluados, se desarrolla una simulación que permite validar todo el sistema PET desde los detectores, generando pulsos lo más realistas posibles; la electrónica analógica, simulada mediante simuladores de tipo SPICE; y a nivel digital, estudiando el comportamiento de los algoritmos propuestos. Los algoritmos son simulados con distintas configuraciones, condiciones de jitter de reloj y ruido. Por último, todos los algoritmos propuestos son programados en la FPGA del sistema con arquitecturas que trabajan en tiempo real a medida que se vayan detectando eventos. Se definen y llevan a cabo una serie de experimentos que validan en condiciones reales en el setup de medida el funcionamiento de los discriminadores. Las medidas también permiten validar la simulación desarrollada. De esta forma, se dispone de una plataforma de test para futuras mejoras. Como conclusión final, en el trabajo se demuestra como un adecuado procesado digital de la señal permite mejorar la resolución temporal del sistema de forma considerable. El procesado digital, de gran flexibilidad frente al analógico, junto con el incremento de la velocidad de los dispositivos digitales programables y el incremento de la frecuencia de muestreo y de la integración de los convertidores analógicos-digitales (ADCs, "Analog to digital converters") hacen prever un aumento en el número de sistemas PET con estas características en un futuro no lejano y, por tanto, las soluciones investigadas en trabajos como el aquí presentado proporcionarán un aporte básico y necesario para futuros desarrollos. / Monzó Ferrer, JM. (2012). Estudio e implementación de algoritmos digitales para la mejora de la resolución temporal en sistemas de tomografía por emisión de positrones [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17226
152

Metodología para el diagnóstico de averías en motores de inducción mediante el análisis de corrientes estatóricas transitorias utilizando átomos tiempo-frecuencia

Pons Llinares, Joan 08 March 2013 (has links)
Las técnicas de diagnóstico de máquinas eléctricas más utilizadas actualmente están basadas en el análisis de la corriente (debido a su carácter no invasivo) a través de la transformada de Fourier (FT). Su principal inconveniente es que no pueden utilizarse en aplicaciones que trabajan constantemente en régimen transitorio, como la generación eólica o la automoción eléctrica, entre otros campos de creciente importancia. Desde finales del siglo XX hasta la fecha se han desarrollado algunas técnicas para el diagnóstico en regímenes transitorios; estas técnicas están basadas fundamentalmente en obtener la evolución temporal de las componentes armónicas de las corrientes causadas por averías, lo cual se consigue aplicando transformadas tiempo-frecuencia (t-f). Hata el momento se han aplicado transformadas estándar no optimizadas para el diagnóstico de averías en máquinas eléctricas (e.g., FT de tiempo corto, transformada wavelet) las cuales permiten la detección de algunas componentes de avería en determinadas zonas del plano t-f. Por otra parte, existen transformadas de carácter adaptativo cuyo análisis se ajusta a la señal a analizar (e.g. Matching Pursuit), no utilizadas todavía en el campo del diagnóstico. Sin embargo, no permiten centrarse en obtener las componentes de avería e incurren en tiempos de cálculo prohibitivos (semanas). En la presente tesis se ha desarrollado una metodología original de análisis t-f, optimizada para el diagnóstico de averías en máquinas eléctricas, mediante el análisis de la corriente. La metodología propuesta se desarrolla teniendo en cuenta las particularidades de la señal analizada y los objetivos del diagnóstico; esto permite efectuar el seguimiento de múltiples componentes de falta a lo largo de amplios dominios del plano t-f con tiempos de procesamiento reducidos, lo que hace posible diagnósticos de gran fiabilidad. El desarrollo de la metodología implica las siguientes etapas: (i) Se caracterizan las evoluciones de las componente / Pons Llinares, J. (2013). Metodología para el diagnóstico de averías en motores de inducción mediante el análisis de corrientes estatóricas transitorias utilizando átomos tiempo-frecuencia [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/27555
153

Design and implementation of plasmonic metamaterials and devices

Rodríguez Fortuño, Francisco José 18 July 2013 (has links)
La plasmónica es la ciencia que estudia la interacción, a escala nanométrica, entre la luz y los electrones libres de los metales, dando lugar a la propagación de ondas altamente confinadas a su superficie. La plasmónica tiene multitud de aplicaciones en nanotecnología, como son el sensado biológico y químico, espectroscopía, nanolitografía, comunicaciones de banda ultra ancha integradas en chips, nanoantenas para luz, filtrado, y manipulación de señales ópticas, entre muchas otras. Una de las aplicaciones más novedosas es la creación de metamateriales: estructuras artificiales diseñadas para controlar la propagación de la luz, con aplicaciones fascinantes como la lente perfecta o la capa de invisibilidad. La plasmónica y los metamateriales están al frente de la investigación actual en fotónica, gracias al auge de la nanotecnología y la nanociencia, que abre las puertas a una gran cantidad de nuevas aplicaciones. Esta tesis, desarrollada en el Centro de Tecnología Nanofotónica de Valencia de la UPV, en colaboración con la University of Pennsylvania y King's College London, trata de aportar nuevas ideas, estructuras y dispositivos a los campos de la plasmónica y los metamateriales, tratando de realizar su fabricación y medida experimental cuando sea posible. La tesis no se ciñe a una única aplicación o dispositivo, sino que realiza una extensiva exploración de los diversos sub-campos de la plasmónica en busca de fenómenos novedosos. Los resultados descritos son los siguientes: En el campo de los metamateriales de índice negativo se presentan dos estructuras: nanocables en forma de U, y guías coaxiales plasmónicas. En el campo del sensado plasmónico se presenta el diseño y la prueba experimental de un sensor se sustancias químicas de altas prestaciones con nanocruces metálicas. También se detallan teóricamente: un novedoso dispositivo para luz lenta e inversión temporal de pulsos basada en metamateriales y cristales fotónicos, un metamaterial para conversión de polarización sintonizable mediante pérdidas, un análogo plasmónico al efecto de levitación Meissner en superconductores y un método de reducción de pérdidas en guías plasmónicas mediante interferencia en guías multimodo. Por último se presenta teórica y experimentalmente un nuevo ejemplo fundamental de interferencia de campo cercano, logrando la excitación unidireccional de modos fotónicos ---ya sean plasmónicos o no--- mediante los campos cercanos de un dipolo circularmente polarizado. / Rodríguez Fortuño, FJ. (2013). Design and implementation of plasmonic metamaterials and devices [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31207 / Premios Extraordinarios de tesis doctorales
154

Multichannel audio processing for speaker localization, separation and enhancement

Martí Guerola, Amparo 29 October 2013 (has links)
This thesis is related to the field of acoustic signal processing and its applications to emerging communication environments. Acoustic signal processing is a very wide research area covering the design of signal processing algorithms involving one or several acoustic signals to perform a given task, such as locating the sound source that originated the acquired signals, improving their signal to noise ratio, separating signals of interest from a set of interfering sources or recognizing the type of source and the content of the message. Among the above tasks, Sound Source localization (SSL) and Automatic Speech Recognition (ASR) have been specially addressed in this thesis. In fact, the localization of sound sources in a room has received a lot of attention in the last decades. Most real-word microphone array applications require the localization of one or more active sound sources in adverse environments (low signal-to-noise ratio and high reverberation). Some of these applications are teleconferencing systems, video-gaming, autonomous robots, remote surveillance, hands-free speech acquisition, etc. Indeed, performing robust sound source localization under high noise and reverberation is a very challenging task. One of the most well-known algorithms for source localization in noisy and reverberant environments is the Steered Response Power - Phase Transform (SRP-PHAT) algorithm, which constitutes the baseline framework for the contributions proposed in this thesis. Another challenge in the design of SSL algorithms is to achieve real-time performance and high localization accuracy with a reasonable number of microphones and limited computational resources. Although the SRP-PHAT algorithm has been shown to be an effective localization algorithm for real-world environments, its practical implementation is usually based on a costly fine grid-search procedure, making the computational cost of the method a real issue. In this context, several modifications and optimizations have been proposed to improve its performance and applicability. An effective strategy that extends the conventional SRP-PHAT functional is presented in this thesis. This approach performs a full exploration of the sampled space rather than computing the SRP at discrete spatial positions, increasing its robustness and allowing for a coarser spatial grid that reduces the computational cost required in a practical implementation with a small hardware cost (reduced number of microphones). This strategy allows to implement real-time applications based on location information, such as automatic camera steering or the detection of speech/non-speech fragments in advanced videoconferencing systems. As stated before, besides the contributions related to SSL, this thesis is also related to the field of ASR. This technology allows a computer or electronic device to identify the words spoken by a person so that the message can be stored or processed in a useful way. ASR is used on a day-to-day basis in a number of applications and services such as natural human-machine interfaces, dictation systems, electronic translators and automatic information desks. However, there are still some challenges to be solved. A major problem in ASR is to recognize people speaking in a room by using distant microphones. In distant-speech recognition, the microphone does not only receive the direct path signal, but also delayed replicas as a result of multi-path propagation. Moreover, there are multiple situations in teleconferencing meetings when multiple speakers talk simultaneously. In this context, when multiple speaker signals are present, Sound Source Separation (SSS) methods can be successfully employed to improve ASR performance in multi-source scenarios. This is the motivation behind the training method for multiple talk situations proposed in this thesis. This training, which is based on a robust transformed model constructed from separated speech in diverse acoustic environments, makes use of a SSS method as a speech enhancement stage that suppresses the unwanted interferences. The combination of source separation and this specific training has been explored and evaluated under different acoustical conditions, leading to improvements of up to a 35% in ASR performance. / Martí Guerola, A. (2013). Multichannel audio processing for speaker localization, separation and enhancement [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/33101
155

A Novel Approach to Label-Free Biosensors Based on Photonic Bandgap Structures

García Castelló, Javier 07 February 2014 (has links)
The necessity of using extremely high sensitivity biosensors in certain research areas has remarkably increased during the last two decades. Optical structures, where light is used to transduce biochemical interactions into optical signals, are a very interesting approach for the development of this type of biosensors. Within optical sensors, photonic integrated architectures are probably the most promising platform to develop novel lab-on-a-chip devices. Such planar structures exhibit an extremely high sensitivity, a significantly reduced footprint and a high multiplexing potential for sensing applications. Furthermore, their compatibility with CMOS processes and materials, such as silicon, opens the route to mass production, thus reducing drastically the cost of the final devices. Optical sensors achieve their specificity and label-free operation by means of a proper chemical functionalization of their surfaces. The selective attachment of the receptors allows the detection of the target analytes within a complex matrix. This PhD Thesis is focused on the development of label-free photonic integrated sensors in which the detection is based on the interaction of the target analytes with the evanescent field that travels along the structures. Herein, we studied several photonic structures for sensing purposes, such as photonic crystals and ring resonators. Photonic crystals, where their periodicity provokes the appearance of multiple back and forth reflections, exhibits the so-called slow-light phenomenon that allows an increase of the interaction between the light and the target matter. On the other hand, the circulating nature of the resonant modes in a ring resonator offers a multiple interaction with the matter near the structure, providing a longer effective length. We have also proposed a novel approach for the interrogation of photonic bandgap sensing structures where simply the output power needs to measured, contrary to current approaches based on the spectral interrogation of the photonic structures. This novel technique consists on measuring the overlap between a broadband source and the band edge from a SOI-based corrugated waveguide, so that we can determine indirectly its spectral position in real-time. Since there is no need to employ tunable equipment, we obtain a lighter, simpler and a cost-effective platform, as well as a real-time observation of the molecular interactions. The experimental demonstration with antibody detection measurements has shown the potential of this technique for sensing purposes / García Castelló, J. (2014). A Novel Approach to Label-Free Biosensors Based on Photonic Bandgap Structures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/35398
156

"Preludio a Borís", "Aquarelle" y "Liebestod": La evocación de la música del pasado desde una síntesis de corrientes compositivas actuales

Fontcuberta Llavata, Carlos 03 June 2014 (has links)
El proyecto consiste en la realización de una investigación basada en la práctica artística en el ámbito de la composición musical. A partir del estudio de diversas corrientes compositivas actuales, se desarrollará un enfoque compositivo propio que será aplicado a la composición de tres obras musicales para formaciones instrumentales diversas. Dicho enfoque consistirá en la articulación y sistematización de una relación con la música del pasado a partir del uso de técnicas y procedimientos musicales recientes, no a través del collage o la cita temática, sino por medio del uso de un material ligado esencialmente al timbre y que, decididamente alejado de la sintaxis musical tradicional, posea sin embargo la capacidad de evocar sin esfuerzo el colorido armónico asociado a una música del repertorio tradicional. Para ello se recurrirá a la creación de un sistema armónico propio, responsable de la integración de armonías de procedencia diversa en un contexto sonoro nuevo, así como de contribuir al enriquecimiento de la dimensión vertical de la música. Su aplicación será uno de los aspectos más relevantes de todo el planteamiento compositivo, y por ello justamente, también uno de los más necesitados de evaluación en la investigación. La viabilidad y efectividad del enfoque compositivo propuesto constituirá la hipótesis de partida de la investigación. En este contexto serán compuestas las obras "Preludio a Borís (In memoriam Modest Mussorgsky)", para 8 instrumentos, "Aquarelle", para orquesta de cámara, y "Liebestod (Barcarola para orquesta)", en las que a través de una evocación de tipo armónico se aludirá respectivamente a la ópera "Borís Godunov" de M. Mussorgsky, el ciclo de canciones "Ariettes Oubliées" de C. Debussy y la ópera "Tristán e Isolda" de R. Wagner. La valoración de los resultados obtenidos a través de la composición de estas obras permitirá la verificación de la validez del enfoque compositivo desarrollado. / Fontcuberta Llavata, C. (2014). "Preludio a Borís", "Aquarelle" y "Liebestod": La evocación de la música del pasado desde una síntesis de corrientes compositivas actuales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37887
157

Optical Orthogonal Frequency Division Multiplexed communication systems: analysis, design and optimization

Sánchez Costa, Christian 03 September 2014 (has links)
En este trabajo se realiza una intensiva labor teórica de descripción de sistemas de comunicaciones ópticas que utilizan la técnica de multiplexación por división de frecuencias ortogonales (OFDM en inglés), más concretamente en sistemas con modulación directa de la intensidad de un láser y detección directa. Se parte pues de un modelo analítico que estudia con detalle todos aquellos fenómenos que afectan a la señal de información detectada en el receptor. Tales fenómenos son: la nolinealidad del láser, las modulaciones de intensidad y de fase ópticas, la propagación a través de la fibra óptica teniendo en cuenta la dispersión cromática de primer orden, y la detección de intensidad óptica final mediante un detector de ley cuadrática. El modelo analítico es validado mediante comparaciones con resultados obtenidos a través de simulaciones con software comercial. Dada la característica singularidad de las señales OFDM debidas a su naturaleza multi-portadora, la amplitud de la señal generada es aleatoria, y el modelo analítico es complementado con un estudio que contempla el recorte o "clipping" en el transmisor. Además, se tiene en cuenta los efectos de filtrado de la señal a lo largo de sistema de comunicaciones. Con el trabajo analítico realizado se está en disposición de realizar una descripción bastante completa de los principales fenómenos y realizar estudios para evaluar el funcionamiento final ante diferentes valores de los parámetros del sistema. Es bien sabido que los sistemas de comunicaciones ópticas con modulación y detección directa se ven perjudicados por la distorsión no lineal, que para señales multi-portadora como OFDM se traduce en la mezcla de los símbolos de información que transportan las diferentes subportadoras. Para mitigar la distorsión no lineal y así mejorar el funcionamiento del sistema, se propone el uso de una técnica de pre-distorsión que se basa en el modelo analítico previamente propuesto. Esta técnica mejora la eficiencia de modulación, haciendo posible incrementar el término de la señal de información sin que se vea incrementada la distorsión no lineal en el receptor. La técnica aquí propuesta se compara también con otra ya publicada con el objetivo de evaluar su funcionamiento. Otra técnica para la mejora de sistemas con modulación y detección directas es la realizada mediante filtrado óptico. Aunque se conoce de forma más o menos intuitiva su funcionamiento para formatos de modulación ópticos tradicionales, es preciso disponer de una formulación matemática para señales ópticas OFDM para entender de forma exacta su principio de operación, las mejoras obtenidas, así como su potencial. En esta estapa se realiza esta formulación matemática ampliando el análisis teórico previamente propuesto, y se aplica para evaluar el funcionamiento obtenido con diversas estructuras de filtrado óptico. Finalmente, puesto que un potencial escenario de funcionamiento para señales ópticas OFDM son las redes de acceso donde operan más de un usuario, se propone y se estudia la técnica "interleaving division multiple access" (IDMA) en combinación con OFDM. / Sánchez Costa, C. (2014). Optical Orthogonal Frequency Division Multiplexed communication systems: analysis, design and optimization [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/39375
158

Intervenciones basadas en realidad virtual para el entrenamiento de las estrategias de equilibrio en sujetos crónicos con daño cerebral adquirido

Llorens Rodríguez, Roberto 03 November 2014 (has links)
El equilibrio se define como el estado en el cual el centro de gravedad (CDG) del cuerpo se encuentra dentro de los límites de estabilidad. La gestión del equilibrio es un claro ejemplo del control motor humano, donde la información sensorial es procesada por el sistema nervioso central para generar la actividad muscular adecuada para producir los mecanismos de anticipación y/o compensación que preserven este estado. El equilibrio tiene una gran implicación en las actividades de la vida diaria, por lo que es fundamental para la independencia de los pacientes. Se define como daño cerebral adquirido (DCA) a toda aquella lesión que afecte a un cerebro sano hasta el momento del daño. El DCA es una de las patologías de mayor incidencia y prevalencia, siendo los ictus y los traumatismos craneoencefálicos una de las causas de mortalidad e incapacidad más elevadas de los países desarrollados. Las consecuencias de un DCA son muy heterogéneas tanto en intensidad como en naturaleza, por lo que cada paciente representa un único ejemplo de la patología. Desde el punto de vista motor, la lesión puede dañar las estructuras involucradas tanto en la transmisión como el procesamiento de la información impidiendo que se generen las eferencias adecuadas que controlen las respuestas motoras. Consecuencias como la hemiparesis (debilidad en un lado del cuerpo) son muy frecuentes y tienen un efecto devastador en el equilibrio de los pacientes. Estudios recientes han demostrado que lejos de tener un carácter estático, el cerebro está en constante cambio. Los mecanismos de plasticidad cerebral posibilitan que las neuronas vecinas a una zona dañada tras un DCA puedan adquirir parte de la función que éstas tenían. Las estrategias de neurorrehabilitación actuales pretenden desde un punto de vista holístico, aprovechar los mecanismos de plasticidad cerebral y aprendizaje motor humano para recuperar o compensar las funciones perdidas. Uno de los primeros objetivos desde el punto de vista fisioterapéutico es la recuperación jerárquica del equilibrio y el control postural. La realidad virtual (RV) se define como la sustitución de estímulos reales en los canales sensoriales por estímulos sintéticos. De esta manera es posible sumergir a los usuarios en entornos virtuales que proporcionen experiencias similares a las reales pero modificadas con un determinado objetivo. Existe un creciente número de estudios que reportan los beneficios derivados del uso de RV en rehabilitación, lo cual se conoce como rehabilitación virtual (RHBV). La RHBV ha demostrado proporcionar beneficios frente a las terapias convencionales, permitiendo inducir una reorganización cortical que maximice la mejoría locomotora. Las técnicas de valoración del equilibrio permiten cuantificar el estado de los pacientes que han sufrido un DCA. Las escalas clínicas tradicionales proporcionan información funcional de dicha capacidad. Los estudios posturográficos mediante plataformas de fuerzas intentar cuantificar las respuestas del CDG en determinadas condiciones. La hipótesis de este trabajo es: por una parte, que es posible proporcionar mejorías clínicas significativas a pacientes con DCA frente a terapias convencionales mediante el uso de RV; por otra parte, que es posible cuantificar el equilibrio de dichos pacientes mediante técnicas de análisis de señal aplicadas al CDG; y de manera transversal, que los sistemas de interacción de bajo coste que se utilizarán en las verificaciones de estas hipótesis tienen un funcionamiento comparable a los dispositivos tradicionales. / Llorens Rodríguez, R. (2014). Intervenciones basadas en realidad virtual para el entrenamiento de las estrategias de equilibrio en sujetos crónicos con daño cerebral adquirido [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/43772 / Premios Extraordinarios de tesis doctorales
159

Evaluation of precoding and feedback quantization schemes for multiuser communications systems

Domene Oltra, Fernando 13 February 2015 (has links)
Los sistemas de comunicaciones con múltiples antenas o sistemas MIMO (multiple-input multiple-output) se presentan como una de las tecnologías más prometedoras en el campo de las comunicaciones inalámbricas, ya que permiten aprovechar la dimensión espacial además de las dimensiones de frecuencia y tiempo. De esta forma, se pueden obtener tasas de transmisión más elevadas usando el mismo ancho de banda, que es un recurso escaso, y manteniendo una potencia de transmisión baja, lo cual es crucial para dispositivos alimentados por baterías. Por estas razones, la tecnología MIMO ha sido adoptada en muchos estándares como Long-Term Evolution (LTE), LTE Advanced y Worldwide Interoperability for Microwave Access (WiMAX). Las técnicas MIMO también pueden se pueden emplear en un escenario multiusuario, donde varios usuarios comparten la dimensión espacial provocando una interferencia multiusuario. A través de la precodificación y del uso de múltiples antenas en el transmisor, la señal de los diferentes usuarios puede ser multiplexada espacialmente de forma que se mitigue la interferencia multiusuario incluso con usuarios de una sola antena. Estos sistemas, conocidos como sistemas MU-MISO (multiuser multiple-input single-output), han atraído mucho la atención en los últimos años ya que permiten el desarrollo de terminales pequeños y baratos, manteniendo así el equipamiento más caro en el transmisor. Sin embargo, estos beneficios conllevan un sistema más complejo. Por una parte, el multiplexado espacial requiere una carga de procesado considerable, que depende del tamaño del sistema: número de antenas transmisoras, número de receptores y ancho de banda. Por otra parte, las técnicas MIMO requieren un conocimiento del canal en transmisión o CSIT (channel state information at the transmitter) preciso. En sistemas con duplexación por división en frecuencia o FDD (frequency-division duplex), la información de canal o CSI (channel state information) debe ser estimada en el receptor y proporcionada al transmisor a través del enlace de realimentación, reduciendo así la eficiencia del sistema. Por lo tanto, esta tesis se centra en la mejora de la eficiencia de las implementaciones de precodificación y en el rendimiento de los esquemas de realimentación de canal en sistemas MU-MISO. El problema de la precodificación se aborda en primer lugar. Se ha llevado a cabo un análisis de algunas de las técnicas de precodificación más usadas, prestando especial atención a su rendimiento y a su complejidad. Este análisis revela que aquellas técnicas que hacen uso de lattice reduction (LR) obtienen un mejor rendimiento. Sin embargo, la complejidad computacional de la técnica LR dificulta su implementación en la práctica. El análisis también revela que las técnicas zero-forcing (ZF), Tomlinson-Harashima precoding (THP) y LR-THP son las técnicas más adecuadas para cubrir todo el rango de rendimiento y complejidad computacional. Asimismo, se ha llevado a cabo un análisis de estas técnicas bajo CSIT imperfecto. Dicho análisis ha demostrado que LR es una técnica muy importante también para el caso de CSIT imperfecto. A continuación, se han presentado implementaciones paralelas de técnicas de precodificación sobre unidades de procesamiento gráfico o GPUs (graphic processing unit), comparándose con implementaciones en unidades de procesamiento central o CPU (central processing unit). Dado que las implementaciones de THP y LR-THP han demostrado ser las que mejor se adaptan a la arquitectura de la GPU y ya que tienen muchas operaciones comunes, se ha propuesto una implementación sobre GPU de un esquema THP reconfigurable combinado con LR. La reconfigurabilidad de las GPUs permite desactivar la etapa de LR cuando los requisitos de los usuarios están garantizados por el esquema THP, combinando complejidad computacional con rendimiento. Aunque esta implementación consigue una mejora significativa respecto a la implementación sobre CPU, su paralelismo viene limitado por la naturaleza secuencial del problema LR. Por ello, se han propuesto varias estrategias para la paralelización del problema LR que han sido evaluadas en distintas plataformas: CPU multi-núcleo, GPU y plataforma heterogénea que consiste en CPU+GPU. Los resultados revelan que la arquitectura GPU permite reducir considerablemente el tiempo de computación del problema LR, especialmente en la plataforma heterogénea. La segunda parte de la tesis trata el problema de la realimentación de canal en sistemas FDD. En estos sistemas, los receptores normalmente proporcionan una versión cuantificada del canal a través del canal de realimentación. Con el objetivo de mantener una eficiencia alta, el canal debe ser cuantificado con los mínimos bits posibles. En primer lugar, se explora el uso de la correlación en frecuencia para reducir el volumen de información de realimentación. Se han presentado dos esquemas diferentes basados en cuantificación vectorial o VQ (vector quantization) y en la transformación Karhunen-Loève, respectivamente, y se han comparado con esquemas existentes en términos de rendimiento y complejidad computacional. Los resultados muestran que ambas técnicas son capaces de reducir significativamente el volumen de información de realimentación aprovechando la correlación en frecuencia. Finalmente, la correlación espacial también se aprovecha para reducir la información de realimentación. Se ha presentado una caracterización espacial estadística del modelo de canal SCM (spatial channel model) del 3GPP (3rd Generation Partnership Project) para un entorno de alta correlación. Basado en esta caracterización, se propone un esquema de cuantificación de canal para entornos de alta correlación. Con el objetivo de obtener una caracterización para alta y baja correlación, se considera un modelo de correlación más sencillo como el modelo de Kronecker. Basado en esta caracterización, se proponen dos esquemas de cuantificación y se evalúan con un modelo de canal realista como el SCM. Los resultados muestran que ambos esquemas son capaces de reducir la información de realimentación en ambientes con correlación alta y moderada. / Multiple-input multiple-output (MIMO) communication systems have emerged as one of the most promising technologies in the field of wireless communications, allowing to exploit the spatial dimension as well as the time and frequency dimensions. Thus, higher rates can be obtained by using the same bandwidth, which is a scarce resource, and keeping a low transmit power, which is crucial in battery-operated devices. For these reasons, MIMO technologies have been adopted by many standards such as Long-Term Evolution (LTE), LTE advanced (LTE-A) and Worldwide Interoperability for Microwave Access (WiMAX). MIMO techniques can also be used in a multiuser scenario, where several usersshare the spatial dimension causing multiuser interference. By means of precoding and the use of multiple antennas at the transmitter, the signal of the different users can be spatially multiplexed so that multiuser interference is mitigated even for single-antenna users. These systems, known as multiuser multiple-input singular-output (MU-MISO) systems, have attracted much attention in recent years since they allow the development of small and inexpensive terminals, keeping the most expensive hardware at the transmitter. However, these benefits come at the cost of having a more complex system. On the one hand, spatial multiplexing requires a considerable processing load that depends on the size of the system: number of transmit antennas, number of receivers and bandwidth. On the other hand, MIMO techniques require accurate channel state information at the transmitter (CSIT). In frequency-division duplex (FDD) systems, channel state information (CSI) has to be estimated at the receiver and provided to the transmitter through the feedback link, hence reducing the efficiency of the system. Therefore, this thesis is primarily focused on improving the efficiency of precoding implementations and the performance of feedback schemes in MU-MISO systems. First, the problem of precoding is addressed. An analysis of some of the most utilized precoding techniques is conducted, paying special attention to their performance and computational complexity. The analysis reveals that those techniques that make use of lattice reduction (LR) achieve the best performance. However, the computational complexity of LR makes its implementation difficult for practical systems. The analysis reveals that zero-forcing (ZF), Tomlinson-Harashima precoding (THP) and lattice reduction Tomlinson-Harashima precoding (LR-THP) are the most suitable techniques for covering the entire range of performance and computational complexity. An analysis of these techniques with imperfect CSIT has also been performed. In this analysis, LR has proven to be a key technique also when imperfect CSIT is available. Next, parallel implementations of the precoding techniques on a graphic processing unit (GPU) are presented and compared to implementations that use a central processing unit (CPU). Since the implementations of THP and LR-THP have shown to best fit the GPU architecture and since they also share many operations, a GPU implementation of a reconfigurable THP scheme combined with LR has been proposed. The reconfigurable nature of GPUs allows gating the LR stage off when the user requirements are sufficiently guaranteed by the THP scheme, trading computational cost and performance. Although this implementation achieves a significant speed-up compared to its CPU implementation, its parallelism is limited by the sequential nature of LR. Therefore, several strategies for the parallelization of the LR problem are proposed and evaluated on different platforms: multicore CPU, GPU and a heterogeneous platform consisting of CPU+GPU. Results reveal that a GPU architecture allows a considerable reduction of the computational time of the LR problem, especially in the heterogeneous platform. The second part of this thesis addresses the problem of feedback in FDD systems. In these systems, a quantized version of the channel is usually provided by the receivers through the feedback link. In order to keep a high efficiency, the channel must be quantized using as few bits as possible. First, the use of the frequency correlation to reduce the feedback information is explored. Two different schemes based on vector quantization (VQ) and the Karhunen-Loève (KL) transform, respectively, are presented and compared with existing schemes in terms of performance and complexity. Results show that both techniques are able to significantly reduce the feedback overhead by taking advantage of the frequency correlation. Finally, the spatial correlation is leveraged to reduce the feedback information. A spatial statistical characterization of the spatial channel model (SCM) from the 3rd Generation Partnership Project (3GPP) for a highly correlated environment is presented. Based on this characterization, a channel quantization scheme for highly correlated environments is proposed. In order to obtain a statistical characterization for both high and low correlations, a simpler model such as the Kronecker correlation model is considered. Based on this characterization, two quantization schemes have been presented and evaluated using a realistic channel model such as the SCM. Results show that both schemes are able to reduce the feedback overhead in highly and moderately correlated scenarios. / Domene Oltra, F. (2015). Evaluation of precoding and feedback quantization schemes for multiuser communications systems [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/46971
160

New Insights in Prediction and Dynamic Modeling from Non-Gaussian Mixture Processing Methods

Safont Armero, Gonzalo 29 July 2015 (has links)
[EN] This thesis considers new applications of non-Gaussian mixtures in the framework of statistical signal processing and pattern recognition. The non-Gaussian mixtures were implemented by mixtures of independent component analyzers (ICA). The fundamental hypothesis of ICA is that the observed signals can be expressed as a linear transformation of a set of hidden variables, usually referred to as sources, which are statistically independent. This independence allows factoring the original M-dimensional probability density function (PDF) of the data as a product of one-dimensional probability densities, greatly simplifying the modeling of the data. ICA mixture models (ICAMM) provide further flexibility by alleviating the independency requirement of ICA, thus allowing the model to obtain local projections of the data without compromising its generalization capabilities. Here are explored new possibilities of ICAMM for the purposes of estimation and classification of signals. The thesis makes several contributions to the research in non-Gaussian mixtures: (i) a method for maximum-likelihood estimation of missing data, based on the maximization of the PDF of the data given the ICAMM; (ii) a method for Bayesian estimation of missing data that minimizes the mean squared error and can obtain the confidence interval of the prediction; (iii) a generalization of the sequential dependence model for ICAMM to semi-supervised or supervised learning and multiple chains of dependence, thus allowing the use of multimodal data; and (iv) introduction of ICAMM in diverse novel applications, both for estimation and for classification. The developed methods were validated via an extensive number of simulations that covered multiple scenarios. These tested the sensitivity of the proposed methods with respect to the following parameters: number of values to estimate; kinds of source distributions; correspondence of the data with respect to the assumptions of the model; number of classes in the mixture model; and unsupervised, semi-supervised, and supervised learning. The performance of the proposed methods was evaluated using several figures of merit, and compared with the performance of multiple classical and state-of-the-art techniques for estimation and classification. Aside from the simulations, the methods were also tested on several sets of real data from different types: data from seismic exploration studies; ground penetrating radar surveys; and biomedical data. These data correspond to the following applications: reconstruction of damaged or missing data from ground-penetrating radar surveys of historical walls; reconstruction of damaged or missing data from a seismic exploration survey; reconstruction of artifacted or missing electroencephalographic (EEG) data; diagnosis of sleep disorders; modeling of the brain response during memory tasks; and exploration of EEG data from subjects performing a battery of neuropsychological tests. The obtained results demonstrate the capability of the proposed methods to work on problems with real data. Furthermore, the proposed methods are general-purpose and can be used in many signal processing fields. / [ES] Esta tesis considera nuevas aplicaciones de las mezclas no Gaussianas dentro del marco de trabajo del procesado estadístico de señal y del reconocimiento de patrones. Las mezclas no Gaussianas fueron implementadas mediante mezclas de analizadores de componentes independientes (ICA). La hipótesis fundamental de ICA es que las señales observadas pueden expresarse como una transformación lineal de un grupo de variables ocultas, normalmente llamadas fuentes, que son estadísticamente independientes. Esta independencia permite factorizar la función de densidad de probabilidad (PDF) original M-dimensional de los datos como un producto de densidades unidimensionales, simplificando ampliamente el modelado de los datos. Los modelos de mezclas ICA (ICAMM) aportan una mayor flexibilidad al relajar el requisito de independencia de ICA, permitiendo que el modelo obtenga proyecciones locales de los datos sin comprometer su capacidad de generalización. Aquí se exploran nuevas posibilidades de ICAMM para los propósitos de estimación y clasificación de señales. La tesis realiza varias contribuciones a la investigación en mezclas no Gaussianas: (i) un método de estimación de datos faltantes por máxima verosimilitud, basado en la maximización de la PDF de los datos dado el ICAMM; (ii) un método de estimación Bayesiana de datos faltantes que minimiza el error cuadrático medio y puede obtener el intervalo de confianza de la predicción; (iii) una generalización del modelo de dependencia secuencial de ICAMM para aprendizaje supervisado o semi-supervisado y múltiples cadenas de dependencia, permitiendo así el uso de datos multimodales; y (iv) introducción de ICAMM en varias aplicaciones novedosas, tanto para estimación como para clasificación. Los métodos desarrollados fueron validados mediante un número extenso de simulaciones que cubrieron múltiples escenarios. Éstos comprobaron la sensibilidad de los métodos propuestos con respecto a los siguientes parámetros: número de valores a estimar; tipo de distribuciones de las fuentes; correspondencia de los datos con respecto a las suposiciones del modelo; número de clases en el modelo de mezclas; y aprendizaje supervisado, semi-supervisado y no supervisado. El rendimiento de los métodos propuestos fue evaluado usando varias figuras de mérito, y comparado con el rendimiento de múltiples técnicas clásicas y del estado del arte para estimación y clasificación. Además de las simulaciones, los métodos también fueron probados sobre varios grupos de datos de diferente tipo: datos de estudios de exploración sísmica; exploraciones por radar de penetración terrestre; y datos biomédicos. Estos datos corresponden a las siguientes aplicaciones: reconstrucción de datos dañados o faltantes de exploraciones de radar de penetración terrestre de muros históricos; reconstrucción de datos dañados o faltantes de un estudio de exploración sísmica; reconstrucción de datos electroencefalográficos (EEG) dañados o artefactados; diagnóstico de desórdenes del sueño; modelado de la respuesta del cerebro durante tareas de memoria; y exploración de datos EEG de sujetos durante la realización de una batería de pruebas neuropsicológicas. Los resultados obtenidos demuestran la capacidad de los métodos propuestos para trabajar en problemas con datos reales. Además, los métodos propuestos son de propósito general y pueden utilizarse en muchos campos del procesado de señal. / [CA] Aquesta tesi considera noves aplicacions de barreges no Gaussianes dins del marc de treball del processament estadístic de senyal i del reconeixement de patrons. Les barreges no Gaussianes van ser implementades mitjançant barreges d'analitzadors de components independents (ICA). La hipòtesi fonamental d'ICA és que els senyals observats poden ser expressats com una transformació lineal d'un grup de variables ocultes, comunament anomenades fonts, que són estadísticament independents. Aquesta independència permet factoritzar la funció de densitat de probabilitat (PDF) original M-dimensional de les dades com un producte de densitats de probabilitat unidimensionals, simplificant àmpliament la modelització de les dades. Els models de barreges ICA (ICAMM) aporten una major flexibilitat en alleugerar el requeriment d'independència d'ICA, permetent així que el model obtinga projeccions locals de les dades sense comprometre la seva capacitat de generalització. Ací s'exploren noves possibilitats d'ICAMM pels propòsits d'estimació i classificació de senyals. Aquesta tesi aporta diverses contribucions a la recerca en barreges no Gaussianes: (i) un mètode d'estimació de dades faltants per màxima versemblança, basat en la maximització de la PDF de les dades donat l'ICAMM; (ii) un mètode d'estimació Bayesiana de dades faltants que minimitza l'error quadràtic mitjà i pot obtenir l'interval de confiança de la predicció; (iii) una generalització del model de dependència seqüencial d'ICAMM per entrenament supervisat o semi-supervisat i múltiples cadenes de dependència, permetent així l'ús de dades multimodals; i (iv) introducció d'ICAMM en diverses noves aplicacions, tant per a estimació com per a classificació. Els mètodes desenvolupats van ser validats mitjançant una extensa quantitat de simulacions que cobriren múltiples situacions. Aquestes van verificar la sensibilitat dels mètodes proposats amb respecte als següents paràmetres: nombre de valors per estimar; mena de distribucions de les fonts; correspondència de les dades amb respecte a les suposicions del model; nombre de classes del model de barreges; i aprenentatge supervisat, semi-supervisat i no-supervisat. El rendiment dels mètodes proposats va ser avaluat mitjançant diverses figures de mèrit, i comparat amb el rendiments de múltiples tècniques clàssiques i de l'estat de l'art per a estimació i classificació. A banda de les simulacions, els mètodes van ser verificats també sobre diversos grups de dades reals de diferents tipus: dades d'estudis d'exploració sísmica; exploracions de radars de penetració de terra; i dades biomèdiques. Aquestes dades corresponen a les següents aplicacions: reconstrucció de dades danyades o faltants d'estudis d'exploracions de radar de penetració de terra sobre murs històrics; reconstrucció de dades danyades o faltants en un estudi d'exploració sísmica; reconstrucció de dades electroencefalogràfiques (EEG) artefactuades o faltants; diagnosi de desordres de la son; modelització de la resposta del cervell durant tasques de memòria; i exploració de dades EEG de subjectes realitzant una bateria de tests neuropsicològics. Els resultats obtinguts han demostrat la capacitat dels mètodes proposats per treballar en problemes amb dades reals. A més, els mètodes proposats són de propòsit general i poden fer-se servir en molts camps del processament de senyal. / Safont Armero, G. (2015). New Insights in Prediction and Dynamic Modeling from Non-Gaussian Mixture Processing Methods [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/53913

Page generated in 0.0399 seconds