• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 11
  • 5
  • 1
  • Tagged with
  • 30
  • 9
  • 9
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[pt] ANÁLISE DO PROCESSO DE CIMENTAÇÃO NA PRESENÇA DE PERDA DE FILTRADO / [en] CEMENTING PROCESS IN THE PRESENCE OF FLUID LOSS

SERGIO SANTIAGO RIBEIRO 18 January 2021 (has links)
[pt] O presente estudo tem como objetivo investigar o processo de cimentação de poços de petróleo, na presença de zonas de perda de filtrado. Um aparato experimental foi projetado, construido e operado com o objetivo de simular a cimentação de um poço de petróleo. Com diâmetros característicos dos poços reais, esse simulador permite que o processo de cura da coluna de cimento seja monitorado com condições controladas. O aparato consiste em uma coluna anular concêntrica com 8m de comprimento. A zona de perda de filtrado é modelada por uma parede semi-permeável, e todo poço é equipado com sensores de pressão e temperatura. Isso possibilita a investigação dos mecanismos de cura da pasta de cimento, bem como o impacto da perda de filtrado na evolução do perfil de pressão. Para tentar prever esse comportamento, um modelo numérico 2D de Elementos Finitos foi proposto e implementado em Python, utilizando bibliotecas pré-compiladas de código aberto denominadas FEniCs. As equações de conservação de massa e momento são resolvidas para obter os campos de velocidade e pressão. A mistura da pasta de cimento é considerada um fluido incompressível e composta de duas espécies químicas: a fase aquósa(ou filtrado) e o cimento dissolvido. O transporte de massa é modelado usando a equação de advecção-difusão, e a pasta é modelada como um fluido viscoplástico que sofre redução volumétrica com a cura. Finalmente, os resultados das simulações foram confrontados com os dados experimentais obtidos, e uma boa concordância foi observada. Uma investigação adicional foi realizada no modelo numérico, através de uma análise de sensibilidade individual dos parâmetros de entrada e seu respectivo impacto na queda de pressão. Para o regime de taxas de cisalhamento avaliados, os resultados indicaram uma forte dependência entre a evolução do perfil de pressão e o tempo de cura, a magnitude da vazão de filtrado e o patamar newtoniano da viscosidade. / [en] This thesis aims to investigate the cementing process of an oil well in presence of a filtrate loss zone. An experimental setup was designed, built and operated to simulate an annular well field-like geometry where cement would cure under controlled conditions. This well simulator consisted of an 8m concentric annular column with a section of semi-permeable external wall, equipped with pressure and temperature sensors. It allows the investigation of the cementing cure mechanisms, as well as the impact of the fluid loss zone in the pressure drop behavior. In order to predict this behavior on real oil wells, a 2D transient numerical model is proposed. A finite element model was implemented in Python with the aid of an open source library named FEniCs. Mass and momentum conservation equations are solved to obtain the pressure and velocity fields, and the cement mixture is considered an incompressible single-phase mixture composed of two chemical species: the filtrate and the dissolved cement. Mass transport is modeled with an advection-diffusion equation and dissolved cement species is modeled as a viscoplastic fluid with shrinkage. Finally, the simulation results were confronted with the experimental data, and a good agreement was observed. Further investigation of numerical model parameters was performed, and a sensitivity analysis evaluated individual influence of those parameters in the pressure drop. The results indicate that pressure profile evolution has a strong dependency on thickening time, fluid loss flow rate magnitude and the Newtonian viscosity plateau for the evaluated shear rate regimen.
22

MODELIZACIÓN DE LOS NIVELES DE SERVICIO EN AUTOPISTAS EN TIEMPO PRESENTE PARA LA GESTIÓN DINÁMICA DEL TRÁFICO

Belda Esplugues, Enrique 09 January 2012 (has links)
Tiene como objetivo principal la definición de una nueva metodología de modelización en tiempo presente de los niveles de servicio en autopistas mediante la utilización de la información proporcionada por los sensores actualmente instalados en carretera. Se pretende que esta modelización puedar ser utilizada por los sistemas de gestión de tráfico, para obtener una caracterización más ajustada de los niveles de servicio. Esta caracterización mejorará la de gestión del tráfico, ya que la determinación de los niveles de servicio en tiempo presente ayudará a la toma de decisiones para la actividación de las medidas de gestión de tráfico. La investigación se ha basado en la hipótesis fundamental de que los seis niveles de servicio definidos en el Manual de Capacidad (HCM2000), no se consideran adecuados para la gestión dinámica del tráfico por dos razones fundamentales: a)la metodología es totalmente estática y está orientada al dimensionamiento de las redes viarias y b)que entre algunos nivels de servicio no existen variaciones significativas en las condiciones de circulación. En el desarrollo del trabajo se distinguen dos fases. La primera consiste en una fase de reducción de datos. Esta reducción se ha basado en un análisis de la calidad de datos obtenidos por las estaciones de monitorización, basadas en espiras. El resultado de la reducción ha consistido en la creación de un conjunto de filtros para la depuración de los datos que garantice la calidad de los mismos. En la segunda fase se lleva a cabo la propuesta y análisis de diferentes métodos para la obtención del cálculo de nivel de servicio. / Belda Esplugues, E. (2011). MODELIZACIÓN DE LOS NIVELES DE SERVICIO EN AUTOPISTAS EN TIEMPO PRESENTE PARA LA GESTIÓN DINÁMICA DEL TRÁFICO [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14274 / Palancia
23

Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore

Sánchez Cervantes, María Guadalupe 15 May 2013 (has links)
En esta tesis se aborda la eliminaci'on de ruido impulsivo, gaussiano y speckle en im'agenes a color y en escala de gises. Como caso particular se puede mencionar la eliminaci'on de ruido en im'agenes m'edicas. Algunos m'etodos de filtrado son costosos computacionalmente y m'as a'un, si las im'agenes son de gran tama¿no. Con el fin de reducir el coste computacional de dichos m'etodos, en esta tesis se utiliza hardware que soporta procesamiento paralelo, como lo son los cores CPU con procesadores multicore y GPUs con procesadores manycore.En las implementaciones paralelas en CUDA, se configuran algunas caracter'¿sticas con la finalidad de optimizar el procesamiento de la aplicaci'on en las GPUs. Esta tesis estudia por un lado, el rendimiento computacional obtenido en el proceso de eliminaci'on de ruido impulsivo y uniforme. Por otro lado, se eval'ua la calidad despu'es de realizar el proceso de filtrado. El rendimiento computacional se ha obtenido con la paralelizaci'on de los algoritmos en CPU y/o GPU. Para obtener buena calidad en la imagen filtrada, primero se detectan los p'¿xeles corruptos y luego son filtrados solo los p'¿xeles que se han detectado como corruptos. Por lo que respecta a la eliminaci'on de ruido gaussiano y speckle, el an'alisis del filtro difusivo no lineal ha demostrado ser eficaz para este caso. Los algoritmos que se utilizan para eliminar el ruido impulsivo y uniforme en las im'agenes, y sus implementaciones secuenciales y paralelas se han evaluado experimentalmente en tiempo de ejecuci'on (speedup) y eficiencia en tres equipos de c'omputo de altas prestaciones. Los resultados han mostrado que las implementaciones paralelas disminuyen considerablemente los tiempos de ejecuci'on secuenciales. Finalmente, en esta tesis se propone un m'etodo para reducir eficientemente el ruido en las im'agenes sin tener informaci'on inicial del tipo de ruido contenido en ellas. I / Sánchez Cervantes, MG. (2013). Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/28854 / TESIS
24

Análisis del flujo ambiental y propuesta metodológica para simulaciones CFD aplicadas a la ventilación natural de invernaderos

Granell Ruiz, Rafael 30 April 2014 (has links)
El cultivo protegido bajo invernadero tiene altos costes energéticos derivados de la ventilación forzada. En cambio, la ventilación natural puede ser una solución barata que reduzca el consumo energético. No obstante, un diseño que permita la ventilación natural del invernadero supone un reto debido a la complejidad del fenómeno físico. Frente a otros métodos de diseño, como los métodos experimentales o analíticos, en los últimos tiempos la dinámica de fluidos computacional (CFD por sus siglas en inglés) se ha convertido en la herramienta más utilizada para estudiar este tipo de fenómenos, gracias a su relativo bajo coste y a la rapidez en la obtención de resultados. No obstante, los modelos CFD deben refrendarse mediante validaciones realizadas a través de datos experimentales. Un análisis bibliográfico detallado del uso de la CFD aplicada a invernaderos muestra, en general, que los trabajos carecen de suficientes datos experimentales, seguramente debido al alto coste de los sensores para adquirirlos y la dificultad que conlleva el trabajo en condiciones de campo. Además, se observa que las simulaciones CFD en invernaderos no se realizan con un procedimiento sistematizado. Por ello, la presente tesis, por un lado describe un dispositivo y unos métodos sencillos y baratos para obtener datos atmosféricos, y por otro, propone una visión crítica sobre la investigación realizada hasta el momento, con el fin de sistematizar la manera de generar modelos CFD aplicados a la ventilación natural de invernaderos. Finalmente, la tesis se complementa con un ejemplo sobre un caso práctico. Para ello, en primer lugar, se realizó una revisión bibliográfica de las diferentes guías de buenas prácticas en diferentes campos de la tecnología principalmente en edificación, para sistematizar y adaptar las recomendaciones para generar modelos CFD en invernaderos. En segundo lugar, se desarrolló un sistema de adquisición de datos sencillo, consistente en una red de sensores, que permite medir simultáneamente la velocidad y dirección de viento en 20 puntos. Este sistema de sensores fue calibrado y probado en campo satisfactoriamente obteniendo una precisión similar a los anemómetros comerciales con un precio 30 veces superior. En tercer lugar, se generaron 24 modelos del flujo de aire alrededor del invernadero, resultantes de la combinación de cuatro modelos de turbulencia (k- ¿; RNG k-¿; k-¿ y RSM); dos esquemas de discretización (primer orden y segundo orden) y tres velocidades de viento exterior (3; 3,5 y 4 m/s) con el fin de analizar sus diferencias y demostrar sus ventajas e inconvenientes. Por este motivo, en cuarto lugar, se comprobó su capacidad de ajustarse a los datos de campo, validando los modelos con un análisis de regresión lineal sobre los datos experimentales. Con este estudió se reveló que los modelos SST k-¿ y el RSM (segundo orden) son los que mejor representan el flujo de ventilación y se demostró que el modelo k-¿ estándar (primer orden), el más utilizado en la bibliografía, no sólo ofrece resultados diferentes al resto de modelos, sino que su rendimiento es pobre para predecir el flujo de ventilación. / Granell Ruiz, R. (2014). Análisis del flujo ambiental y propuesta metodológica para simulaciones CFD aplicadas a la ventilación natural de invernaderos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37194 / TESIS
25

Analysis and enhancement of multiactuator panels for wave field synthesis reproduction

PUEO ORTEGA, BASILIO JAVIER 13 October 2008 (has links)
Esta tesis aborda el desarrollo y mejora de los altavoces de panel multiexcitados (MAPs) con particular importancia en su aplicación para la reproducción de síntesis de campo (WFS). Los altavoces MAPs pueden usarse como alternativa a las agrupaciones de altavoces dinámicos para WFS con ventajas adicionales. Sin embargo, puesto que los altavoces MAPs son paneles finitos que se excitan en varios puntos de su superficie, existen cuestiones estructurales y geométricas que deben ser tratadas para garantizar que todos los excitadores actúan uniformemente para crear una agrupación de altavoces válida para WFS. Este objetivo se acomete a través de un método para el análisis de la radiación del campo sonoro en el dominio espacio-temporal que ha sido propuesto y validado en esta tesis. De la presente investigación se desprenden diversas conclusiones. El método propuesto analiza las imperfecciones del campo sonoro por el submuestreo espacial en una representación gráfica que muestra la distribución de energía radiada en el espacio. Mediante un estudio comparativo entre altavoces MAPs de diferentes tamaños y agrupaciones de altavoces dinámicos, la principal conclusión que se desprende, con implicaciones prácticas, es que el campo creado por paneles de grandes dimensiones presenta menos imperfecciones que el de paneles pequeños equivalentes. El efecto del contorno del panel en la calidad del campo creado también se ha considerado al comparar varias condiciones de contorno con diversos materiales elásticos. La conclusión principal es la conveniencia de usar condiciones elásticas que pueden crear una tecnología viable de sujeción de paneles y que presentan una radiación acústica adecuada. Los bordes también afectan a la respuesta de los excitadores cercanos, que debe ser convenientemente ecualizada para obtener una respuesta similar a la de los excitadores centrales. / Pueo Ortega, BJ. (2008). Analysis and enhancement of multiactuator panels for wave field synthesis reproduction [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3347 / Palancia
26

Algoritmos de imagen y sonido digital con restricciones de tiempo real

Alventosa Rueda, Francisco Javier 28 February 2022 (has links)
[ES] En la actualidad, cada vez existen más y más tareas que necesitamos exportar y automatizar en dispositivos portables de bajo consumo que se alimentan de baterías, en los cuales es imprescindible realizar un uso "optimo" de la energía disponible con la finalidad de no drenarlas rápidamente.En la sección primera de esta tesis, "Filtros de señales de audio digital", "optimizamos" las implementaciones de diferentes filtros, tanto generales como específicos, para aplicaciones de sonido digital diseñados e implantados en plataformas basadas en las arquitecturas ARM®. Como filtros generales, trabajamos con los filtros FIR, IIR y Parallel IIR, siendo este tipo de filtros implementados a bajo nivel con instrucciones vectoriales NEON®. Finalmente, se implementa un filtro de separación de señales conocido como "Beamforming", el cual plantea después de su estudio, la problemática de realizar una factorización QR de una matriz relativamente grande en tiempo real, lo cual nos lleva a desarrollar diferentes técnicas de "aceleración" de los cálculos de la misma. En la segunda parte, "Rellenado de mapa de profundidad de una escena", describimos el proceso de rellenado de un mapa de profundidad de una escena capturada a partir del uso de la imagen RGB y de un mapa de profundidad disperso donde únicamente tenemos valores de profundidad en los bordes de los objetos que componen la escena. Estos algoritmos de "rellenado" del mapa de profundidad, también han sido diseñados e implantados en dispositivos basados en la arquitectura ARM®. / [CA] Actualment, cada vegada existixen més i més tasques que tenen la necessitat d'exportar i automatitzar a dispositius portables de baix consum que s'alimenten amb bateríes, als quals es imprescindible realitzar un ús "óptim" de l'energia disponible amb la finalitat de no drenar-les ràpidament. Part I: Filtres de senyals d'àudio digital En aquesta secció "optimitzarem" les implementacions de diferents filtres, tant generals com específics, empreats a aplicacions de so digital disenyats e implantats a plataformes basades a les arquitectures ARM®. Com a filtres generals, treballem amb els filtres FIR, IIR y Parallel IIR, sent aquests tipus de filtres implementats a baix nivell amb instruccions vectorials NEON®. Finalment, s'implementa un filtro de separació de senyals conegut com "Beamforming", el qual planteja després del seu estudi, la problem`atica de realitzar una factorizació QR d'una matriu relativament gran en temps real, i açó ens porta a desenvolupar diferents tècniques "d'acceleració" dels càlculs de la mateixa. Part II: Emplenat del mapa de profunditat d'una escena A la secció d'image per computador, descrivim el procés d'emplenat d'un mapa de profunditat d'una escena capturada fent servir l'image RGB i un mapa de profunditat dispers on únicament tenim valors de profunditat als bordes dels objetes que composen l'escena. Aquests algoritmes "d'emplenat" del mapa de profunditat, també han sigut disenyats e implantats a dispositius basats en l'arquitectura ARM®. / [EN] Currently, there are more and more tasks that we need to export and automate in low-consumption mobile devices that are powered by batteries, in which it is essential to make an "optimum" use of the available energy in order to do not drain them quickly. Part I: Filters of digital audio signals In this section we "optimize" the implementations of different filters, both general and specific, for digital sound applications designed and implemented on platforms based on the ARM®. As general filters, we work with the FIR, IIR and Parallel IIR filters, these types of filters being implemented at a low level with NEON®vector instructions. Finally, a signal separation filter known as "Beamforming" is implemented, which set out after its study, the problem of performing a QR factorization of a relatively large matrix in real time, which leads us to develop different techniques of "acceleration" of the calculations of it. Part II: Filling the depth map of a scene In the computer image section, we describe the process of filling in a depth map of a captured scene using RGB image and a sparse depth map where we only have depth values at the edges of the objects that make up the scene. These depth map "filling" algorithms have also been designed and implemented in devices based on the ARM® architecture. / Alventosa Rueda, FJ. (2022). Algoritmos de imagen y sonido digital con restricciones de tiempo real [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181573 / TESIS
27

[pt] DOIS ENSAIOS EM IDENTIFICAÇÃO FRACA EM MODELOS MACROECONÔMICOS / [en] TWO ESSAYS ON WEAK IDENTIFICATION IN MACROECONOMIC MODELS

MARCUS VINICIUS FERNANDES GOMES DE CASTRO 21 February 2020 (has links)
[pt] O problema de identificação fraca surge naturalmente em modelos macroeconômicos. Consequentemente, métodos de variáveis instrumentais produzem resultados enigmáticos de forma mais frequente do que seria empiricamente razoável. Neste trabalho, propomos dois novos métodos para tratar destas dificuldades, no que tange a duas das principais equações de modelos macro: a Curva de Phillips Novo-Keynesiana (NKPC) e a Equação de Euler (EE). Sabe-se das dificuldades em se estimar um coeficiente de sensibilidade positivo entre inflação e produto no primeiro caso, e que, mesmo quando se obtém uma estimativa positiva, o nível de rigidez nominal implicado para a economia é incompatível com o que sugerem os micro dados. Nós abordamos essa questão no primeiro capítulo, propondo um modelo de economia multi-setorial com heterogeneidade na fixação de preços entre setores. O método gera coeficientes de sensibilidade positivos e estáveis para diferentes configurações econométricas, assim como níveis de rigidez nominal alinhados com a evidência micro, para a economia como um todo e também para cada setor individualmente. Todas essas estimativas variam em linha com implicações teóricas, quando hipóteses do modelo são alteradas. O foco do segundo capítulo é a estimação da elasticidade de substituição intertemporal (EIS), parâmetro central da EE. Argumentamos como o uso de séries oficiais de consumo – que são estatisticamente tratadas antes de disponibilizadas – distorce estimativas da EIS. Propondo um modelo generalizado para desfiltrar diferentes tipos de séries de consumo disponíveis, – micro e macro, com várias frequências –, demonstramos como a utilização de consumo não filtrado gera estimativas da EIS que são consideravelmente mais estáveis, independente do arcabouço econométrico e da série de consumo usada. Resultados também parecem menos sensíveis à presença de instrumentos fracos, comparativamente a estimações usando séries oficiais. / [en] The weak identification problem arises naturally in macroeconomic models. Consequently, instrumental variables methods produce puzzling results more often than what is empirically plausible. We propose novel methods to address puzzles usually featured in two of the main equations in macro models, namely the New-Keynesian Phillips Curve (NKPC) and the Euler Equation (EE). For the former, difficulties to estimate a positive slope without incurring a degree of stickiness incompatible with the micro evidence are widely known. We address the matter in the first chapter, proposing a richer framework of a multi-sector economy with price-setting heterogeneity. The procedure generates positive and roughly unchanging slope coefficients across econometric settings, as well as degrees of stickiness in line with the micro data, both regarding the entire economy and the cross section of sectors. Importantly, all of these estimates move consistently with implications by theory when modifying the model assumptions. The second chapter focuses on the estimation of the elasticity of intertemporal substitution (EIS), central parameter of the EE in models of dynamic choice. There, we argue that the use of officially reported consumption data – which is usually filtered, smoothed, interpolated, etc – distorts estimates of the EIS. A generalised model to unfilter available consumption data is proposed, suitable for several types of data – macro and micro – at different frequencies. Estimations based on unfiltered consumption produce considerably more stable estimates of the EIS, regardless of the econometric approach and the type of consumption data used. Results also seem less sensitive to the presence of weak instruments, compared to officially reported data.
28

Filter Optimization for Personal Sound Zones Systems

Molés Cases, Vicent 02 September 2022 (has links)
[ES] Los sistemas de zonas de sonido personal (o sus siglas en inglés PSZ) utilizan altavoces y técnicas de procesado de señal para reproducir sonidos distintos en diferentes zonas de un mismo espacio compartido. Estos sistemas se han popularizado en los últimos años debido a la amplia gama de aplicaciones que podrían verse beneficiadas por la generación de zonas de escucha individuales. El diseño de los filtros utilizados para procesar las señales de sonido es uno de los aspectos más importantes de los sistemas PSZ, al menos para las frecuencias bajas y medias. En la literatura se han propuesto diversos algoritmos para calcular estos filtros, cada uno de ellos con sus ventajas e inconvenientes. En el presente trabajo se revisan los algoritmos para sistemas PSZ propuestos en la literatura y se evalúa experimentalmente su rendimiento en un entorno reverberante. Los distintos algoritmos se comparan teniendo en cuenta aspectos como el aislamiento acústico entre zonas, el error de reproducción, la energía de los filtros y el retardo del sistema. Además, se estudian estrategias computacionalmente eficientes para obtener los filtros y también se compara su complejidad computacional. Los resultados experimentales obtenidos revelan que las soluciones existentes no pueden ofrecer una complejidad computacional baja y al mismo tiempo un buen rendimiento con baja latencia. Por ello se propone un nuevo algoritmo basado en el filtrado subbanda, y se demuestra experimentalmente que este algoritmo mitiga las limitaciones de los algoritmos existentes. Asimismo, este algoritmo ofrece una mayor versatilidad que los algoritmos existentes, ya que se pueden utilizar configuraciones distintas en cada subbanda, como por ejemplo, diferentes longitudes de filtro o distintos conjuntos de altavoces. Por último, se estudia la influencia de las respuestas objetivo en la optimización de los filtros y se propone un nuevo método en el que se aplica una ventana temporal a estas respuestas. El método propuesto se evalúa experimentalmente en dos salas con diferentes tiempos de reverberación y los resultados obtenidos muestran que se puede reducir la energía de las interferencias entre zonas gracias al efecto de la ventana temporal. / [CA] Els sistemes de zones de so personal (o les seves sigles en anglés PSZ) fan servir altaveus i tècniques de processament de senyal per a reproduir sons distints en diferents zones d'un mateix espai compartit. Aquests sistemes s'han popularitzat en els últims anys a causa de l'àmplia gamma d'aplicacions que podrien veure's beneficiades per la generació de zones d'escolta individuals. El disseny dels filtres utilitzats per a processar els senyals de so és un dels aspectes més importants dels sistemes PSZ, particularment per a les freqüències baixes i mitjanes. En la literatura s'han proposat diversos algoritmes per a calcular aquests filtres, cadascun d'ells amb els seus avantatges i inconvenients. En aquest treball es revisen els algoritmes proposats en la literatura per a sistemes PSZ i s'avalua experimentalment el seu rendiment en un entorn reverberant. Els distints algoritmes es comparen tenint en compte aspectes com l'aïllament acústic entre zones, l'error de reproducció, l'energia dels filtres i el retard del sistema. A més, s'estudien estratègies de còmput eficient per obtindre els filtres i també es comparen les seves complexitats computacionals. Els resultats experimentals obtinguts revelen que les solucions existents no poder oferir al mateix temps una complexitat computacional baixa i un bon rendiment amb latència baixa. Per això es proposa un nou algoritme basat en el filtrat subbanda que mitiga aquestes limitacions. A més, l'algoritme proposat ofereix una major versatilitat que els algoritmes existents, ja que en cada subbanda el sistema pot utilitzar configuracions diferents, com per exemple, distintes longituds de filtre o distints conjunts d'altaveus. L'algoritme proposat s'avalua experimentalment en un entorn reverberant, i es mostra com pot mitigar satisfactòriament les limitacions dels algoritmes existents. Finalment, s'estudia la influència de les respostes objectiu en l'optimització dels filtres i es proposa un nou mètode en el que s'aplica una finestra temporal a les respostes objectiu. El mètode proposat s'avalua experimentalment en dues sales amb diferents temps de reverberació i els resultats obtinguts mostren que es pot reduir el nivell d'interferència entre zones grècies a l'efecte de la finestra temporal. / [EN] Personal Sound Zones (PSZ) systems deliver different sounds to a number of listeners sharing an acoustic space through the use of loudspeakers together with signal processing techniques. These systems have attracted a lot of attention in recent years because of the wide range of applications that would benefit from the generation of individual listening zones, e.g., domestic or automotive audio applications. A key aspect of PSZ systems, at least for low and mid frequencies, is the optimization of the filters used to process the sound signals. Different algorithms have been proposed in the literature for computing those filters, each exhibiting some advantages and disadvantages. In this work, the state-of-the-art algorithms for PSZ systems are reviewed, and their performance in a reverberant environment is evaluated. Aspects such as the acoustic isolation between zones, the reproduction error, the energy of the filters, and the delay of the system are considered in the evaluations. Furthermore, computationally efficient strategies to obtain the filters are studied, and their computational complexity is compared too. The performance and computational evaluations reveal the main limitations of the state-of-the-art algorithms. In particular, the existing solutions can not offer low computational complexity and at the same time good performance for short system delays. Thus, a novel algorithm based on subband filtering that mitigates these limitations is proposed for PSZ systems. In addition, the proposed algorithm offers more versatility than the existing algorithms, since different system configurations, such as different filter lengths or sets of loudspeakers, can be used in each subband. The proposed algorithm is experimentally evaluated and tested in a reverberant environment, and its efficacy to mitigate the limitations of the existing solutions is demonstrated. Finally, the effect of the target responses in the optimization is discussed, and a novel approach that is based on windowing the target responses is proposed. The proposed approach is experimentally evaluated in two rooms with different reverberation levels. The evaluation results reveal that an appropriate windowing of the target responses can reduce the interference level between zones. / Molés Cases, V. (2022). Filter Optimization for Personal Sound Zones Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/186111 / TESIS
29

Kernel Methods for Nonlinear Identification, Equalization and Separation of Signals

Vaerenbergh, Steven Van 03 February 2010 (has links)
En la última década, los métodos kernel (métodos núcleo) han demostrado ser técnicas muy eficaces en la resolución de problemas no lineales. Parte de su éxito puede atribuirse a su sólida base matemática dentro de los espacios de Hilbert generados por funciones kernel ("reproducing kernel Hilbert spaces", RKHS); y al hecho de que resultan en problemas convexos de optimización. Además, son aproximadores universales y la complejidad computacional que requieren es moderada. Gracias a estas características, los métodos kernel constituyen una alternativa atractiva a las técnicas tradicionales no lineales, como las series de Volterra, los polinómios y las redes neuronales. Los métodos kernel también presentan ciertos inconvenientes que deben ser abordados adecuadamente en las distintas aplicaciones, por ejemplo, las dificultades asociadas al manejo de grandes conjuntos de datos y los problemas de sobreajuste ocasionados al trabajar en espacios de dimensionalidad infinita.En este trabajo se desarrolla un conjunto de algoritmos basados en métodos kernel para resolver una serie de problemas no lineales, dentro del ámbito del procesado de señal y las comunicaciones. En particular, se tratan problemas de identificación e igualación de sistemas no lineales, y problemas de separación ciega de fuentes no lineal ("blind source separation", BSS). Esta tesis se divide en tres partes. La primera parte consiste en un estudio de la literatura sobre los métodos kernel. En la segunda parte, se proponen una serie de técnicas nuevas basadas en regresión con kernels para resolver problemas de identificación e igualación de sistemas de Wiener y de Hammerstein, en casos supervisados y ciegos. Como contribución adicional se estudia el campo del filtrado adaptativo mediante kernels y se proponen dos algoritmos recursivos de mínimos cuadrados mediante kernels ("kernel recursive least-squares", KRLS). En la tercera parte se tratan problemas de decodificación ciega en que las fuentes son dispersas, como es el caso en comunicaciones digitales. La dispersidad de las fuentes se refleja en que las muestras observadas se agrupan, lo cual ha permitido diseñar técnicas de decodificación basadas en agrupamiento espectral. Las técnicas propuestas se han aplicado al problema de la decodificación ciega de canales MIMO rápidamente variantes en el tiempo, y a la separación ciega de fuentes post no lineal. / In the last decade, kernel methods have become established techniques to perform nonlinear signal processing. Thanks to their foundation in the solid mathematical framework of reproducing kernel Hilbert spaces (RKHS), kernel methods yield convex optimization problems. In addition, they are universal nonlinear approximators and require only moderate computational complexity. These properties make them an attractive alternative to traditional nonlinear techniques such as Volterra series, polynomial filters and neural networks.This work aims to study the application of kernel methods to resolve nonlinear problems in signal processing and communications. Specifically, the problems treated in this thesis consist of the identification and equalization of nonlinear systems, both in supervised and blind scenarios, kernel adaptive filtering and nonlinear blind source separation.In a first contribution, a framework for identification and equalization of nonlinear Wiener and Hammerstein systems is designed, based on kernel canonical correlation analysis (KCCA). As a result of this study, various other related techniques are proposed, including two kernel recursive least squares (KRLS) algorithms with fixed memory size, and a KCCA-based blind equalization technique for Wiener systems that uses oversampling. The second part of this thesis treats two nonlinear blind decoding problems of sparse data, posed under conditions that do not permit the application of traditional clustering techniques. For these problems, which include the blind decoding of fast time-varying MIMO channels, a set of algorithms based on spectral clustering is designed. The effectiveness of the proposed techniques is demonstrated through various simulations.
30

Interconnection Architecture of Proximity Smart IoE-Networks with Centralised Management

González Ramírez, Pedro Luis 07 April 2022 (has links)
[ES] La interoperabilidad entre los objetos comunicados es el objetivo principal del internet de las cosas (IoT). Algunos esfuerzos para lograrlo han generado diversas propuestas de arquitecturas, sin embargo, aún no se ha llegado a un conceso. Estas arquitecturas difieren en el tipo de estructura, grado de centralización, algoritmo de enrutamiento, métricas de enrutamiento, técnicas de descubrimiento, algoritmos de búsqueda, segmentación, calidad de servicio y seguridad, entre otros. Algunas son mejores que otras, dependiendo del entorno en el que se desempeñan y del tipo de parámetro que se use. Las más populares son las orientadas a eventos o acciones basadas en reglas, las cuales han permitido que IoT ingrese en el mercado y logre una rápida masificación. Sin embargo, su interoperabilidad se basa en alianzas entre fabricantes para lograr su compatibilidad. Esta solución se logra en la nube con una plataforma que unifica a las diferentes marcas aliadas. Esto permite la introducción de estas tecnologías a la vida común de los usuarios pero no resuelve problemas de autonomía ni de interoperabilidad. Además, no incluye a la nueva generación de redes inteligentes basadas en cosas inteligentes. La arquitectura propuesta en esta tesis toma los aspectos más relevantes de las cuatro arquitecturas IoT más aceptadas y las integra en una, separando la capa IoT (comúnmente presente en estas arquitecturas), en tres capas. Además, está pensada para abarcar redes de proximidad (integrando diferentes tecnologías de interconexión IoT) y basar su funcionamiento en inteligencia artificial (AI). Por lo tanto, esta propuesta aumenta la posibilidad de lograr la interoperabilidad esperada y aumenta la funcionalidad de cada objeto en la red enfocada en prestar un servicio al usuario. Aunque el sistema que se propone incluye el procesamiento de una inteligencia artificial, sigue los mismos aspectos técnicos que sus antecesoras, ya que su operación y comunicación continúan basándose en la capa de aplicación y trasporte de la pila de protocolo TCP/IP. Sin embargo, con el fin de aprovechar los protocolos IoT sin modificar su funcionamiento, se crea un protocolo adicional que se encapsula y adapta a su carga útil. Se trata de un protocolo que se encarga de descubrir las características de un objeto (DFSP) divididas en funciones, servicios, capacidades y recursos, y las extrae para centralizarla en el administrador de la red (IoT-Gateway). Con esta información el IoT-Gateway puede tomar decisiones como crear grupos de trabajo autónomos que presten un servicio al usuario y enrutar a los objetos de este grupo que prestan el servicio, además de medir la calidad de la experiencia (QoE) del servicio; también administra el acceso a internet e integra a otras redes IoT, utilizando inteligencia artificial en la nube. Al basarse esta propuesta en un nuevo sistema jerárquico para interconectar objetos de diferente tipo controlados por AI con una gestión centralizada, se reduce la tolerancia a fallos y seguridad, y se mejora el procesamiento de los datos. Los datos son preprocesados en tres niveles dependiendo del tipo de servicio y enviados a través de una interfaz. Sin embargo, si se trata de datos sobre sus características estos no requieren mucho procesamiento, por lo que cada objeto los preprocesa de forma independiente, los estructura y los envía a la administración central. La red IoT basada en esta arquitectura tiene la capacidad de clasificar un objeto nuevo que llegue a la red en un grupo de trabajo sin la intervención del usuario. Además de tener la capacidad de prestar un servicio que requiera un alto procesamiento (por ejemplo, multimedia), y un seguimiento del usuario en otras redes IoT a través de la nube. / [CA] La interoperabilitat entre els objectes comunicats és l'objectiu principal de la internet de les coses (IoT). Alguns esforços per aconseguir-ho han generat diverses propostes d'arquitectures, però, encara no s'arriba a un concens. Aquestes arquitectures difereixen en el tipus d'estructura, grau de centralització, algoritme d'encaminament, mètriques d'enrutament, tècniques de descobriment, algoritmes de cerca, segmentació, qualitat de servei i seguretat entre d'altres. Algunes són millors que altres depenent de l'entorn en què es desenvolupen i de el tipus de paràmetre que es faci servir. Les més populars són les orientades a esdeveniments o accions basades en regles. Les quals li han permès entrar al mercat i aconseguir una ràpida massificació. No obstant això, la seva interoperabilitat es basa en aliances entre fabricants per aconseguir la seva compatibilitat. Aquesta solució s'aconsegueix en el núvol amb una plataforma que unifica les diferents marques aliades. Això permet la introducció d'aquestes tecnologies a la vida comuna dels usuaris però no resol problemes d'autonomia ni d'interoperabilitat. A més, no inclou a la nova generació de xarxes intel·ligents basades en coses intel·ligents. L'arquitectura proposada en aquesta tesi, pren els aspectes més rellevants de les quatre arquitectures IoT mes acceptades i les integra en una, separant la capa IoT (comunament present en aquestes arquitectures), en tres capes. A més aquesta pensada en abastar xarxes de proximitat (integrant diferents tecnologies d'interconnexió IoT) i basar el seu funcionament en intel·ligència artificial. Per tant, aquesta proposta augmenta la possibilitat d'aconseguir la interoperabilitat esperada i augmenta la funcionalitat de cada objecte a la xarxa enfocada a prestar un servei a l'usuari. Tot i que el sistema que es proposa inclou el processament d'una intel·ligència artificial, segueix els mateixos aspectes tècnics que les seves antecessores, ja que, la seva operació i comunicació se segueix basant en la capa d'aplicació i transport de la pila de protocol TCP / IP. No obstant això, per tal d'aprofitar els protocols IoT sense modificar el seu funcionament es crea un protocol addicional que s'encapsula i s'adapta a la seva càrrega útil. Es tracta d'un protocol que s'encarrega de descobrir les característiques d'un objecte (DFSP) dividides en funcions, serveis, capacitats i recursos, i les extreu per centralitzar-la en l'administrador de la xarxa (IoT-Gateway). Amb aquesta informació l'IoT-Gateway pot prendre decisions com crear grups de treball autònoms que prestin un servei a l'usuari i encaminar als objectes d'aquest grup que presten el servei. A més de mesurar la qualitat de l'experiència (QoE) de el servei. També administra l'accés a internet i integra a altres xarxes Iot, utilitzant intel·ligència artificial en el núvol. A l'basar-se aquesta proposta en un nou sistema jeràrquic per interconnectar objectes de diferent tipus controlats per AI amb una gestió centralitzada, es redueix la tolerància a fallades i seguretat, i es millora el processament de les dades. Les dades són processats en tres nivells depenent de el tipus de servei i enviats a través d'una interfície. No obstant això, si es tracta de dades sobre les seves característiques aquests no requereixen molt processament, de manera que cada objecte els processa de forma independent, els estructura i els envia a l'administració central. La xarxa IoT basada en aquesta arquitectura té la capacitat de classificar un objecte nou que arribi a la xarxa en un grup de treball sense la intervenció de l'usuari. A més de tenir la capacitat de prestar un servei que requereixi un alt processament (per exemple multimèdia), i un seguiment de l'usuari en altres xarxes IoT a través del núvol. / [EN] Interoperability between communicating objects is the main goal of the Internet of Things (IoT). Efforts to achieve this have generated several architectures' proposals; however, no consensus has yet been reached. These architectures differ in structure, degree of centralisation, routing algorithm, routing metrics, discovery techniques, search algorithms, segmentation, quality of service, and security. Some are better than others depending on the environment in which they perform, and the type of parameter used. The most popular are those oriented to events or actions based on rules, which has allowed them to enter the market and achieve rapid massification. However, their interoperability is based on alliances between manufacturers to achieve compatibility. This solution is achieved in the cloud with a dashboard that unifies the different allied brands, allowing the introduction of these technologies into users' everyday lives but does not solve problems of autonomy or interoperability. Moreover, it does not include the new generation of smart grids based on smart things. The architecture proposed in this thesis takes the most relevant aspects of the four most accepted IoT-Architectures and integrates them into one, separating the IoT layer (commonly present in these architectures) into three layers. It is also intended to cover proximity networks (integrating different IoT interconnection technologies) and base its operation on artificial intelligence (AI). Therefore, this proposal increases the possibility of achieving the expected interoperability and increases the functionality of each object in the network focused on providing a service to the user. Although the proposed system includes artificial intelligence processing, it follows the same technical aspects as its predecessors since its operation and communication is still based on the application and transport layer of the TCP/IP protocol stack. However, in order to take advantage of IoT-Protocols without modifying their operation, an additional protocol is created that encapsulates and adapts to its payload. This protocol discovers the features of an object (DFSP) divided into functions, services, capabilities, and resources, and extracts them to be centralised in the network manager (IoT-Gateway). With this information, the IoT-Gateway can make decisions such as creating autonomous workgroups that provide a service to the user and routing the objects in this group that provide the service. It also measures the quality of experience (QoE) of the service. Moreover, manages internet access and integrates with other IoT-Networks, using artificial intelligence in the cloud. This proposal is based on a new hierarchical system for interconnecting objects of different types controlled by AI with centralised management, reducing the fault tolerance and security, and improving data processing. Data is preprocessed on three levels depending on the type of service and sent through an interface. However, if it is data about its features, it does not require much processing, so each object preprocesses it independently, structures it and sends it to the central administration. The IoT-Network based on this architecture can classify a new object arriving on the network in a workgroup without user intervention. It also can provide a service that requires high processing (e.g., multimedia), and user tracking in other IoT-Networks through the cloud. / González Ramírez, PL. (2022). Interconnection Architecture of Proximity Smart IoE-Networks with Centralised Management [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181892 / TESIS

Page generated in 0.1303 seconds