• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 168
  • 3
  • 3
  • Tagged with
  • 360
  • 309
  • 302
  • 251
  • 58
  • 41
  • 37
  • 32
  • 31
  • 29
  • 28
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Caracterización de medidas de regularidad en señales biomédicas. Robustez a outliers

Molina Picó, Antonio 03 September 2014 (has links)
Los sistemas fisiológicos generan señales eléctricas durante su funcionamiento. Estas señales pueden ser registradas y representadas, constituyendo un elemento fundamental de ayuda al diagnóstico en la práctica clínica actual. Sin embargo, la inspección visual no permite la extracción completa de la información contenida en estas señales. Entre las técnicas de procesamiento automático, destacan los métodos no lineales, específicamente aquellos relacionados con la estimación de la regularidad de la señal subyacente. Estos métodos están ofreciendo en los ´últimos años resultados muy significativos en este ´ámbito. Sin embargo, son muy sensibles a las interferencias en las señales, ocurriendo una degradación significativa de su capacidad diagnostica si las señales biomédicas están contaminadas. Uno de los elementos que se presenta con cierta frecuencia en los registros fisiológicos y que contribuye a esta degradación de prestaciones en estimadores no lineales, son los impulsos de cortad duración, conocidos en este contexto como spikes. En este trabajo se pretende abordar la problemática asociada a la presencia de spikes en bioseñales, caracterizando su influencia en una serie de medidas concretas, para que la posible degradación pueda ser anticipada y las contramedidas pertinentes aplicadas. En concreto, las medidas de regularidad caracterizadas son: Approximate Entropy (ApEn), Sample Entropy (SampEn), Lempel Ziv Complexity (LZC) y Detrended Fluctuation Analysis (DFA). Todos estos métodos han ofrecido resultados satisfactorios en multitud de estudios previos en el procesado de señales biomédicas. La caracterización se lleva a cabo mediante un exhaustivo estudio experimental en el cual se aplican spikes controlados a diferentes registros fisiológicos, y se analiza cuantitativa y cualitativamente la influencia de dichos spikes en la estimación resultante. Los resultados demuestran que el nivel de interferencia, así como los parámetros de las medidas de regularidad, afectan de forma muy variada. En general, LZC es la medida más robusta del conjunto caracterizado frente a spikes, mientras que DFA es la más vulnerable. Sin embargo, la capacidad de discernir entre clases permanece en muchos casos, a pesar de los cambios producidos en los valores absolutos de entropía. / Molina Picó, A. (2014). Caracterización de medidas de regularidad en señales biomédicas. Robustez a outliers [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/39346 / Alfresco
122

Application of Polarimetric Model-based Decomposition for Crop Monitoring

Xie, Qinghua 19 February 2021 (has links)
Esta tesis trata de la aplicación en agricultura de los datos polarimétricos obtenidos mediante satélites de observación de la Tierra eqipados con radar de apertura sintética. Los principales objetivos de la tesis se centran en dos productos finales: la clasificación de tipo de cultivo y la estimación de la altura de los cultivos. Para ello se hace uso de técnicas de descomposición polarimétrica basadas en modelos con datos SAR polarimétricos multi-temporales, medidos con RADARSAT-2 en banda C. Las contribuciones de esta tesis se resumen a continuación: 1. Se ha investigado por primera vez la aplicación de la descomposición de Neumann a la clasificación de cultivos. En este estudio se propone un método de clasificación supervisado basado en la descomposición de Neumann y el clasificador de bosque aleatorios (denominado "ND-RF") para la clasificación de cultivos. Las relaciones entre los tres parámetros de la descomposición de Neumann y los tres parámetros de la descomposición de Cloude-Pottier se han validado en esta aplicación empleando datos reales. Se ha hecho un amplio estudio sobre la importancia de los diversos parámetros en la clasificación de cultivos y se han comparado de forma completa las dos descomposiciones. 2. Se ha presentado una demostración y validación exhaustivas sobre la estimación de la altura del cultivo de maíz mediante observables polarimétricos con métodos de regresión de aprendizaje automático. En este estudio se explota un gran conjunto de datos formado por imágenes multi-temporales de banda C y mediciones in situ casi síncronas de la altura de los cultivos a lo largo de tres años en dos zonas de Canadá. Se utilizaron dos métodos típicos de regresión de aprendizaje automático: RFR y SVR. Se ha investigado la importancia de las características de entrada y el rendimiento después de filtrar la selección de observables. / Work supported by the Spanish Ministry of Science and Innovation, Research State Agency (AEI) and European Regional Development Funds under project TEC2017-85244-C2-1-P.
123

Análisis energético de un sistema de almacenamiento de electricidad en batería mediante energías renovables con característica de modularidad e intercambiabilidad en vehículos eléctricos

Tébar-Martínez, Enrique-Miguel 15 September 2017 (has links)
El objetivo de la Tesis es mostrar, a partir de un balance energético dimensionable y contrastable, la viabilidad de un sistema de recarga de baterías de tracción de Vehículos Eléctricos de manera simultánea a la producción dentro de la llamada “ventana fotovoltaica”, como garantía de que la electricidad producida para la movilidad eléctrica no dependa de los combustibles fósiles que están inevitablemente presentes en el “share” energético global para, de esta manera, reducir el nivel de emisiones de CO2 a la atmósfera por parte del sector del transporte. Y el intercambio de baterías es presentado como la alternativa para resolver el problema de la simultaneidad entre la producción fotovoltaica y la utilización del vehículo, y para vencer la barrera del tiempo de recarga. Si el vehículo eléctrico está llamado a ser el sustituto natural del convencional y las energías renovables están llamadas a ser las sustitutas naturales de las convencionales, es necesario comprobar la viabilidad del binomio “Vehículo Eléctrico - Energías Renovables” y el desarrollo conjunto de ambas. Siendo una realidad que el Vehículo Eléctrico ya es un producto al alcance del gran público, no es menos cierto que el grado de penetración del mismo está teniendo lugar a un nivel infinitamente inferior al esperado, en parte como consecuencia del elevado coste del VE y la situación económica global, en parte porque la usabilidad del VE y el vehículo convencional no es la misma al no disponer el VE de autonomía, tiempo de recarga e infraestructura de recarga comparables a su homólogo convencional, y en parte como consecuencia del mantenimiento del status-quo existente entre los fabricantes de vehículos y las empresas suministradoras de combustibles fósiles que intentan frenar lo máximo posible el proceso de electrificación del sector de transporte. Por otro lado, es también una realidad el drástico descenso en los costes de los equipos de producción de electricidad fotovoltaica en los últimos años, sobre todo los paneles solares y los onduladores DC-AC, de forma que cada Watio instalado viene a costar, en promedio, 5 veces menos que en 2007 y las instalaciones son rentables por sí mismas sin necesidad de mecanismos de subvención externos. Todo ello ha facilitado que a día de hoy dispongamos de un escenario de Balance Neto (Autoconsumo con intercambio con la red) viable que ha abierto la puerta a las Smart Grids en las cuales el punto de recarga del Vehículo Eléctrico es sin duda uno de los protagonistas del escenario futuro. Y puesto que tanto las instalaciones fotovoltaicas a pequeña escala como el vehículo eléctrico son 2 campos emergentes con mucho desarrollo todavía por delante, el autor ha querido relacionar ambos a nivel dimensional y justificar que el futuro crecimiento conjunto de ambos puede contribuir enormemente a la reducción progresiva de la emisión de gases contaminantes a la atmósfera por parte del sector del transporte.
124

Técnicas Dinámicas para Teledetección Empleando Imágenes SAR, Ópticas y Vehículos Aéreos no Tripulado

De Bernardis, Caleb G. 28 September 2018 (has links)
La agricultura es una de las prácticas humanas más antiguas y de mayor importancia en nuestra sociedad. Es fundamental para la subsistencia de millones de personas, donde cultivos como el arroz o el trigo son la base alimenticia de un gran porcentaje de la población mundial. Al igual que la sociedad, las técnicas agrícolas han ido evolucionando con el paso del tiempo. En este contexto, es la agricultura de precisión el tipo de agricultura que más fuerza y mejores resultados está obteniendo. La agricultura de precisión surge con la aplicación de nuevos elementos tecnológicos con el objetivo de optimizar la gestión de una parcela desde el punto de vista: • Agronómico: ajuste de las prácticas de cultivo a las necesidades de la planta • Medioambiental: reducción del impacto vinculado a la actividad agrícola • Económico: aumento de la competitividad a través de una mayor eficacia de las prácticas. Una de las medidas más utilizadas en la inspección del estado de los cultivos es la de medida del estado fenológico (fenología). La fenología nos indica las diferentes etapas biológicas que irá atravesando un cultivo desde su siembra hasta la cosecha. El conocimiento exacto de este valor es fundamental en las prácticas agrícolas, dado que marca el momento en el que se debe realizar cada uno de los procesos agrícolas. Por ejemplo, el momento del suministro de nutrientes como el nitrógeno, es uno de los aspectos claves en el incremento de la productividad y de no aplicarse en el estado fenológico correcto la productividad en vez de aumentar se verá reducida. Una de las formas que tenemos para inferir el valor fenológico es mediante teledetección. La utilización de satélites nos permite cubrir grandes extensiones de terreno en un mismo instante de tiempo. En este contexto las fuentes de observación más utilizadas son de naturaleza radar (en concreto SAR) e imágenes ópticas. Ambas poseen características diferentes y ofrecen distintas sensibilidades. Por ejemplo, el sensor óptico es sensible a los procesos químicos internos de las plantas y el SAR a su estructura o morfología. La forma más extendida para la estimación fenológica a partir de las series de datos sensoriales se basa en el procesado de señal convencional. Por ejemplo, para el caso del sistema SAR se puede analizar la evolución de determinados parámetros polarimétricos en función del estado del cultivos y en base a este análisis definir una estrategia de estimación Por otro lado, el sensor óptico ha sido el más utilizado para dicho fin. A partir de una combinación de bandas ópticas se definen unos índices denominados Índices de Vegetación (IV). Estos índices maximizan su respuesta ante la presencia de vegetación y se ven minimizados ante cualquier otro tipo de terreno. Dentro de los diferentes IV el más estudiado es el Índice de vegetación de diferencia normalizada o NDVI (de sus siglas en inglés). El NDVI debe ser filtrado antes de ser utilizado para estimar el estado fenológico debido al ruido inherente de los datos ópticos. Las técnicas convencionales utilizan métodos basados en ajustes o transformadas que requieren todo el set de imágenes (durante toda la campaña) para poder trabajar, lo cual imposibilita el uso de estas técnicas en aplicaciones de tiempo real. Otro de los inconvenientes es que debido a la poca sensibilidad que tiene el NDVI entre cambios fenológicos solo se pueden distinguir unos pocos estados Dando un enfoque diferente, un enfoque dinámico, podemos ofrecer estimaciones mucho más robustas que las obtenidas hasta ahora. El enfoque dinámico analiza no sólo el contenido de los datos sensoriales sino también su evolución temporal. Para esto, no se parte directamente de los datos observados sino que se divide el problema en dos etapas: 1. Modelo del comportamiento del sistema que determina su evolución temporal permitiendo predecir las transiciones entre dos instantes de tiempo. 2. Inclusión de los datos procedentes de la observación (sensores radar y/u ópticos). La primera etapa consiste en la utilización de un modelo que describe el comportamiento temporal del sistema, en nuestro caso, la evolución fenológica a lo largo del tiempo, con el fin de realizar una predicción de hacia dónde evoluciona el siguiente estado. Esta predicción se combina en la siguiente etapa, con la observación proveniente de los sensores. Esto supone un gran avance respecto a los métodos en los que se deben desarrollar estudios y ajustes matemáticos para cada sensor por separado y determinar el estado basándonos única y exclusivamente en la información proporcionada por dicho sensor en un instante de tiempo. En estudios recientes se ha demostrado el potencial de la metodología sobre cultivos de arroz utilizando modelos de evolución fenológica combinados con imágenes SAR u observaciones ópticas. Otra posibilidad que brinda esta metodología es la fusión de datos, es decir, la segunda etapa puede albergar más de una fuente de observación que se combine con la predicción. Imaginemos un escenario de teledetección para el que disponemos de tres fuentes de información periódica: imágenes de satélite ópticas, radar y fotografías a pie de campo. El enfoque tradicional estudiaría la información de cada fuente por separado y proporcionaría una solución para cada una de las fuentes. Si utilizamos un enfoque dinámico lo que haremos es determinar una única solución combinando de forma óptima la información actual y pasada de los tres sensores. De este modo, aquellos estados en los que un sensor sea menos sensible pueden verse compensados por la información de otros sensores para mejorar la predicción. Uno de los factores claves para obtener buenos resultados utilizando esta metodología es disponer de un buen muestreo temporal. Una forma de reducir el tiempo de revisita (tiempo entre imágenes) es mediante el uso de un vehículo aéreo no tripulado (UAV) cuya incorporación no supone inconvenientes en esta metodología. Al contrario, facilita sustancialmente la transferencia de esta nueva tecnología a la sociedad. Los UAV, además de ser flexibles en la configuración del tiempo de adquisición, nos permiten observar los cultivos a la distancia que se desee. El vehículo es capaz de realizar la trayectoria sin necesidad de pilotarlo y además, aprovechar al máximo el enfoque dinámico para calcular las trayectorias de forma autónoma. Por ejemplo, si el vehículo detecta una zona que presenta incertidumbre o algún problema podría modificar su trayectoria para recabar más información de dicha zona. Este enfoque abre una nueva brecha de posibilidades y de aplicaciones que pueden ser transferidas del ámbito científico a la sociedad mediante la creación de nuevos productos comerciales.
125

Retrieval of biophysical parameters of agricultural crops using polarimetric sar interferometry

Ballester-Berman, J. David 17 September 2007 (has links)
No description available.
126

Algoritmos y arquitecturas hardware para la implementación de OFDM en sistemas de comunicaciones ópticos

Bruno, Julián Santiago 02 May 2019 (has links)
[ES] Esta tesis explora en profundidad la viabilidad técnica y las prestaciones de un sistema de transmisión para comunicaciones ópticas, de bajo coste y alta velocidad, basado en la multiplexación por división de frecuencia ortogonal (OFDM) mediante la implementación de los algoritmos de procesamiento digital de la señal en tiempo real sobre dispositivos de lógica programable (FPGA). Los sistemas de transmisión de modulación de intensidad y detección directa (IM/DD) parecen ser la solución más interesante para las redes ópticas pasivas (PONs) de bajo coste que serán necesarias para responder a la gran demanda de tráfico de los próximos años, producto del aumento significativo de dispositivos conectados a internet, servicios y programas en la nube, vídeo de alta definición, entre otros. Por tanto, esta tesis tiene como objetivo principal obtener la máxima tasa binaria y eficiencia espectral posible de un sistema IM/DD OFDM en PON (de una sola banda y una sola longitud de onda). Con esta finalidad se ha desarrollado la arquitectura hardware de un receptor OFDM de alta velocidad que opera en tiempo real en un dispositivo FPGA Virtex-7 a una frecuencia de reloj de 312,5 MHz utilizando un conversor analógico digital con una tasa de muestreo de 5 GS/s. Para lograr las mejores prestaciones posibles, se ha intentado aprovechar al máximo el ancho de banda del sistema (acercándose al límite de Nyquist) y se ha realizado una carga variable de las subportadoras del símbolo OFDM atendiendo a las características del canal electro-óptico. Además, se han diseñado e implementado los algoritmos de procesamiento necesarios para la detección y demodulación de los símbolos OFDM, y se ha desarrollado una plataforma experimental que ha permitido validarlos en tiempo real a través de un enlace de fibra monomodo estándar (SSMF). El principal resultado de esta tesis es el haber demostrado experimentalmente que con el sistema propuesto se puede alcanzar una tasa binaria de 19,63 Gb/s y una eficiencia espectral de 8,07 bit/s/Hz sobre 20 km de SSMF, lo cual implica casi duplicar las mejores prestaciones publicadas hasta la fecha. Para completar el diseño del receptor, se ha desarrollado un algoritmo de sincronización de tiempo basado en la correlación cruzada entre un preámbulo conocido y la señal OFDM recibida, el cual presenta una tasa de error extremadamente baja, aun en condiciones de muy baja SNR, y su diseño optimizado requiere menos recursos que otros sincronizadores publicados hasta la fecha. También se ha desarrollado un procesador de FFT de longitud variable mediante una arquitectura paralela segmentada que permite alcanzar hasta una tasa de 10 GS/s en dispositivos Virtex-7 con una eficiencia (área/velocidad) superior a la de otros trabajos publicados, y un ecualizador de canal basado en una técnica de estimación y compensación en frecuencia, que utiliza un preámbulo característico para poder disminuir la complejidad hardware y aumentar la precisión de la estimación. Todos los algoritmos implementados en esta tesis doctoral han sido diseñados para procesar 16 muestras en paralelo, y así poder reducir la frecuencia de reloj (5 GHz/16) hasta valores aceptables para los dispositivos FPGA. / [CA] Aquesta tesi explora en profunditat la viabilitat tècnica i les prestacions d'un sistema de transmissió per a comunicacions òptiques, de baix cost i alta velocitat, basat en la multiplexació per divisió en freqüència ortogonal (OFDM) mitjançant la implementació d'algorismes de processat digital del senyal en temps real sobre dispositius de lògica programable (FPGA). Els sistemes de transmissió de modulació d'intensitat i detecció directa (IM/DD) semblen ser la solució més interesant per a les xarxes òptiques passives (PON) de baix cost que seran necessàries per respondre a la gran demanda de tràfic dels propers anys, producte de l'augment significatiu de dispositius connectats a Internet, serveis i programari al núvol, vídeo d'alta definició, entre d'altres. Per tant, aquesta tesi té com objectiu principal obtenir la màxima taxa binaria i eficiència espectral possible d'un sistema IM/DD OFDM en PON (amb una sola banda i una sola longitud d'ona). Amb aquesta finalitat s'ha desenvolupat l'arquitectura hardware d'un receptor OFDM d'alta velocitat que treballa en temps real a un dispositiu FPGA Virtex-7 amb una freqüència de rellotge de 312,5 MHz utilitzant un convertidor analògic a digital amb una taxa de mostreig de 5 GS/s. Per aconseguir les millors prestacions possibles, s'ha intentat aprofitar al màxim l'ample de banda del sistema (aproximant-se al límit de Nyquist) i s'ha realitzat una càrrega variable de les subportadores del símbol OFDM atenent a les característiques del canal electró-òptic. A més, s'han dissenyat e implementat els algorismes de processament necessaris per la detecció i desmodulació dels símbols OFDM, i s'ha desenvolupat una plataforma experimental que ha permès validar-los en temps real a través d'un enllaç de fibra monomode estàndard (SSMF). El principal resultat d'aquesta tesi és haver demostrat experimentalment que amb el sistema proposat es pot arribar a una taxa binaria de 19,63 Gb/s amb una eficiència espectral de 8,07 bits/s/Hz sobre 20 km de SSMF, la qual cosa implica quasi duplicar les millors prestacions publicades fins aquest moment. Per completar el disseny del receptor, s'ha desenvolupat un algorisme de sincronització de temps basat en la correlació creuada entre un preàmbul conegut i el senyal OFDM rebut, el qual presenta una taxa d'error extremadament baixa, inclòs en condicions de molt baixa SNR, i el seu disseny optimitzat requereix menys recursos que altres sincronitzadors publicats fins el moment. També s'ha desenvolupat un processador de FFT de longitud variable mitjançant una arquitectura paral·lela segmentada que permet arribar fins una taxa de 10 GS/s en dispositius Virtex-7 amb una eficiència (àrea/velocitat) superior a la d'altres treballs publicats, i un equalitzador de canal basat en una tècnica d'estimació i compensació en freqüència, que utilitza un preàmbul característic per poder disminuir la complexitat hardware i augmentar la precisió de l'estimació. Tots els algorismes implementats a aquesta tesi doctoral han sigut dissenyats per processar 16 mostres en paral·lel, i així poder reduir la freqüència de rellotge (5 GHz/16) fins valors acceptables pels dispositius FPGA. / [EN] This thesis presents an in-depth exploration of the technical feasibility and achievable performance of a low-cost and high-speed optical communication system based on orthogonal frequency division multiplexing (OFDM) through the implementation of real-time digital signal processing algorithms over programmable logic devices (FPGA). Optical transmission systems based on intensity modulation and direct detection (IM/DD) is considered as one of the most interesting solutions for the deployment of the low-cost passive optical networks (PONs) that will be needed to cover the high traffic demand in the coming years. This demand is fueled, among others, by the significant increase of connected devices to the Internet, services and programs in the cloud, high definition video, etc. The main objective of this thesis is to achieve the maximum bitrate and spectral efficiency of an IM/DD PON OFDM system (using a single band and a single wavelength). To this end, the hardware architecture of a high-speed real-time OFDM receiver, including all the necessary algorithms to perform the detection and demodulation of the OFDM symbols, has been implemented in a Virtex-7 FPGA device at a clock frequency of 312.5 MHz using a digital analog converter with a sampling rate of 5 GS/s. To reach the best possible performance, all the system bandwidth has been employed and the OFDM subcarriers have been loaded according to the characteristics of the electro-optical channel. An experimental platform for optical transmission through standard single-mode fiber (SSMF) has been developed to evaluate in real-time the performance of the implemented receiver. The main result of this thesis is the experimental validation of the proposed system that has achieved a bit rate of 19.63 GS/s and a spectral efficiency of 8.07 bit/s/Hz over 20 km SSMF. These results almost double the best performance published to date. The receiver implementation included the design and development of several algorithms. First, it was designed a time synchronization algorithm (TSA) based on the cross-correlation between a known preamble and the received OFDM signal. This TSA has a good performance in low-SNR scenarios and its optimized design requires fewer resources than other synchronizers published in the literature. Second, a variable length parallel pipelined FFT processor has been implemented in a Virtex-7 device, it reaches a throughput of 10 GS/s with an efficiency (area/speed) higher than that of other published works. And finally, a channel equalizer working in the frequency domain to estimate and compensate channel distortions, which uses a known preamble to decrease the hardware complexity and increase the accuracy of the estimation, has been implemented. All the algorithms in this thesis have been developed to process 16 samples in parallel, thus reducing the required clock frequency (5 GHz/16) to acceptable values for the FPGA devices. / Deseo expresar mi gratitud a las autoridades de la Facultad Regional Buenos Aires de la Universidad Tecnológica Nacional por el apoyo económico y personal recibido durante la realización de esta tesis. / Bruno, JS. (2019). Algoritmos y arquitecturas hardware para la implementación de OFDM en sistemas de comunicaciones ópticos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/119988 / TESIS
127

SISTEMA DE BIOSENSADO FOTÓNICO PARA LA DETECCIÓN DE TROMBINA, ALÉRGENOS Y PATÓGENOS. FUNCIONALIZACIÓN QUÍMICA DE CHIPS FOTÓNICOS BASADOS EN ESTRUCTURAS DE ANILLOS RESONANTES

Sánchez Sánchez, Carlos 16 December 2019 (has links)
[ES] En este trabajo se ha realizado la detección de analitos implicados en el sector sanitario (trombina) e industria alimentaria (alérgenos y patógenos), mediante el uso de un sistema de biosensado fotónico. Este sistema desarrollado por el equipo de LUMENSIA Sensors, emplea la tecnología de chips fotónicos de nitruro de silicio (Si3N4), basados en estructuras de anillos resonantes (RR). Las estrategias de funcionalización química e inmovilización de biomoléculas como aptámeros (fragmentos de ADN de cadena sencilla) y anticuerpos, se han realizado sobre superficies planas de Si3N4 para la detección de analitos, como paso previo a las medidas fotónicas. Por tanto, estas estrategias se han implementado en la preparación del chip fotónico para las medidas en un entorno de laboratorio (set-up). En cuanto a la estrategia aplicada, ésta consiste en la activación química de la superficie del sensor. Después sobre los RR del chip, cuyo tamaño es del orden de las micras, se inmoviliza la sonda de captura (anticuerpo o aptámero), siendo ésta la encargada de reconocer específicamente al analito de interés (trombina, alérgeno o patógeno). En los resultados obtenidos de trombina, se ha elaborado un estudio para la detección de trombina en el seno de diferentes matrices biológicas sobre superficies planas de Si3N4, además del control sobre la activación de una muestra de sangre mediante el uso de factor tisular (TF) y cloruro de calcio (CaCl2). Estos resultados han servido como un estudio preliminar a la optimización del aptámero empleado como sonda de captura, específico de la trombina para su detección sobre chips fotónicos. En lo referente a la detección de alérgenos, se han empleado dos estrategias claramente diferenciadas. Por un lado, la utilización de aptámeros como sondas de captura en la detección del Ovomucoide (OVO) y la Gliadina (GLN) sobre superficies planas Si3N4. Por otro lado, la implementación de anticuerpos monoclonales como moléculas biológicas de captura sobre chips fotónicos, se ha llevado a cabo en la detección de los alérgenos Gliadina (GLN) y caseína (CAS), cuyos resultados han dado lugar a una recta de calibrado. Asimismo, se ha realizado un ensayo para la detección de GLN en muestra real, procedente de un extracto cárnico con gluten de trigo. En cuanto a la detección de patógenos, se han utilizado dos tipos de estrategias, al igual que para los alérgenos. En primer lugar, el uso de aptámeros como sondas de captura han dado como resultado la detección de dos cepas de carácter no patogénico de la bacteria E.coli (Origami y XL1BLUE) sobre superficies planas de Si3N4. En segundo lugar, la utilización de un anticuerpo policlonal como sonda de captura, se ha inmovilizado sobre la superficie del chip fotónico para la detección del Circovirus Porcino tipo 2 (PCV2) en un estudio realizado sobre la dosis dependencia del virus a diferentes factores de dilución. Finalmente, el desarrollo de una plataforma de sensado para la detección de los analitos (trombina, alérgenos y patógenos) y donde se vayan a implementar los diferentes biosensores está en proceso. / [CA] En aquest treball s'ha realitzat la detecció d'anàlits implicats en el sector sanitari (trombina) i indústria alimentària (al·lergògens i patògens), mitjançant l'ús d'un sistema de biosensat fotònic. Aquest sistema desenvolupat per l'equip de LUMENSIA Sensors, empra la tecnologia de xips fotònics de nitrur de silici (Si3N4), basats en estructures d'anells ressonants (RR). Les estratègies de funcionalització química i immobilització de biomolècules com aptàmers (fragments d'ADN de cadena senzilla) i anticossos, s'han realitzat sobre superfícies planes de Si3N4 per a la detecció d'anàlits, com a pas previ a les mesures fotòniques. Per tant, aquestes estratègies s'han implementat en la preparació del xip fotònic per a les mesures en un entorn de laboratori (set-up). Quant a l'estratègia aplicada, aquesta consisteix en l'activació química de la superfície del sensor. Després sobre els RR del xip, la grandària del qual és de l'ordre de les micres, s'immobilitza la sonda de captura (anticòs o aptàmer), sent aquesta l'encarregada de reconèixer específicament a l'anàlit d'interés (trombina, al·lergogen o patogen). En els resultats obtinguts de trombina, s'ha elaborat un estudi per a la detecció de trombina en el si de diferents matrius biològiques sobre superfícies planes de Si3N4, a més del control sobre l'activació d'una mostra de sang mitjançant l'ús de factor tissular (TF) i clorur de calci (CaCl2). Aquests resultats han servit com un estudi preliminar a l'optimització del aptàmer empleat com sonda de captura, específic de la trombina per a la seua detecció sobre xips fotònics. Referent a la detecció d'al·lergògens, s'han emprat dues estratègies clarament diferenciades. D'una banda, la utilització de aptàmers com sondes de captura en la detecció del Ovomucoide (OVO) i la Gliadina (GLN) sobre superfícies planes Si3N4. D'altra banda, la implementació d'anticossos monoclonals com a molècules biològiques de captura sobre xips fotònics, s'ha dut a terme en la detecció dels al·lergògens Gliadina (GLN) i caseïna (CAS), els resultats de la qual han donat lloc a una recta de calibrat. Així mateix, s'ha realitzat un assaig per a la detecció de GLN en mostra real, procedent d'un extracte carni amb gluten de blat. Quant a la detecció de patògens, s'han utilitzat dos tipus d'estratègies, igual que per als al·lergògens. En primer lloc, l'ús de aptàmers com sondes de captura han donat com a resultat la detecció de dos ceps de caràcter no patogènic del bacteri E.coli (Origami i XL1BLUE) sobre superfícies planes de Si3N4. En segon lloc, la utilització d'un anticòs policlonal com sonda de captura, s'ha immobilitzat sobre la superfície del xip fotònic per a la detecció del Circovirus Porcí tipus 2 (PCV2) en un estudi realitzat sobre la dosi dependència del virus a diferents factors de dilució. Finalment, el desenvolupament d'una plataforma de sensat per a la detecció dels anàlits (trombina, al·lergògens i patògens) i on es vagen a implementar els diferents biosensors està en procés. / [EN] In this work the detection of analytes involved in the health sector (thrombin) and food industry (allergens and pathogens) has been carried out, through the use of a photonic biosensing system. This system, developed by the LUMENSIA Sensors team, uses the technology of silicon nitride (Si3N4) photonic chips, based on resonant ring structures (RR). The strategies of chemical functionalization and immobilization of biomolecules such as aptamers (single chain DNA fragments) and antibodies, have been performed on flat surfaces of Si3N4 for the detection of analytes, as a previous step to photonic measurements. Therefore, these strategies have been implemented in the preparation of the photonic chip for measurements in a laboratory environment (set-up). Refering to the strategy applied, it consists of the chemical activation of the sensor surface. Then on the RR of the chip, whose size is of the order of microns, the capture probe (antibody or aptamer) is immobilized, being the one in charge of specifically recognizing the analyte of interest (thrombin, allergen or pathogen). In the results obtained from thrombin, a study for the detection of thrombin in different biological matrices on flat surfaces of Si3N4 has been developed, in addition to the control on the activation of a blood sample through the use of tissue factor (TF) and calcium chloride (CaCl2). These results have served as a preliminary study to the optimization of the aptamer used as a capture probe, specific for thrombin for detection on photonic chips. Regarding the detection of allergens, two clearly differentiated strategies have been used. On the one hand, the use of aptamers as capture probes in the detection of Ovomucoid (OVO) and Gliadin (GLN) on Si3N4 flat surfaces. On the other hand, the implementation of monoclonal antibodies as biological capture molecules on photonic chips has been carried out in the detection of the allergens Gliadina (GLN) and casein (CAS), whose results have resulted in a calibration line. Likewise, an assay for the detection of GLN in real sample, from a meat extract with wheat gluten, has been carried out. As for the detection of pathogens, two types of strategies have been used, as for allergens. First, the use of aptamers as capture probes has resulted in the detection of two non-pathogenic strains of the E.coli bacteria (Origami and XL1BLUE) on flat surfaces of Si3N4. Secondly, the use of a polyclonal antibody as a capture probe has been immobilized on the surface of the photonic chip for the detection of Porcine Circovirus type 2 (PCV2) in a study on the dose dependence of the virus at different dilution factors. Finally, the development of a sensing platform for the detection of analytes (thrombin, allergens and pathogens) and where the different biosensors are going to be implemented is in process. / Quiero agradecer al Instituto de Salud Carlos III por el contrato i-PFIS concedido / Sánchez Sánchez, C. (2019). SISTEMA DE BIOSENSADO FOTÓNICO PARA LA DETECCIÓN DE TROMBINA, ALÉRGENOS Y PATÓGENOS. FUNCIONALIZACIÓN QUÍMICA DE CHIPS FOTÓNICOS BASADOS EN ESTRUCTURAS DE ANILLOS RESONANTES [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/133060 / TESIS
128

Crop Monitoring by Satellite Polarimetric SAR Interferometry

Romero-Puig, Noelia 16 September 2021 (has links)
The agricultural sector is the backbone which supports the livelihoods and the economic development of nations across the globe. In consequence, the need for robust and continuous monitoring of agricultural crops is primordial to face the interlinked challenges of growth rate population, food security and climate change. Synthetic Aperture Radar (SAR) sensors have the powerful imaging capability of operating at almost all weather conditions, independent of day and night illumination. By penetrating through clouds and into the vegetation canopy, the incident radar signal interacts with the structural and dielectric properties of the vegetation and soil, thus providing critical information of the crop state, such as height, biomass, crop yield or leaf structure, which can help devise sustainable agricultural management practices. This is achieved by means of the Polarimetric SAR Interferometry (PolInSAR) technique, which by coherently combining interferometric SAR acquisitions at different polarization states allows for the retrieval of biophysical parameters of the vegetation. In this framework, this thesis focuses on the development of crop monitoring techniques that properly exploit satellite-based PolInSAR data. All the known InSAR and PolInSAR methodologies for this purpose have been analysed. The sensitivity of these data provided by the TanDEM-X bistatic system to both the physical parameters of the scene (height and structure of the plants, moisture and roughness of the soil) and the sensor configuration (polarization modes and observation geometry) is evaluated. The effect of different simplifications made in the physical model of the scene on the crop estimates is assessed. The interferometric sensitivity requirements to monitor a crop scenario are more demanding than others, such as forests. Steep incidences associated with the largest spatial baselines provided by the available data set lead to the most accurate estimates under all the different model assumptions. Shallower incidences, on the other hand, generally yield important errors due to their characteristic shorter spatial baselines. Through the methodologies proposed in this thesis, PolInSAR data have shown potential to refine current methods for the quantitative estimation of crop parameters. Results encourage to continue further research towards the objective of achieving operational crop monitoring applications. / Work supported by the Spanish Ministry of Science and Innovation, the State Agency of Research (AEI) and the European Funds for Regional Development (EFRD) under Project TEC2017-85244-C2-1-P. Noelia Romero-Puig received a grant from the Generalitat Valenciana and the European Social Fund (ESF) [ACIF/2018/204].
129

Interactividad como extensión del individuo a través de la creación de Homeostasis: Instalación interactiva para dos corazones y manos

Scarani, Stefano 23 January 2017 (has links)
The main object of this thesis is the proposal, development and verification of hypothetical relationships that are established from the creation of an interactive installation between its components, be they the public, the device and the interaction between these components and their particularities in the relational behavior created in the interactivity environment. This research aims to compare the theoretical aspects with the practical experience in attempting to define the framework in which the performative project develops. In this theoretical framework we highlight certain aspects of particular relevance, related to the different types of relationships that are established between individual, device and community. These aspects constitute, at the same time, the theoretical framework and guidelines that structure the performative project, consisting of the creation of the interactive installation Homeostasis. The practical realization of an interactive work as a central element in the development of the research, links the conclusions of the investigation to the specific reactions of the public, leading to a forced confrontation of theoretical aspects with practical evidence, thereby maintaining a substantially empirical analysis of the research results. / El objeto fundamental de esta tesis consiste en la propuesta, desarrollo y verificación de las hipotéticas relaciones que se instauran a partir de la creación de una instalación interactiva entre sus elementos integrantes, sean éstos el público, el dispositivo y la interrelación entre estos componentes y sus particularidades en el tejido relacional creado en ámbito de la interactividad. Esta investigación pretende contrastar los aspectos teóricos con la experiencia práctica en el intento de definir el marco teórico en el que el proyecto performativo se desarrolla. En este marco teórico se evidencian determinados aspectos de particular relevancia, vinculados con las diferentes tipologías de relaciones que se instauran entre individuo, dispositivo y colectividad. Estos aspectos constituyen al mismo tiempo el marco teórico y las líneas guía que estructuran el proyecto performativo, constituido por la creación de la obra interactiva Homeostasis. La realización práctica de una obra interactiva como elemento central en el desarrollo de la investigación, vincula las conclusiones del trabajo a las reacciones concretas del público, conduciendo a una confrontación obligada de los aspectos teóricos con las evidencias prácticas, manteniendo de esta forma un análisis sustancialmente empírico de los resultados de la investigación. / L'objectiu fonamental d'aquesta tesi consisteix en la proposta, desenvolupament i verificació d'hipotètiques relacions que s'instauren a partir de la creació d'una instal.lació interactiva entre els elements que la integren, essent aquests, públic, dispositiu i interrelació entre aquests components i les seues particularitats en la xarxa relacional creada en l'àmbit d'interactivitat. Aquesta investigació pretén contrastar la vessant teòrica amb l'experiència pràctica en l'intent de definir el marc teòric amb el qual el projecte performatiu es desenvolupa. En aquest marc teòric s'evidencien alguns aspectes d'especial rellevància, vinculats amb diferents tipologies de relacions que s'instauren entre individu, dispositiu i colectivitat. Aquests aspectes constitueixen al mateix temps el marc teòric i les línies directrius que estructuren el projecte performatiu, constituït per la creació de l'obra interactiva Homeostasis. La realització pràctica d'una obra interactiva com element central en el desenvolupament de la investigació, vincula les conclusions del treball a les reaccions concretes del públic, conduint a una confrontació obligada de l'aspecte teòric amb les evidències pràctiques, mantenint d'aquesta manera una anàlisi sustancialment empíric dels resultats de la investigació. / Scarani, S. (2016). Interactividad como extensión del individuo a través de la creación de Homeostasis: Instalación interactiva para dos corazones y manos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/77145 / TESIS / Premios Extraordinarios de tesis doctorales
130

Análisis y caracterización del tráfico HTC+MTC en una Smart City. Modelado de fuentes y calidad de servicio

Gómez Sacristán, Ángel Aureliano 10 September 2018 (has links)
[ES] Las ciudades constituyen un poderoso motor de crecimiento económico y social gracias a las oportunidades que ofrecen en contraposición al medio rural: mayor diversidad y cali-dad de empleo junto con mejores infraestructuras y servicios. Sin embargo, este crecimien-to genera una demanda creciente de recursos por lo que su gestión sostenible se ha conver-tido en un elemento clave en la política de las administraciones en todo el mundo. El concepto de "Ciudad Inteligente" surge para dar una respuesta global para el entorno urbano. Los principales organismos de estandarización están desarrollando un ecosistema de recomendaciones que definen entre otros aspectos, y relacionados con el ámbito tecno-lógico de la presente tesis, una arquitectura tecnológica consistente, métricas e indicadores de rendimiento, así como un modelo integrado de información. En este complejo entorno, la red de comunicaciones de una Ciudad Inteligente ha de ser capaz de adaptarse a los incrementos, en muchos casos abruptos, del tráfico generado por miles de dispositivos de naturaleza, criticidad y comportamiento heterogéneo. Garantizar la calidad, disponibilidad y prestaciones de los servicios subyacentes cuando éstos compi-ten por recursos limitados, así como evaluar el impacto de la introducción de nuevos servi-cios "smart", es un área de creciente interés. Aspectos como la cobertura geográfica, el bajo consumo y coste de los dispositivos, junto con la aparición de nuevas tecnologías y novedosos patrones de tráfico no suficientemen-te caracterizados, generan nuevos retos que es necesario abordar. Sirva como ejemplo el lanzamiento en España de los primeros servicios NB-IoT (3GPP TR 45.820 Cellular system support for ultra-low complexity and low throughput Internet of Things) y el reto que su-pondrá el despliegue de las tecnologías 5G en entornos urbanos. Esta tesis, que desarrolla el objetivo 05 del Proyecto de Investigación "MEC TIN2013-47272-C2-1-R - Plataforma de Servicios para Ciudades Inteligentes con Redes M2M Den-sas (PLASMA). Caracterización de servicios MTC/IoT y modelado de patrones de tráfico", profundiza en los aspectos relacionados con la evaluación de prestaciones de diversos servicios bajo una arquitectura de referencia. Para ello se han caracterizado las diferentes fuentes de tráfico que intervienen en una ciudad inteligente y se ha definido una red mode-lo convergente de acuerdo con las recomendaciones ITU-T Y.2011/Y.2012/Q3.900 (Next Generation Networks - Frameworks and functional architecture models & testing). En base a las conclusiones anteriores, se ha diseñado una herramienta denominada "Si-mulCity" que permite simular de manera flexible escenarios donde múltiples fuentes con-figurables de voz, vídeo y MTC comparten recursos en la red modelo definida. SimulCity permite la configuración de los mecanismos de gestión de tráfico (control de admisión en el acceso, clases de servicio, funciones policía, tránsito en la red MPLS) para evaluar presta-ciones y dimensionar adecuadamente los parámetros de caudales y clases de servicio que garanticen el adecuado funcionamiento de las aplicaciones. La herramienta Simulcity se ha utilizado para simular diferentes escenarios de servicios que están en proceso de implantación en la ciudad de València. Los resultados obtenidos han permitido realizar un dimensionado adecuado de los recursos de ancho de banda y clases de servicio necesarios con anterioridad a su despliegue. / [EN] Cities are a powerful engine for economic and social growth thanks to the opportuni-ties offered in contrast to the rural environment: greater diversity and quality of em-ployment together with better infrastructure and services. However, this growth gen-erates an increasing demand for resources, so that its sustainable management has be-come a key element in the policy of administrations around the world. The concept of "Smart City" emerges to give a global response to the urban environ-ment. The main standardization bodies are developing an ecosystem of recommenda-tions that define, among other aspects, and related to the technological scope of this thesis, a consistent technological architecture, metrics and performance indicators, as well as an integrated model of information. In this complex environment, the telecommunications network of a Smart City must be able to adapt to the often-abrupt increases in traffic generated by thousands of de-vices of a nature, criticality and heterogeneous behaviour. Ensuring the quality, avail-ability and performance of underlying services when they compete for limited re-sources, as well as assessing the impact of the introduction of new smart services, is an area of growing interest. Aspects such as geographical coverage, low consumption and cost of the devices, to-gether with the appearance of new technologies and novel traffic patterns not suffi-ciently characterized, generate new challenges that need to be addressed. An example is the launch in Spain of the first NB-IoT services (3GPP TR 45.820 Cellular system support for ultra-low complexity and low throughput Internet of Things) and the chal-lenge that will involve the deployment of 5G technologies in urban environments. This thesis, which develops objective 05 of the Research Project "MEC TIN2013-47272-C2-1-R - Services Platform for Smart Cities with Dense M2M Networks (PLASMA). Characterization of MTC / IoT services and modelling of traffic patterns ", delves into the aspects related to the evaluation of the performance of various ser-vices under a reference architecture. For this, the different sources of traffic that in-tervene in an intelligent city have been characterized and a convergent model network has been defined in accordance with ITU-T recommendations Y.2011 / Y.2012 / Q3.900 (Next Generation Networks - Frameworks and functional architecture models & testing). Based on the above conclusions, a tool called "SimulCity" has been designed that al-lows to simulate in a flexible way scenario where multiple configurable sources of voice, video and MTC share resources in the defined model network. SimulCity al-lows the configuration of the traffic management mechanisms (access admission con-trol, service classes, police functions, traffic in the MPLS network) to evaluate per-formance and adequately dimension the parameters of flow rates and service classes that guarantee the adequate operation of the applications. The Simulcity tool has been used to simulate different service scenarios that are in the process of being implemented in the city of Valencia. The results obtained have al-lowed an adequate sizing of the bandwidth resources and service classes necessary prior to their deployment. / [CA] Les ciutats constituïxen un poderós motor de creixement econòmic i social gràcies a les oportunitats que oferixen en contraposició al medi rural: major diversitat i qualitat d'ocupació junt amb millors infraestructures i servicis. No obstant això, este creixe-ment genera una demanda creixent de recursos i la seua gestió sostenible s'ha convertit en un element clau en la política de les administracions en tot el món. El concepte de "Ciutat Intel·ligent" sorgix per a donar una resposta global per a l'en-torn urbà. Els principals organismes d'estandardització estan desenrotllant un ecosiste-ma de recomanacions que definixen entre altres aspectes, i relacionats amb l'àmbit tecnològic de la present tesi, una arquitectura tecnològica consistent, mètriques i indi-cadors de rendiment, així com un model integrat d'informació. En este complex entorn, la xarxa de comunicacions de una Ciutat Intel·ligen ha de ser capaç d'adaptar-se als increments, en molts casos abruptes, del tràfic generat per milers de dispositius de naturalesa, criticidad i comportament heterogeni. Garantir la qualitat, disponibilitat i prestacions dels servicis subjacents quan estos competixen per recursos limitats, així com avaluar l'impacte de la introducció de nous servicis "smart", és una àrea de creixent interés. Aspectes com la cobertura geogràfica, el baix consum i cost dels dispositius, junt amb l'aparició de noves tecnologies i nous patrons de tràfic no suficientment caracteritzats, generen nous reptes que és necessari abordar. Servisca com a exemple el llançament a Espanya dels primers servicis NB-IoT (3GPP TR 45.820 Cellular system support for ultra-low complexity and low throughput Internet of Things) i el repte que suposarà el desplegament de les tecnologies 5G en entorns urbanes. Esta tesi, que desenrotlla l'objectiu 05 del Projecte d'Investigació "MEC TIN2013-47272-C2-1-R - Plataforma de Servicis per a Ciutats Intel·ligents amb Xarxes M2M Denses (PLASMA) . Caracterització de servicis MTC/IoT i modelatge de patrons de tráfico&", aprofundix en els aspectes relacionats amb l'avaluació de prestacions de diversos servicis davall una arquitectura de referència. Per a això s'han caracteritzat les diferents fonts de tràfic que intervenen en una ciutat intel·ligent i s'ha definit una xar-xa model convergent d'acord amb les recomanacions ITU-T Y.2011/Y.2012/Q3.900 (Next Generation Networks - Frameworks and fun-ctional architecture models & tes-ting). Basant-se en les conclusions anteriors, s'ha dissenyat una ferramenta denominada "Si-mulCity"; que permet simular de manera flexible escenaris on múltiples fonts configu-rables de veu, vídeo i MTC compartixen recursos en la xarxa model definida. Simul-City permet la configuració dels mecanismes de gestió de tràfic (control d'admissió en l'accés, classes de servici, funcions policia, trànsit en la xarxa MPLS) per a avaluar prestacions i dimensionar adequadament els paràmetres de cabals i classes de servici que garantisquen l'adequat funcionament de les aplicacions. La ferramenta Simulcity s'ha utilitzat per a simular diferents escenaris de servicis que estan en procés d'implantació en la ciutat de València. Els resultats obtinguts han per-més realitzar un dimensionat adequat dels recursos d'amplada de banda i classes de servici necessaris amb anterioritat al seu desplegament. / Gómez Sacristán, ÁA. (2018). Análisis y caracterización del tráfico HTC+MTC en una Smart City. Modelado de fuentes y calidad de servicio [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/107357 / TESIS

Page generated in 0.4044 seconds