• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 38
  • Tagged with
  • 112
  • 112
  • 56
  • 53
  • 48
  • 45
  • 41
  • 41
  • 41
  • 41
  • 41
  • 34
  • 32
  • 27
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Consensus and analia: new challenges in detection and management of security vulnerabilities in data networks

Corral Torruella, Guiomar 10 September 2009 (has links)
A mesura que les xarxes passen a ser un element integral de les corporacions, les tecnologies de seguretat de xarxa es desenvolupen per protegir dades i preservar la privacitat. El test de seguretat en una xarxa permet identificar vulnerabilitats i assegurar els requisits de seguretat de qualsevol empresa. L'anàlisi de la seguretat permet reconèixer informació maliciosa, tràfic no autoritzat, vulnerabilitats de dispositius o de la xarxa, patrons d'intrusió, i extreure conclusions de la informació recopilada en el test. Llavors, on està el problema? No existeix un estàndard de codi obert ni un marc integral que segueixi una metodologia de codi obert per a tests de seguretat, la informació recopilada després d'un test inclou moltes dades, no existeix un patró exacte i objectiu sobre el comportament dels dispositius de xarxa ni sobre les xarxes i, finalment, el nombre de vulnerabilitats potencials és molt extens. El desafiament d'aquest domini resideix a tenir un gran volum de dades complexes, on poden aparèixer diagnòstics inconsistents. A més, és un domini no supervisat on no s'han aplicat tècniques d'aprenentatge automàtic anteriorment. Per això cal una completa caracterització del domini. Consensus és l'aportació principal d'aquesta tesi: un marc integrat que inclou un sistema automatitzat per millorar la realització de tests en una xarxa i l'anàlisi de la informació recollida. El sistema automatitza els mecanismes associats a un test de seguretat i minimitza la durada de l'esmentat test, seguint la metodologia OSSTMM. Pot ser usat en xarxes cablejades i sense fils. La seguretat es pot avaluar des d'una perspectiva interna, o bé externa a la pròpia xarxa. Es recopilen dades d'ordinadors, routers, firewalls i detectors d'intrusions. Consensus gestionarà les dades a processar per analistes de seguretat. Informació general i específica sobre els seus serveis, sistema operatiu, la detecció de vulnerabilitats, regles d'encaminament i de filtrat, la resposta dels detectors d'intrusions, la debilitat de les contrasenyes, i la resposta a codi maliciós o a atacs de denegació de servei són un exemple de les dades a emmagatzemar per cada dispositiu. Aquestes dades són recopilades per les eines de test incloses a Consensus.La gran quantitat de dades per cada dispositiu i el diferent número i tipus d'atributs que els caracteritzen, compliquen l'extracció manual d'un patró de comportament. Les eines de test automatitzades poden obtenir diferents resultats sobre el mateix dispositiu i la informació recopilada pot arribar a ser incompleta o inconsistent. En aquest entorn sorgeix la segona principal aportació d'aquesta tesi: Analia, el mòdul d'anàlisi de Consensus. Mentre que Consensus s'encarrega de recopilar dades sobre la seguretat dels dispositius, Analia inclou tècniques d'Intel·ligència Artificial per ajudar als analistes després d'un test de seguretat. Diferents mètodes d 'aprenentatge no supervisat s'han analitzat per ser adaptats a aquest domini. Analia troba semblances dins dels dispositius analitzats i l'agrupació dels esmentats dispositius ajuda als analistes en l'extracció de conclusions. Les millors agrupacions són seleccionades mitjançant l'aplicació d'índexs de validació. A continuació, el sistema genera explicacions sobre cada agrupació per donar una resposta més detallada als analistes de seguretat.La combinació de tècniques d'aprenentatge automàtic en el domini de la seguretat de xarxes proporciona beneficis i millores en la realització de tests de seguretat mitjançant la utilització del marc integrat Consensus i el seu sistema d'anàlisi de resultats Analia. / A medida que las redes pasan a ser un elemento integral de las corporaciones, las tecnologías de seguridad de red se desarrollan para proteger datos y preservar la privacidad. El test de seguridad en una red permite identificar vulnerabilidades y asegurar los requisitos de seguridad de cualquier empresa. El análisis de la seguridad permite reconocer información maliciosa, tráfico no autorizado, vulnerabilidades de dispositivos o de la red, patrones de intrusión, y extraer conclusiones de la información recopilada en el test. Entonces, ¿dónde está el problema? No existe un estándar de código abierto ni un marco integral que siga una metodología de código abierto para tests de seguridad, la información recopilada después de un test incluye muchos datos, no existe un patrón exacto y objetivo sobre el comportamiento de los dispositivos de red ni sobre las redes y, finalmente, el número de vulnerabilidades potenciales es muy extenso. El desafío de este dominio reside en tener un gran volumen de datos complejos, donde pueden aparecer diagnósticos inconsistentes. Además, es un dominio no supervisado donde no se han aplicado técnicas de aprendizaje automático anteriormente. Por ello es necesaria una completa caracterización del dominio.Consensus es la aportación principal de esta tesis: un marco integrado que incluye un sistema automatizado para mejorar la realización de tests en una red y el análisis de la información recogida. El sistema automatiza los mecanismos asociados a un test de seguridad y minimiza la duración de dicho test, siguiendo la metodología OSSTMM. Puede ser usado en redes cableadas e inalámbricas. La seguridad se puede evaluar desde una perspectiva interna, o bien externa a la propia red. Se recopilan datos de ordenadores, routers, firewalls y detectores de intrusiones. Consensus gestionará los datos a procesar por analistas de seguridad. Información general y específica sobre sus servicios, sistema operativo, la detección de vulnerabilidades, reglas de encaminamiento y de filtrado, la respuesta de los detectores de intrusiones, la debilidad de las contraseñas, y la respuesta a código malicioso o a ataques de denegación de servicio son un ejemplo de los datos a almacenar por cada dispositivo. Estos datos son recopilados por las herramientas de test incluidas en Consensus. La gran cantidad de datos por cada dispositivo y el diferente número y tipo de atributos que les caracterizan, complican la extracción manual de un patrón de comportamiento. Las herramientas de test automatizadas pueden obtener diferentes resultados sobre el mismo dispositivo y la información recopilada puede llegar a ser incompleta o inconsistente. En este entorno surge la segunda principal aportación de esta tesis: Analia, el módulo de análisis de Consensus. Mientras que Consensus se encarga de recopilar datos sobre la seguridad de los dispositivos, Analia incluye técnicas de Inteligencia Artificial para ayudar a los analistas después de un test de seguridad. Distintos métodos de aprendizaje no supervisado se han analizado para ser adaptados a este dominio. Analia encuentra semejanzas dentro de los dispositivos analizados y la agrupación de dichos dispositivos ayuda a los analistas en la extracción de conclusiones. Las mejores agrupaciones son seleccionadas mediante la aplicación de índices de validación. A continuación, el sistema genera explicaciones sobre cada agrupación para dar una respuesta más detallada a los analistas de seguridad.La combinación de técnicas de aprendizaje automático en el dominio de la seguridad de redes proporciona beneficios y mejoras en la realización de tests de seguridad mediante la utilización del marco integrado Consensus y su sistema de análisis de resultados Analia. / As networks become an integral part of corporations and everyone's lives, advanced network security technologies are being developed to protect data and preserve privacy. Network security testing is necessary to identify and report vulnerabilities, and also to assure enterprise security requirements. Security analysis is necessary to recognize malicious data, unauthorized traffic, detected vulnerabilities, intrusion data patterns, and also to extract conclusions from the information gathered in the security test. Then, where is the problem? There is no open-source standard for security testing, there is no integral framework that follows an open-source methodology for security testing, information gathered after a security test includes large data sets, there is not an exact and objective pattern of behavior among network devices or, furthermore, among data networks and, finally, there are too many potentially vulnerabilities. The challenge of this domain resides in having a great volume of data; data are complex and can appear inconsistent diagnostics. It is also an unsupervised domain where no machine learning techniques have been applied before. Thus a complete characterization of the domain is needed.Consensus is the main contribution of this thesis. Consensus is an integrated framework that includes a computer-aided system developed to help security experts during network testing and analysis. The system automates mechanisms related to a security assessment in order to minimize the time needed to perform an OSSTMM security test. This framework can be used in wired and wireless networks. Network security can be evaluated from inside or from outside the system. It gathers data of different network devices, not only computers but also routers, firewalls and Intrusion Detection Systems (IDS). Consensus manages many data to be processed by security analysts after an exhaustive test. General information, port scanning data, operating system fingerprinting, vulnerability scanning data, routing and filtering rules, IDS response, answer to malicious code, weak passwords reporting, and response to denial of service attacks can be stored for each tested device. This data is gathered by the automated testing tools that have been included in Consensus.The great amount of data for every device and the different number and type of attributes complicates a manually traffic pattern finding. The automated testing tools can obtain different results, incomplete or inconsistent information. Then data obtained from a security test can be uncertain, approximate, complex and partial true. In this environment arises the second main contribution of this thesis: Analia, the data analysis module of Consensus. Whereas Consensus gathers security data, Analia includes Artificial Intelligence to help analysts after a vulnerability assessment. Unsupervised learning has been analyzed to be adapted to this domain. Analia finds resemblances within tested devices and clustering aids analysts in the extraction of conclusions. Afterwards, the best results are selected by applying cluster validity indices. Then explanations of clustering results are included to give a more comprehensive response to security analysts.The combination of machine learning techniques in the network security domain provides benefits and improvements when performing security assessments with the Consensus framework and processing its results with Analia.
102

Diseño de una metodología cibermétrica de cálculo del éxito para la optimización de contenidos web

Yeste Moreno, Víctor Manuel 04 November 2021 (has links)
[EN] The object of this study is the design of a cybermetric methodology whose objectives are to measure the success of the content published in an online media and the possible prediction of the selected success variables. Framed in the field of digital journalism, it responds to the need to analyze the success of web content so that it can help in the decision-making of the editorial team of a digital medium. A line of research focused on the content itself, providing an innovative vision to that of previous research, and a methodology that serves as a basis for future scientific advances. It is about the contribution of valuable information, either from the statistical analysis of the data or from the possible prediction of the success indicators of greatest interest to the environment. In this way, it could be integrated as a feedback into the content strategy and thus favor its iterative optimization. The main objective, therefore, is the design of a cybermetric methodology for calculating the success of an online publication, having as specific objectives: to research the concept of success in digital journalism, the social network Twitter, web analytics and web advertising; design the methodology and determine what tools and reports are needed; extract and process data for statistical analysis; perform regressions that allow to obtain prediction equations of the selected success variables; and validate the prediction equations with test data and obtain their precision, serving this as a degree of confidence in the prediction. The design of the methodology has served to observe a significant over-dispersion in the data, as well as to demonstrate that the success of a web content has a strongly multifactorial nature, which causes a decrease in the variability calculated using the indicators proposed by previous research. This thesis serves, then, as the basis for a very interesting research framework both at an academic and business level: the prediction of the success of digital content. / [ES] El objetivo de estudio es el diseño de una metodología cibermétrica para medir el éxito de los contenidos publicados en un medio de comunicación online y su posible predicción, de manera que se pueda orientar la optimización de los futuros contenidos publicados por el medio. Enmarcada en el ámbito del periodismo digital, responde a la necesidad de analizar el éxito de los contenidos web de manera que se pueda ayudar en la toma de decisiones del equipo editorial. Para ello, se ha realizado un extenso estudio de las publicaciones académicas versadas en las diferentes disciplinas que tienen lugar en esta tesis: la comunicación de contenidos digitales, Twitter, la difusión de las noticias en Twitter, la analítica web, la cibermetría, la analítica en Twitter, el análisis de tendencias en Twitter y la publicidad web. Con dicho marco, se ha obtenido información valiosa para la optimización futura de los contenidos digitales, ya sea procedente del análisis estadístico de los datos o de la posible predicción de los indicadores de éxito de mayor interés para el medio. De esta manera, se podría integrar de manera retroalimentada en la estrategia de contenidos y favorecer así su optimización iterativamente. Para ello, se han tenido en cuenta los siguientes objetivos específicos: investigar el concepto de éxito en el periodismo digital, la red social Twitter, la analítica web y la publicidad en la web; diseñar la metodología y determinar qué herramientas y reportes son necesarios; extraer y procesar los datos para su análisis estadístico; realizar regresiones que permitan obtener ecuaciones de predicción de las variables de éxito seleccionadas; y validar las ecuaciones de predicción con datos de test y obtener su precisión, sirviendo esta como grado de confianza en la predicción. El diseño de la metodología ha servido para observar una sobre dispersión significativa en los datos, así como demostrar que el éxito de un contenido web tiene un carácter fuertemente multifactorial, lo cual provoca una disminución en la variabilidad calculada mediante los indicadores propuestos por investigaciones previas. Esta tesis sirve, entonces, como base para una línea de investigación sobre la optimización de contenido digital basándose en la predicción estadística de su éxito. / [CAT] L'objectiu d'estudi és el disseny d'una metodologia cibermètrica per a mesurar l'èxit dels continguts publicats en un mitjà de comunicació en línia i la seua possible predicció, de manera que es puga orientar l'optimització dels futurs continguts publicats pel mitjà. Emmarcada en l'àmbit del periodisme digital, respon a la necessitat d'analitzar l'èxit dels continguts web de manera que es puga ajudar en la presa de decisions de l'equip editorial. Per a això, s'ha realitzat un extens estudi de les publicacions acadèmiques versades en les diferents disciplines que tenen lloc en aquesta tesi: la comunicació de continguts digitals, Twitter, la difusió de les notícies en Twitter, l'analítica web, la cibermetría, l'analítica en Twitter, l'anàlisi de tendències en Twitter i la publicitat web. Amb aquest marc, s'ha obtingut informació valuosa per a l'optimització futura dels continguts digitals, ja siga procedent de l'anàlisi estadística de les dades o de la possible predicció dels indicadors d'èxit de major interés per al mitjà. D'aquesta manera, es podria integrar de manera retroalimentada en l'estratègia de continguts i afavorir així la seua optimització iterativament. Per a això, s'han tingut en compte els següents objectius específics: investigar el concepte d'èxit en el periodisme digital, la xarxa social Twitter, l'analítica web i la publicitat en la web; dissenyar la metodologia i determinar quines eines i reportes són necessaris; extraure i processar les dades per a la seua anàlisi estadística; realitzar regressions que permeten obtindre equacions de predicció de les variables d'èxit seleccionades; i validar les equacions de predicció amb dades de test i obtindre la seua precisió, servint aquesta com a grau de confiança en la predicció. El disseny de la metodologia ha servit per a observar una sobre dispersió significativa en les dades, així com demostrar que l'èxit d'un contingut web té un caràcter fortament multifactorial, la qual cosa provoca una disminució en la variabilitat calculada mitjançant els indicadors proposats per investigacions prèvies. Aquesta tesi serveix, llavors, com a base per a una línia d'investigació sobre l'optimització de contingut digital basant-se en la predicció estadística del seu èxit. / Yeste Moreno, VM. (2021). Diseño de una metodología cibermétrica de cálculo del éxito para la optimización de contenidos web [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/176009 / TESIS
103

Infrared Thermography for the Assessment of Lumbar Sympathetic Blocks in Patients with Complex Regional Pain Syndrome

Cañada Soriano, Mar 21 March 2022 (has links)
[ES] El síndrome de dolor regional complejo (SDRC) es un trastorno de dolor crónico debilitante que suele afectar a una extremidad, y se caracteriza por su compleja e incomprendida fisiopatología subyacente, lo que supone un reto para su diagnóstico y tratamiento. Para evitar el deterioro de la calidad de vida de los pacientes, la consecución de un diagnóstico y tratamiento tempranos marca un punto de inflexión. Entre los diferentes tratamientos, los bloqueos simpáticos lumbares (BSLs) tienen como objetivo aliviar el dolor y reducir algunos signos simpáticos de la afección. Este procedimiento intervencionista se lleva a cabo inyectando anestesia local alrededor de los ganglios simpáticos y, hasta ahora, se realiza frecuentemente bajo el control de diferentes técnicas de imagen, como los ultrasonidos o la fluoroscopia. Dado que la termografía infrarroja (TIR) ha demostrado ser una herramienta eficaz para evaluar la temperatura de la piel, y teniendo en cuenta el efecto vasodilatador que presentan los anestésicos locales inyectados, se ha considerado el uso de la IRT para la evaluación de los BSLs. El objetivo de esta tesis es, estudiar la capacidad de la TIR como una técnica complementaria para la evaluación de la eficacia en la ejecución de los BSLs. Para cumplir este objetivo, se han realizado tres estudios implementando la TIR en pacientes diagnosticados de SDRC de miembros inferiores sometidos a BSLs. El primer estudio se centra en la viabilidad de la TIR como herramienta complementaria para la evaluación de la eficacia ejecución de los BSLs. Cuando se realizan los BSLs, la colocación correcta de la aguja es crítica para llevar realizar el procedimiento técnicamente correcto y, en consecuencia, para lograr los resultados clínicos deseados. Para verificar la posición de la aguja, tradicionalmente se han utilizado técnicas de imagen, sin embargo, los BSLs bajo control fluoroscópico no siempre aseguran su exacta ejecución. Por este motivo, se han aprovechado las alteraciones térmicas inducidas por los anestésicos locales y se han evaluado mediante la TIR. Así, cuando en las imágenes infrarrojas se observaron cambios térmicos en la planta del pie afectado tras la inyección de lidocaína, se consideró que el BSL era exitoso. El segundo estudio trata del análisis cuantitativo de los datos térmicos recogidos en el entorno clínico a partir de diferentes parámetros basados en las temperaturas extraídas de ambos pies. Según los resultados, para predecir adecuadamente los BSLs exitosos, se deberían analizar las temperaturas de las plantas de los pies durante los primeros cuatro minutos tras la inyección del anestésico local. Así, la aplicación de la TIR en el entorno clínico podría ser de gran ayuda para evaluar la eficacia de ejecución de los BSLs mediante la evaluación de las temperaturas de los pies en tiempo real. Por último, el tercer estudio aborda el análisis cuantitativo mediante la implementación de herramientas de machine learning (ML) para evaluar su capacidad de clasificar automáticamente los BSLs. En este estudio se han utilizado una serie de características térmicas extraídas de las imágenes infrarrojas para evaluar cuatro algoritmos de ML para tres momentos diferentes después del instante de referencia (inyección de lidocaína). Los resultados indican que los cuatro modelos evaluados presentan buenos rendimientos para clasificar automáticamente los BSLs entre exitosos y fallidos. Por lo tanto, la combinación de parámetros térmicos junto con de clasificación ML muestra ser eficaz para la clasificación automática de los procedimientos de BSLs. En conclusión, el uso de la TIR como técnica complementaria en la práctica clínica diaria para la evaluación de los BSLs ha demostrado ser totalmente eficaz. Dado que es un método objetivo y relativamente sencillo de implementar, puede permitir que los médicos especialistas en dolor identifiquen los bloqueos realizados fallidos y, en consecuencia, puedan revertir esta situación. / [CA] La síndrome de dolor regional complex (SDRC) és un trastorn de dolor crònic debilitant que sol afectar una extremitat, i es caracteritza per la seua complexa i incompresa fisiopatologia subjacent, la qual cosa suposa un repte per al seu diagnòstic i tractament. Per a evitar la deterioració de la qualitat de vida dels pacients, la consecució d'un diagnòstic i tractament primerencs marca un punt d'inflexió. Entre els diferents tractaments , els bloquejos simpàtics lumbars (BSLs) tenen com a objectiu alleujar el dolor i reduir alguns signes simpàtics de l'afecció. Aquest procediment intervencionista es duu a terme injectant anestèsia local al voltant dels ganglis simpàtics i, fins ara, es realitza freqüentment sota el control de diferents tècniques d'imatge, com els ultrasons o la fluoroscopia. Atés que la termografia infraroja (TIR) ha demostrat ser una eina eficaç per a avaluar la temperatura de la pell, i tenint en compte l'efecte vasodilatador que presenten els anestèsics locals injectats, s'ha considerat l'ús de la TIR per a l'avaluació dels BSLs. L'objectiu d'aquesta tesi és, estudiar la capacitat de la TIR com una tècnica complementària per a l'avaluació de l'eficàcia en l'execució dels BSLs. Per a complir aquest objectiu, s'han realitzat tres estudis implementant la TIR en pacients diagnosticats de SDRC de membres inferiors sotmesos a BSLs. El primer estudi avalua la viabilitat de la TIR com a eina complementària per a l'analisi de l'eficàcia en l'execució dels BSLs. Quan es realitzen els BSLs, la col·locació correcta de l'agulla és crítica per a dur a terme el procediment tècnicament correcte i, en conseqüència, per a aconseguir els resultats clínics desitjats. Per a verificar la posició de l'agulla, tradicionalment s'han utilitzat tècniques d'imatge, no obstant això, els BSLs baix control fluoroscòpic no sempre asseguren la seua exacta execució. Per aquest motiu, s'han aprofitat les alteracions tèrmiques induïdes pels anestèsics locals i s'han avaluat mitjançant la TIR. Així, quan en les imatges infraroges es van observar canvis tèrmics en la planta del peu afectat després de la injecció de lidocaIna, es va considerar que el BSL era exitós. El segon estudi tracta de l'anàlisi quantitativa de les dades tèrmiques recollides en l'entorn clínic a partir de diferents paràmetres basats en les temperatures extretes d'ambdós peus. Segons els resultats, per a predir adequadament l'execució exitosa d'un BSL, s'haurien d'analitzar les temperatures de les plantes dels peus durant els primers quatre minuts després de la injecció de l'anestèsic local. Així, l'implementació de la TIR en l'entorn clínic podria ser de gran ajuda per a avaluar l'eficàcia d'execució dels BSLs mitjançant l'avaluació de les temperatures dels peus en temps real. El tercer estudi aborda l'anàlisi quantitativa mitjançant la implementació d'eines machine learning (ML) per a avaluar la seua capacitat de classificar automàticament els BSLs. En aquest estudi s'han utilitzat una sèrie de característiques tèrmiques extretes de les imatges infraroges per a avaluar quatre algorismes de ML per a tres moments diferents després de l'instant de referència (injecció de lidocaïna). Els resultats indiquen que els quatre models avaluats presenten bons rendiments per a classificar automàticament els BSLs en exitosos i fallits. Per tant, la combinació de paràmetres tèrmics juntament amb models de classificació ML mostra ser eficaç per a la classificació automàtica dels procediments de BSLs. En conclusió, l'ús de la TIR com a tècnica complementària en la pràctica clínica diària per a l'avaluació dels BSLs ha demostrat ser totalment eficaç. Atés que és un mètode objectiu i relativament senzill d'implementar, pot ajudar els metges especialistes en dolor a identificar els bloquejos realitzats fallits i, en conseqüència, puguen revertir aquesta situació. / [EN] Complex regional pain syndrome (CRPS) is a debilitating chronic pain condition that usually affects one limb, and it is characterized by its misunderstood underlying pathophysiology, resulting in both challenging diagnosis and treatment. To avoid the patients' impairment quality of life, the achievement of both an early diagnosis and treatment marks a turning point. Among the different treatment approaches, lumbar sympathetic blocks (LSBs) are addressed to alleviate the pain and reduce some sympathetic signs of the condition. This interventional procedure is performed by injecting local anaesthetic around the sympathetic ganglia and, until now, it has been performed under different imaging techniques, including the ultrasound or the fluoroscopy approaches. Since infrared thermography (IRT) has proven to be a powerful tool to evaluate skin temperatures and taking into account the vasodilatory effects of the local anaesthetics injected in the LSB, the use of IRT has been considered for the LSBs assessment. Therefore, the purpose of this thesis is to evaluate the capability of IRT as a complementary assessment technique for the LSBs procedures performance. To fulfil this aim, three studies have been conducted implementing the IRT in patients diagnosed with lower limbs CRPS undergoing LSBs. The first study focuses on the feasibility of IRT as a complementary assessment tool for LSBs performance, that is, for the confirmation of the proper needle position. When LSBs are performed, the correct needle placement is critical to carry out the procedure technically correct and, consequently, to achieve the desired clinical outcomes. To verify the needle placement position, imaging techniques have traditionally been used, however, LSBs under radioscopic guidance do not always ensure an exact performance. For this reason, the thermal alterations induced by the local anaesthetics, have been exploited and assessed by means of IRT. Thus, the LSB procedure was considered successfully performed when thermal changes within the affected plantar foot were observed in the infrared images after the lidocaine injection. The second study deals with the quantitative analysis of the thermal data collected in the clinical setting through the evaluation of different temperature-based parameters extracted from both feet. According to the results, the proper LSB success prediction could be achieved in the first four minutes after the block through the evaluation of the feet skin temperatures. Therefore, the implementation of IRT in the clinical setting might be of great help in assessing the LSBs performance by evaluating the plantar feet temperatures in real time. Finally, the third study addresses the quantitative analysis by implementing machine learning (ML) tools to assess their capability to automatically classify LSBs. In this study, a set of thermal features retrieved from the infrared images have been used to evaluate four ML algorithms for three different moments after the baseline time (lidocaine injection). The results indicate that all four models evaluated present good performance metrics to automatically classify LSBs into successful and failed. Therefore, combining infrared features with ML classification models shows to be effective for the LSBs procedures automatic classification. In conclusion, the use of IRT as a complementary technique in daily clinical practice for LSBs assessment has been evidenced entirely effective. Since IRT is an objective method and it is not very demanding to perform, it is of great help for pain physicians to identify failed procedures, and consequently, it allow them to reverse this situation. / Cañada Soriano, M. (2022). Infrared Thermography for the Assessment of Lumbar Sympathetic Blocks in Patients with Complex Regional Pain Syndrome [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181699 / TESIS
104

Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach

Quirós Díaz, Lorenzo 21 March 2022 (has links)
[ES] El Análisis de la Estructura de Documentos (Document Layout Analysis), aplicado a documentos manuscritos, tiene como objetivo obtener automáticamente la estructura intrínseca de dichos documentos. Su desarrollo como campo de investigación se extiende desde los sistemas de segmentación de caracteres desarrollados a principios de la década de 1960 hasta los sistemas complejos desarrollados en la actualidad, donde el objetivo es analizar estructuras de alto nivel (líneas de texto, párrafos, tablas, etc.) y la relación que existe entre ellas. Esta tesis, en primer lugar, define el objetivo del Análisis de la Estructura de Documentos desde una perspectiva probabilística. A continuación, la complejidad del problema se reduce a un conjunto de subproblemas complementarios bien conocidos, de manera que pueda ser gestionado por medio de recursos informáticos modernos. Concretamente se abordan tres de los principales problemas del Análisis de la Estructura de Documentos siguiendo una formulación probabilística. Específicamente se aborda la Detección de Línea Base (Baseline Detection), la Segmentación de Regiones (Region Segmentation) y la Determinación del Orden de Lectura (Reading Order Determination). Uno de los principales aportes de esta tesis es la formalización de los problemas de Detección de Línea Base y Segmentación de Regiones bajo un marco probabilístico, donde ambos problemas pueden ser abordados por separado o de forma integrada por los modelos propuestos. Este último enfoque ha demostrado ser muy útil para procesar grandes colecciones de documentos con recursos informáticos limitados. Posteriormente se aborda el subproblema de la Determinación del Orden de Lectura, que es uno de los subproblemas más importantes, aunque subestimados, del Análisis de la Extructura de Documentos, ya que es el nexo que permite convertir los datos extraídos de los sistemas de Reconocimiento Automático de Texto (Automatic Text Recognition Systems) en información útil. Por lo tanto, en esta tesis abordamos y formalizamos la Determinación del Orden de Lectura como un problema de clasificación probabilística por pares. Además, se proponen dos diferentes algoritmos de decodificación que reducen la complejidad computacional del problema. Por otra parte, se utilizan diferentes modelos estadísticos para representar la distribución de probabilidad sobre la estructura de los documentos. Estos modelos, basados en Redes Neuronales Artificiales (desde un simple Perceptrón Multicapa hasta complejas Redes Convolucionales y Redes de Propuesta de Regiones), se estiman a partir de datos de entrenamiento utilizando algoritmos de aprendizaje automático supervisados. Finalmente, todas las contribuciones se evalúan experimentalmente, no solo en referencias académicas estándar, sino también en colecciones de miles de imágenes. Se han considerado documentos de texto manuascritos y documentos musicales manuscritos, ya que en conjunto representan la mayoría de los documentos presentes en bibliotecas y archivos. Los resultados muestran que los métodos propuestos son muy precisos y versátiles en una amplia gama de documentos manuscritos. / [CA] L'Anàlisi de l'Estructura de Documents (Document Layout Analysis), aplicada a documents manuscrits, pretén automatitzar l'obtenció de l'estructura intrínseca d'un document. El seu desenvolupament com a camp d'investigació comprén des dels sistemes de segmentació de caràcters creats al principi dels anys 60 fins als complexos sistemes de hui dia que busquen analitzar estructures d'alt nivell (línies de text, paràgrafs, taules, etc) i les relacions entre elles. Aquesta tesi busca, primer de tot, definir el propòsit de l'anàlisi de l'estructura de documents des d'una perspectiva probabilística. Llavors, una vegada reduïda la complexitat del problema, es processa utilitzant recursos computacionals moderns, per a dividir-ho en un conjunt de subproblemes complementaris més coneguts. Concretament, tres dels principals subproblemes de l'Anàlisi de l'Estructura de Documents s'adrecen seguint una formulació probabilística: Detecció de la Línia Base Baseline Detection), Segmentació de Regions (Region Segmentation) i Determinació de l'Ordre de Lectura (Reading Order Determination). Una de les principals contribucions d'aquesta tesi és la formalització dels problemes de la Detecció de les Línies Base i dels de Segmentació de Regions en un entorn probabilístic, sent els dos problemes tractats per separat o integrats en conjunt pels models proposats. Aquesta última aproximació ha demostrat ser de molta utilitat per a la gestió de grans col·leccions de documents amb uns recursos computacionals limitats. Posteriorment s'ha adreçat el subproblema de la Determinació de l'Ordre de Lectura, sent un dels subproblemes més importants de l'Anàlisi d'Estructures de Documents, encara així subestimat, perquè és el nexe que permet transformar en informació d'utilitat l'extracció de dades dels sistemes de reconeixement automàtic de text. És per això que el fet de determinar l'ordre de lectura s'adreça i formalitza com un problema d'ordenació probabilística per parells. A més, es proposen dos algoritmes descodificadors diferents que reducix la complexitat computacional del problema. Per altra banda s'utilitzen diferents models estadístics per representar la distribució probabilística sobre l'estructura dels documents. Aquests models, basats en xarxes neuronals artificials (des d'un simple perceptron multicapa fins a complexes xarxes convolucionals i de propostes de regió), s'estimen a partir de dades d'entrenament mitjançant algoritmes d'aprenentatge automàtic supervisats. Finalment, totes les contribucions s'avaluen experimentalment, no només en referents acadèmics estàndard, sinó també en col·leccions de milers d'imatges. S'han considerat documents de text manuscrit i documents musicals manuscrits, ja que representen la majoria de documents presents a biblioteques i arxius. Els resultats mostren que els mètodes proposats són molt precisos i versàtils en una àmplia gamma de documents manuscrits. / [EN] Document Layout Analysis, applied to handwritten documents, aims to automatically obtain the intrinsic structure of a document. Its development as a research field spans from the character segmentation systems developed in the early 1960s to the complex systems designed nowadays, where the goal is to analyze high-level structures (lines of text, paragraphs, tables, etc) and the relationship between them. This thesis first defines the goal of Document Layout Analysis from a probabilistic perspective. Then, the complexity of the problem is reduced, to be handled by modern computing resources, into a set of well-known complementary subproblems. More precisely, three of the main subproblems of Document Layout Analysis are addressed following a probabilistic formulation, namely Baseline Detection, Region Segmentation and Reading Order Determination. One of the main contributions of this thesis is the formalization of Baseline Detection and Region Segmentation problems under a probabilistic framework, where both problems can be handled separately or in an integrated way by the proposed models. The latter approach is proven to be very useful to handle large document collections under restricted computing resources. Later, the Reading Order Determination subproblem is addressed. It is one of the most important, yet underestimated, subproblem of Document Layout Analysis, since it is the bridge that allows us to convert the data extracted from Automatic Text Recognition systems into useful information. Therefore, Reading Order Determination is addressed and formalized as a pairwise probabilistic sorting problem. Moreover, we propose two different decoding algorithms that reduce the computational complexity of the problem. Furthermore, different statistical models are used to represent the probability distribution over the structure of the documents. These models, based on Artificial Neural Networks (from a simple Multilayer Perceptron to complex Convolutional and Region Proposal Networks), are estimated from training data using supervised Machine Learning algorithms. Finally, all the contributions are experimentally evaluated, not only on standard academic benchmarks but also in collections of thousands of images. We consider handwritten text documents and handwritten musical documents as they represent the majority of documents in libraries and archives. The results show that the proposed methods are very accurate and versatile in a very wide range of handwritten documents. / Quirós Díaz, L. (2022). Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181483 / TESIS
105

Deep Neural Networks for Automatic Speech-To-Speech Translation of Open Educational Resources

Pérez González de Martos, Alejandro Manuel 12 July 2022 (has links)
[ES] En los últimos años, el aprendizaje profundo ha cambiado significativamente el panorama en diversas áreas del campo de la inteligencia artificial, entre las que se incluyen la visión por computador, el procesamiento del lenguaje natural, robótica o teoría de juegos. En particular, el sorprendente éxito del aprendizaje profundo en múltiples aplicaciones del campo del procesamiento del lenguaje natural tales como el reconocimiento automático del habla (ASR), la traducción automática (MT) o la síntesis de voz (TTS), ha supuesto una mejora drástica en la precisión de estos sistemas, extendiendo así su implantación a un mayor rango de aplicaciones en la vida real. En este momento, es evidente que las tecnologías de reconocimiento automático del habla y traducción automática pueden ser empleadas para producir, de forma efectiva, subtítulos multilingües de alta calidad de contenidos audiovisuales. Esto es particularmente cierto en el contexto de los vídeos educativos, donde las condiciones acústicas son normalmente favorables para los sistemas de ASR y el discurso está gramaticalmente bien formado. Sin embargo, en el caso de TTS, aunque los sistemas basados en redes neuronales han demostrado ser capaces de sintetizar voz de un realismo y calidad sin precedentes, todavía debe comprobarse si esta tecnología está lo suficientemente madura como para mejorar la accesibilidad y la participación en el aprendizaje en línea. Además, existen diversas tareas en el campo de la síntesis de voz que todavía suponen un reto, como la clonación de voz inter-lingüe, la síntesis incremental o la adaptación zero-shot a nuevos locutores. Esta tesis aborda la mejora de las prestaciones de los sistemas actuales de síntesis de voz basados en redes neuronales, así como la extensión de su aplicación en diversos escenarios, en el contexto de mejorar la accesibilidad en el aprendizaje en línea. En este sentido, este trabajo presta especial atención a la adaptación a nuevos locutores y a la clonación de voz inter-lingüe, ya que los textos a sintetizar se corresponden, en este caso, a traducciones de intervenciones originalmente en otro idioma. / [CA] Durant aquests darrers anys, l'aprenentatge profund ha canviat significativament el panorama en diverses àrees del camp de la intel·ligència artificial, entre les quals s'inclouen la visió per computador, el processament del llenguatge natural, robòtica o la teoria de jocs. En particular, el sorprenent èxit de l'aprenentatge profund en múltiples aplicacions del camp del processament del llenguatge natural, com ara el reconeixement automàtic de la parla (ASR), la traducció automàtica (MT) o la síntesi de veu (TTS), ha suposat una millora dràstica en la precisió i qualitat d'aquests sistemes, estenent així la seva implantació a un ventall més ampli a la vida real. En aquest moment, és evident que les tecnologies de reconeixement automàtic de la parla i traducció automàtica poden ser emprades per a produir, de forma efectiva, subtítols multilingües d'alta qualitat de continguts audiovisuals. Això és particularment cert en el context dels vídeos educatius, on les condicions acústiques són normalment favorables per als sistemes d'ASR i el discurs està gramaticalment ben format. No obstant això, al cas de TTS, encara que els sistemes basats en xarxes neuronals han demostrat ser capaços de sintetitzar veu d'un realisme i qualitat sense precedents, encara s'ha de comprovar si aquesta tecnologia és ja prou madura com per millorar l'accessibilitat i la participació en l'aprenentatge en línia. A més, hi ha diverses tasques al camp de la síntesi de veu que encara suposen un repte, com ara la clonació de veu inter-lingüe, la síntesi incremental o l'adaptació zero-shot a nous locutors. Aquesta tesi aborda la millora de les prestacions dels sistemes actuals de síntesi de veu basats en xarxes neuronals, així com l'extensió de la seva aplicació en diversos escenaris, en el context de millorar l'accessibilitat en l'aprenentatge en línia. En aquest sentit, aquest treball presta especial atenció a l'adaptació a nous locutors i a la clonació de veu interlingüe, ja que els textos a sintetitzar es corresponen, en aquest cas, a traduccions d'intervencions originalment en un altre idioma. / [EN] In recent years, deep learning has fundamentally changed the landscapes of a number of areas in artificial intelligence, including computer vision, natural language processing, robotics, and game theory. In particular, the striking success of deep learning in a large variety of natural language processing (NLP) applications, including automatic speech recognition (ASR), machine translation (MT), and text-to-speech (TTS), has resulted in major accuracy improvements, thus widening the applicability of these technologies in real-life settings. At this point, it is clear that ASR and MT technologies can be utilized to produce cost-effective, high-quality multilingual subtitles of video contents of different kinds. This is particularly true in the case of transcription and translation of video lectures and other kinds of educational materials, in which the audio recording conditions are usually favorable for the ASR task, and there is a grammatically well-formed speech. However, although state-of-the-art neural approaches to TTS have shown to drastically improve the naturalness and quality of synthetic speech over conventional concatenative and parametric systems, it is still unclear whether this technology is already mature enough to improve accessibility and engagement in online learning, and particularly in the context of higher education. Furthermore, advanced topics in TTS such as cross-lingual voice cloning, incremental TTS or zero-shot speaker adaptation remain an open challenge in the field. This thesis is about enhancing the performance and widening the applicability of modern neural TTS technologies in real-life settings, both in offline and streaming conditions, in the context of improving accessibility and engagement in online learning. Thus, particular emphasis is placed on speaker adaptation and cross-lingual voice cloning, as the input text corresponds to a translated utterance in this context. / Pérez González De Martos, AM. (2022). Deep Neural Networks for Automatic Speech-To-Speech Translation of Open Educational Resources [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/184019 / TESIS / Premios Extraordinarios de tesis doctorales
106

Economía de la innovación y la digitalización del turismo: un estudio del mercado de Airbnb aplicando técnicas econométricas y redes neuronales

Más-Ferrando, Adrián 20 January 2023 (has links)
Esta tesis doctoral tiene como fin realizar una revisión de los principios económicos del turismo desde una perspectiva de la economía de la innovación, analizar el potencial impacto de la aplicación de IA en la industria turística a todos los niveles, y el estudio del mercado turístico más disruptivo de las últimas décadas: la economía de plataforma, ejemplificada en el caso de estudio de Airbnb. En este Capítulo I se establece el hilo conductor de los apartados de los que consta esta tesis en formato compendio, inspirada en diversos trabajos, entre los que se incluyen los publicados por el doctorando en esta etapa predoctoral. Para ello se presenta el diseño de la investigación, explicando detalladamente todo el proceso realizado para lograr el planteamiento de la tesis y la consecución de los objetivos y se dedica un breve apartado para presentar las principales conclusiones de la tesis. El Capítulo II de esta investigación está dedicado a la revisión de la evolución del concepto de innovación y su importancia en la teoría económica. Para ello nos basaremos en referentes teóricos que han estudiado el papel de la tecnología y la innovación en el crecimiento económico, como Schumpeter, Solow, Romer o Lucas. Con ello se pretende comprender el impacto que están teniendo los cambios disruptivos que vivimos en la economía, para posteriormente aplicarlos a la transformación de la estructura de la industria turística. En el Capítulo III se realiza un análisis aplicado de la innovación y del impacto de las nuevas tecnologías en el sector turístico. En él se estudiará el estado de la innovación del sector, realizando importantes aclaraciones sobre la capacidad que tiene la industria para adaptar o desarrollar tecnologías disruptivas. Además, se explicarán los principios digitales que están transformando la industria turística y el nuevo ciclo de investigación derivado de la aparición del Big Data y que está protagonizado por técnicas basadas en algoritmos de Machine Learning, justificando así la elección del sector turístico como caso de estudio. En el Capítulo IV se realiza una revisión completa del proceso transformador que está viviendo la estructura de la industria turística debido al cambio de paradigma tecnológico. Así, se estudia cómo estos procesos innovadores están desarrollando una nueva demanda turística basada en los datos, cómo se está reinventando la cadena de valor turística, cómo se fijan los precios turísticos en un mercado con información casi perfecta, qué retos supone para el mercado laboral y formativo del sector, y qué papel juegan en el surgimiento de nuevos competidores de base tecnológica en el sector. En los Capítulos V y VI se escoge como caso de estudio aplicado el mercado alojativo, utilizando la información de Airbnb. Sin duda, esta empresa representa muchos de los desafíos a los que se enfrenta el sector en cuestiones tecnológicas, de regulación política, intervención de mercado, reinterpretación de la cadena de valor turística, aparición de shocks económicos o pandémicos a los que se deben enfrentar los investigadores. El Capítulo V tiene como objeto de análisis la ciudad de Madrid, cuarto destino por número de anuncios de Airbnb en Europa. Para este caso aplicado se estudia si la pandemia de la COVID-19 tuvo un impacto significativo en la estructura de la oferta y de la demanda de Airbnb. Para ello, el estudio parte de un modelo logit de datos de panel hedónicos, se aplican diferentes métodos alternativos de selección de variables y pruebas de verosimilitud para confirmar la existencia del cambio estructural que afecte a la toma de decisiones a la hora de alquilar un apartamento de la Plataforma. El Capítulo VI centra el estudio en la Comunidad Valenciana, uno de los principales destinos turísticos de sol y playa, para realizar un análisis sobre la fijación de precios del alojamiento turístico en la plataforma. Este caso de estudio tiene por objetivo analizar si la aplicación de algoritmos de ML permite a las empresas optimizar precios de una manera más eficiente que modelos tradicionales. Para ello, se enfrenta el rendimiento de un modelo de precios hedónicos tradicional frente a un modelo de estimación basado en redes neuronales, comprobándose el mejor ajuste en la capacidad predictiva de las técnicas basadas en machine learning a la hora de fijar precios. De este modo la tesis doctoral constituye una valiosa y novedosa aportación al nuevo ciclo de investigación del sector. Propone una exhaustiva revisión de todas las implicaciones y las aplicaciones que tienen las nuevas tecnologías en el turismo y de las ventajas del uso de técnicas de análisis basadas machine learning para los investigadores en su estudio.
107

Clinical Decision Support Systems for Palliative Care Referral: Design and Evaluation of Frailty and Mortality Predictive Models

Blanes Selva, Vicent 30 December 2022 (has links)
[ES] Los Cuidados Paliativos (PC) son cuidados médicos especializados cuyo objetivo esmejorar la calidad de vida de los pacientes con enfermedades graves. Históricamente,se han aplicado a los pacientes en fase terminal, especialmente a los que tienen undiagnóstico oncológico. Sin embargo, los resultados de las investigaciones actualessugieren que la PC afecta positivamente a la calidad de vida de los pacientes condiferentes enfermedades. La tendencia actual sobre la PC es incluir a pacientes nooncológicos con afecciones como la EPOC, la insuficiencia de funciones orgánicas ola demencia. Sin embargo, la identificación de los pacientes con esas necesidades escompleja, por lo que se requieren herramientas alternativas basadas en datos clínicos. La creciente demanda de PC puede beneficiarse de una herramienta de cribadopara identificar a los pacientes con necesidades de PC durante el ingreso hospitalario.Se han propuesto varias herramientas, como la Pregunta Sorpresa (SQ) o la creaciónde diferentes índices y puntuaciones, con distintos grados de éxito. Recientemente,el uso de algoritmos de inteligencia artificial, en concreto de Machine Learning (ML), ha surgido como una solución potencial dada su capacidad de aprendizaje a partirde las Historias Clínicas Electrónicas (EHR) y con la expectativa de proporcionarpredicciones precisas para el ingreso en programas de PC. Esta tesis se centra en la creación de herramientas digitales basadas en ML para la identificación de pacientes con necesidades de cuidados paliativos en el momento del ingreso hospitalario. Hemos utilizado la mortalidad y la fragilidad como los dos criterios clínicos para la toma de decisiones, siendo la corta supervivencia y el aumento de la fragilidad, nuestros objetivos para hacer predicciones. También nos hemos centrado en la implementación de estas herramientas en entornos clínicos y en el estudio de su usabilidad y aceptación en los flujos de trabajo clínicos. Para lograr estos objetivos, en primer lugar, estudiamos y comparamos algoritmos de ML para la supervivencia a un año en pacientes adultos durante el ingreso hospitalario. Para ello, definimos una variable binaria a predecir, equivalente a la SQ y definimos el conjunto de variables predictivas basadas en la literatura. Comparamos modelos basados en Support Vector Machine (SVM), k-Nearest Neighbours (kNN), Random Forest (RF), Gradient Boosting Machine (GBM) y Multilayer Perceptron (MLP), atendiendo a su rendimiento, especialmente al Área bajo la curva ROC (AUC ROC). Además, obtuvimos información sobre la importancia de las variables para los modelos basados en árboles utilizando el criterio GINI. En segundo lugar, estudiamos la medición de la fragilidad de la calidad de vida(QoL) en los candidatos a la intervención en PC. Para este segundo estudio, redujimosla franja de edad de la población a pacientes ancianos (≥ 65 años) como grupo objetivo. A continuación, creamos tres modelos diferentes: 1) la adaptación del modelo demortalidad a un año para pacientes ancianos, 2) un modelo de regresión para estimarel número de días desde el ingreso hasta la muerte para complementar los resultadosdel primer modelo, y finalmente, 3) un modelo predictivo del estado de fragilidad aun año. Estos modelos se compartieron con la comunidad académica a través de unaaplicación web b que permite la entrada de datos y muestra la predicción de los tresmodelos y unos gráficos con la importancia de las variables. En tercer lugar, propusimos una versión del modelo de mortalidad a un año enforma de calculadora online. Esta versión se diseñó para maximizar el acceso de losprofesionales minimizando los requisitos de datos y haciendo que el software respondiera a las plataformas tecnológicas actuales. Así pues, se eliminaron las variablesadministrativas específicas de la fuente de datos y se trabajó en un proceso para minimizar las variables de entrada requeridas, manteniendo al mismo tiempo un ROCAUC elevado del modelo. Como resultado, e / [CA] Les Cures Pal·liatives (PC) són cures mèdiques especialitzades l'objectiu de les qualsés millorar la qualitat de vida dels pacients amb malalties greus. Històricament, s'hanaplicat als pacients en fase terminal, especialment als quals tenen un diagnòstic oncològic. No obstant això, els resultats de les investigacions actuals suggereixen que lesPC afecten positivament a la qualitat de vida dels pacients amb diferents malalties. Latendència actual sobre les PC és incloure a pacients no oncològics amb afeccions comla malaltia pulmonar obstructiva crònica, la insuficiència de funcions orgàniques o lademència. No obstant això, la identificació dels pacients amb aqueixes necessitats éscomplexa, per la qual cosa es requereixen eines alternatives basades en dades clíniques. La creixent demanda de PC pot beneficiar-se d'una eina de garbellat per a identificar als pacients amb necessitats de PC durant l'ingrés hospitalari. S'han proposatdiverses eines, com la Pregunta Sorpresa (SQ) o la creació de diferents índexs i puntuacions, amb diferents graus d'èxit. Recentment, l'ús d'algorismes d'intel·ligènciaartificial, en concret de Machine Learning (ML), ha sorgit com una potencial soluciódonada la seua capacitat d'aprenentatge a partir de les Històries Clíniques Electròniques (EHR) i amb l'expectativa de proporcionar prediccions precises per a l'ingrés enprogrames de PC. Aquesta tesi se centra en la creació d'eines digitals basades en MLper a la identificació de pacients amb necessitats de cures pal·liatives durant l'ingréshospitalari. Hem utilitzat mortalitat i fragilitat com els dos criteris clínics per a lapresa de decisions, sent la curta supervivència i la major fragilitat els nostres objectiusa predir. Després, ens hem centrat en la seua implementació en entorns clínics i hemestudiat la seua usabilitat i acceptació en els fluxos de treball clínics.Aquesta tesi se centra en la creació d'eines digitals basades en ML per a la identificació de pacients amb necessitats de cures pal·liatives en el moment de l'ingrés hospitalari. Hem utilitzat la mortalitat i la fragilitat com els dos criteris clínics per ala presa de decisions, sent la curta supervivència i l'augment de la fragilitat, els nostresobjectius per a fer prediccions. També ens hem centrat en la implementació d'aquesteseines en entorns clínics i en l'estudi de la seua usabilitat i acceptació en els fluxos detreball clínics. Per a aconseguir aquests objectius, en primer lloc, estudiem i comparem algorismesde ML per a la supervivència a un any en pacients adults durant l'ingrés hospitalari.Per a això, definim una variable binària a predir, equivalent a la SQ i definim el conjuntde variables predictives basades en la literatura. Comparem models basats en Support Vector Machine (SVM), k-Nearest Neighbours (kNN), Random Forest (RF), Gradient Boosting Machine (GBM) i Multilayer Perceptron (MLP), atenent el seu rendiment,especialment a l'Àrea sota la corba ROC (AUC ROC). A més, vam obtindre informaciósobre la importància de les variables per als models basats en arbres utilitzant el criteri GINI. En segon lloc, estudiem el mesurament de la fragilitat de la qualitat de vida (QoL)en els candidats a la intervenció en PC. Per a aquest segon estudi, vam reduir lafranja d'edat de la població a pacients ancians (≥ 65 anys) com a grup objectiu. Acontinuació, creem tres models diferents: 1) l'adaptació del model de mortalitat a unany per a pacients ancians, 2) un model de regressió per a estimar el nombre de dies desde l'ingrés fins a la mort per a complementar els resultats del primer model, i finalment,3) un model predictiu de l'estat de fragilitat a un any. Aquests models es van compartiramb la comunitat acadèmica a través d'una aplicació web c que permet l'entrada dedades i mostra la predicció dels tres models i uns gràfics amb la importància de lesvariables. En tercer lloc, vam proposar una versió del model de mortalitat a un any en formade calculadora en línia. Aquesta versió es va di / [EN] Palliative Care (PC) is specialized medical care that aims to improve patients' quality of life with serious illnesses. Historically, it has been applied to terminally ill patients, especially those with oncologic diagnoses. However, current research results suggest that PC positively affects the quality of life of patients with different conditions. The current trend on PC is to include non-oncological patients with conditions such as Chronic Obstructive Pulmonary Disease (COPD), organ function failure or dementia. However, the identification of patients with those needs is complex, and therefore alternative tools based on clinical data are required. The growing demand for PC may benefit from a screening tool to identify patients with PC needs during hospital admission. Several tools, such as the Surprise Question (SQ) or the creation of different indexes and scores, have been proposed with varying degrees of success. Recently, the use of artificial intelligence algorithms, specifically Machine Learning (ML), has arisen as a potential solution given their capacity to learn from the Electronic Health Records (EHRs) and with the expectation to provide accurate predictions for admission to PC programs. This thesis focuses on creating ML-based digital tools for identifying patients with palliative care needs at hospital admission. We have used mortality and frailty as the two clinical criteria for decision-making, being short survival and increased frailty, as our targets to make predictions. We also have focused on implementing these tools in clinical settings and studying their usability and acceptance in clinical workflows. To accomplish these objectives, first, we studied and compared ML algorithms for one-year survival in adult patients during hospital admission. To do so, we defined a binary variable to predict, equivalent to the SQ and defined the set of predictive variables based on literature. We compared models based on Support Vector Machine (SVM), k-Nearest Neighbours (kNN), Random Forest (RF), Gradient Boosting Machine (GBM) and Multilayer Perceptron (MLP), attending to their performance, especially to the Area under the ROC curve (AUC ROC). Additionally, we obtained information on the importance of variables for tree-based models using the GINI criterion. Second, we studied frailty measurement of Quality of Life (QoL) in candidates for PC intervention. For this second study, we narrowed the age of the population to elderly patients (≥ 65 years) as the target group. Then we created three different models: 1) for the adaptation of the one-year mortality model for elderly patients, 2) a regression model to estimate the number of days from admission to death to complement the results of the first model, and finally, 3) a predictive model for frailty status at one year. These models were shared with the academic community through a web application a that allows data input and shows the prediction from the three models and some graphs with the importance of the variables. Third, we proposed a version of the 1-year mortality model in the form of an online calculator. This version was designed to maximize access from professionals by minimizing data requirements and making the software responsive to the current technological platforms. So we eliminated the administrative variables specific to the dataset source and worked on a process to minimize the required input variables while maintaining high the model's AUC ROC. As a result, this model retained most of the predictive power and required only seven bed-side inputs. Finally, we evaluated the Clinical Decision Support System (CDSS) web tool on PC with an actual set of users. This evaluation comprised three domains: evaluation of participant's predictions against the ML baseline, the usability of the graphical interface, and user experience measurement. A first evaluation was performed, followed by a period of implementation of improvements and corrections to the pla / Blanes Selva, V. (2022). Clinical Decision Support Systems for Palliative Care Referral: Design and Evaluation of Frailty and Mortality Predictive Models [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/190993
108

Streaming Automatic Speech Recognition with Hybrid Architectures and Deep Neural Network Models

Jorge Cano, Javier 30 December 2022 (has links)
Tesis por compendio / [ES] Durante la última década, los medios de comunicación han experimentado una revolución, alejándose de la televisión convencional hacia las plataformas de contenido bajo demanda. Además, esta revolución no ha cambiado solamente la manera en la que nos entretenemos, si no también la manera en la que aprendemos. En este sentido, las plataformas de contenido educativo bajo demanda también han proliferado para proporcionar recursos educativos de diversos tipos. Estas nuevas vías de distribución de contenido han llegado con nuevos requisitos para mejorar la accesibilidad, en particular las relacionadas con las dificultades de audición y las barreras lingüísticas. Aquí radica la oportunidad para el reconocimiento automático del habla (RAH) para cumplir estos requisitos, proporcionando subtitulado automático de alta calidad. Este subtitulado proporciona una base sólida para reducir esta brecha de accesibilidad, especialmente para contenido en directo o streaming. Estos sistemas de streaming deben trabajar bajo estrictas condiciones de tiempo real, proporcionando la subtitulación tan rápido como sea posible, trabajando con un contexto limitado. Sin embargo, esta limitación puede conllevar una degradación de la calidad cuando se compara con los sistemas para contenido en diferido u offline. Esta tesis propone un sistema de RAH en streaming con baja latencia, con una calidad similar a un sistema offline. Concretamente, este trabajo describe el camino seguido desde el sistema offline híbrido inicial hasta el eficiente sistema final de reconocimiento en streaming. El primer paso es la adaptación del sistema para efectuar una sola iteración de reconocimiento haciendo uso de modelos de lenguaje estado del arte basados en redes neuronales. En los sistemas basados en múltiples iteraciones estos modelos son relegados a una segunda (o posterior) iteración por su gran coste computacional. Tras adaptar el modelo de lenguaje, el modelo acústico basado en redes neuronales también tiene que adaptarse para trabajar con un contexto limitado. La integración y la adaptación de estos modelos es ampliamente descrita en esta tesis, evaluando el sistema RAH resultante, completamente adaptado para streaming, en conjuntos de datos académicos extensamente utilizados y desafiantes tareas basadas en contenidos audiovisuales reales. Como resultado, el sistema proporciona bajas tasas de error con un reducido tiempo de respuesta, comparables al sistema offline. / [CA] Durant l'última dècada, els mitjans de comunicació han experimentat una revolució, allunyant-se de la televisió convencional cap a les plataformes de contingut sota demanda. A més a més, aquesta revolució no ha canviat només la manera en la que ens entretenim, si no també la manera en la que aprenem. En aquest sentit, les plataformes de contingut educatiu sota demanda també han proliferat pera proporcionar recursos educatius de diversos tipus. Aquestes noves vies de distribució de contingut han arribat amb nous requisits per a millorar l'accessibilitat, en particular les relacionades amb les dificultats d'audició i les barreres lingüístiques. Aquí radica l'oportunitat per al reconeixement automàtic de la parla (RAH) per a complir aquests requisits, proporcionant subtitulat automàtic d'alta qualitat. Aquest subtitulat proporciona una base sòlida per a reduir aquesta bretxa d'accessibilitat, especialment per a contingut en directe o streaming. Aquests sistemes han de treballar sota estrictes condicions de temps real, proporcionant la subtitulació tan ràpid com sigui possible, treballant en un context limitat. Aquesta limitació, però, pot comportar una degradació de la qualitat quan es compara amb els sistemes per a contingut en diferit o offline. Aquesta tesi proposa un sistema de RAH en streaming amb baixa latència, amb una qualitat similar a un sistema offline. Concretament, aquest treball descriu el camí seguit des del sistema offline híbrid inicial fins l'eficient sistema final de reconeixement en streaming. El primer pas és l'adaptació del sistema per a efectuar una sola iteració de reconeixement fent servir els models de llenguatge de l'estat de l'art basat en xarxes neuronals. En els sistemes basats en múltiples iteracions aquests models son relegades a una segona (o posterior) iteració pel seu gran cost computacional. Un cop el model de llenguatge s'ha adaptat, el model acústic basat en xarxes neuronals també s'ha d'adaptar per a treballar amb un context limitat. La integració i l'adaptació d'aquests models és àmpliament descrita en aquesta tesi, avaluant el sistema RAH resultant, completament adaptat per streaming, en conjunts de dades acadèmiques àmpliament utilitzades i desafiants tasques basades en continguts audiovisuals reals. Com a resultat, el sistema proporciona baixes taxes d'error amb un reduït temps de resposta, comparables al sistema offline. / [EN] Over the last decade, the media have experienced a revolution, turning away from the conventional TV in favor of on-demand platforms. In addition, this media revolution not only changed the way entertainment is conceived but also how learning is conducted. Indeed, on-demand educational platforms have also proliferated and are now providing educational resources on diverse topics. These new ways to distribute content have come along with requirements to improve accessibility, particularly related to hearing difficulties and language barriers. Here is the opportunity for automatic speech recognition (ASR) to comply with these requirements by providing high-quality automatic captioning. Automatic captioning provides a sound basis for diminishing the accessibility gap, especially for live or streaming content. To this end, streaming ASR must work under strict real-time conditions, providing captions as fast as possible, and working with limited context. However, this limited context usually leads to a quality degradation as compared to the pre-recorded or offline content. This thesis is aimed at developing low-latency streaming ASR with a quality similar to offline ASR. More precisely, it describes the path followed from an initial hybrid offline system to an efficient streaming-adapted system. The first step is to perform a single recognition pass using a state-of-the-art neural network-based language model. In conventional multi-pass systems, this model is often deferred to the second or later pass due to its computational complexity. As with the language model, the neural-based acoustic model is also properly adapted to work with limited context. The adaptation and integration of these models is thoroughly described and assessed using fully-fledged streaming systems on well-known academic and challenging real-world benchmarks. In brief, it is shown that the proposed adaptation of the language and acoustic models allows the streaming-adapted system to reach the accuracy of the initial offline system with low latency. / Jorge Cano, J. (2022). Streaming Automatic Speech Recognition with Hybrid Architectures and Deep Neural Network Models [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/191001 / Compendio
109

Streaming Neural Speech Translation

Iranzo Sánchez, Javier 03 November 2023 (has links)
Tesis por compendio / [ES] Gracias a avances significativos en aprendizaje profundo, la traducción del habla (ST) se ha convertido en un campo consolidado, lo que permite la utilización de la tecnología ST en soluciones para entornos de producción. Como consecuencia del aumento constante del número de horas de contenido audiovisual generado cada año, así como una mayor sensibilización sobre la importancia de la accesibilidad, la ST está preparada para convertirse en un elemento clave para la producción de contenidos audiovisuales, tanto de ocio como educativos. A pesar de que se ha progresado significativamente en ST, la mayor parte de la investigación se ha centrado en el escenario en diferido (offline), en el cual todo el audio de entrada está disponible. En cambio, la ST en directo (online) es una temática en la que falta mucho por investigar. En concreto, existe un caso de traducción en directo, la traducción continua (streaming), que traduce un flujo continuo de palabras en tiempo real y bajo unas estrictas condiciones de latencia. Este es un problema mucho más realista, que es necesario resolver para que sea posible aplicar la ST a una variedad de tareas de la vida real. Esta tesis está centrada en investigar y desarrollar las técnicas claves que son necesarias para una solución de ST continua. En primer lugar, de cara a permitir el desarrollo y la evaluación de sistemas de ST, se ha recopilado un nuevo conjunto de datos para ST multilingüe, que expande significativamente el número de horas disponibles para ST. A continuación se ha desarrollado un segmentador preparado para la condición continua, que se utiliza para segmentar las transcripciones intermedias de nuestra solución por etapas, que consiste en un sistema de reconocimiento automático del habla (ASR), seguido de un sistema de traducción automática (MT) encargado de traducir las transcripciones intermedias al idioma de destino elegido. Diversas investigaciones han concluido que la calidad de la segmentación es un factor muy influyente es la calidad del sistema MT, por lo que el desarrollo de un segmentador efectivo es un paso fundamental en el proceso de ST continua. Este segmentador se ha integrado en la solución por etapas, y estas se optimizan de manera conjunta para alcanzar el equilibrio óptimo entre calidad y latencia. La ST continua tiene unas restricciones de latencia mucho más estrictas que la ST en directo, ya que el nivel deseado de latencia tiene que mantenerse durante todo el proceso de traducción. Por tanto, es crucial ser capaz de medir de manera precisa esta latencia, pero las métricas estándar de ST en directo no se adaptan bien a esta tarea. Como consecuencia de esto, se proponen nuevos métodos para la evaluación de ST continua, que garantizan unos resultados precisos a la vez que interpretables. Por último, se presenta un nuevo método para mejorar la calidad de la traducción continua mediante el uso de información contextual. Mientras que los sistemas tradicionales de ST en directo traducen audios de manera aislada, existe abundante información contextual que está disponible para mejorar los sistemas de ST continua. Nuestra propuesta introduce el concepto de historia continua, que consiste en el almacenamiento de la información más reciente del proceso de traducción, que se utiliza más adelante por el modelo para mejorar la calidad de la traducción. / [CA] Gràcies a avanços significatius en aprenentatge profund, la traducció de la parla (ST) s'ha convertit en un camp consolidat, la qual cosa permet la utilització de la tecnologia ST en solucions per a entorns de producció. A conseqüència de l'augment constant del nombre d'hores de contingut audiovisual generat cada any, així com una major sensibilització sobre la importància de l'accessibilitat, la ST està preparada per a convertir-se en un element clau per a la producció de continguts audiovisuals, tant d'oci com educatius. A pesar que s'ha progressat significativament en ST, la major part de la recerca s'ha centrat en l'escenari en diferit, en el qual tot l'àudio d'entrada està disponible. En canvi, la ST en directe és una temàtica en la qual falta molt per investigar. En concret, existeix un cas de traducció en directe, la traducció contínua, que tradueix un flux continu de paraules en temps real i sota unes estrictes condicions de latència. Aquest és un problema molt més realista, que és necessari resoldre perquè sigui possible aplicar la ST a una varietat de tasques de la vida real. Aquesta tesi està centrada en investigar i desenvolupar les tècniques claus que són necessàries per a una solució de ST contínua. En primer lloc, de cara a permetre el desenvolupament i l'avaluació de sistemes de ST, s'ha recopilat un nou conjunt de dades per a ST multilingüe, que expandeix significativament la quantitat de dades disponibles per a ST. A continuació s'ha desenvolupat un segmentador preparat per a la condició contínua, que s'utilitza per a segmentar les transcripcions intermèdies de la nostra solució per etapes, que consisteix en un sistema de reconeixement automàtic de la parla (ASR), seguit d'un sistema de traducció automàtica (MT) encarregat de traduir les transcripcions intermèdies a l'idioma de destí triat. Diveros treballs de recerca han conclòs que la qualitat de la segmentació és un factor molt important en la qualitat del sistema MT, per la qual cosa el desenvolupament d'un segmentador efectiu és un pas fonamental en el procés de ST contínua. Aquest segmentador s'ha integrat en la solució per etapes, i aquestes s'optimitzen de manera conjunta per a aconseguir l'equilibri òptim entre qualitat i latència. La ST contínua té unes restriccions de latència molt més estrictes que la ST en directe, ja que el nivell desitjat de latència ha de mantindre's durant tot el procés de traducció. Per tant, és crucial ser capaç de mesurar de manera precisa aquesta latència, però les mètriques estàndard de ST en directe no s'adapten bé a aquesta tasca. A conseqüència d'això, es proposen nous mètodes per a l'avaluació de ST contínua, que garanteixen uns resultats precisos alhora que interpretables. Finalment, es presenta un nou mètode per a millorar la qualitat de la traducció contínua mitjançant l'ús d'informació contextual. Mentre que els sistemes tradicionals de ST en directe tradueixen àudios de manera aïllada, existeix abundant informació contextual que està disponible per a millorar els sistemes de ST contínua. La nostra proposta introdueix el concepte d'història contínua, que consisteix en l'emmagatzematge de la informació més recent del procés de traducció, que s'utilitza més endavant pel model per a millorar la qualitat de la traducció. / [EN] Thanks to significant advances in Deep Learning, Speech Translation (ST) has become a mature field that enables the use of ST technology in production-ready solutions. Due to the ever-increasing hours of audio-visual content produced each year, as well as higher awareness of the importance of media accessibility, ST is poised to become a key element for the production of entertainment and educational media. Although significant advances have been made in ST, most research has focused on the offline scenario, where the entire input audio is available. In contrast, online ST remains an under-researched topic. A special case of online ST, streaming ST, translates an unbounded input stream in a real-time fashion under strict latency constraints. This is a much more realistic problem that needs to be solved in order to apply ST to a variety of real-life tasks. The focus of this thesis is on researching and developing key techniques necessary for a successful streaming ST solution. First, in order to enable ST system development and evaluation, a new multilingual ST dataset is collected, which significantly expands the amount of hours available for ST. Then, a streaming-ready segmenter component is developed to segment the intermediate transcriptions of our proposed cascade solution, which consists in an Automatic Speech Recognition (ASR) system that transcribes the audio, followed by a Machine Translation (MT) system that translates the intermediate transcriptions into the desired language. Research has shown that segmentation quality plays a significant role in downstream MT performance, so the development of an effective streaming segmenter is a critical step in the streaming ST process. This segmenter is then integrated and the components of the cascade are jointly optimized to achieve an appropriate quality-latency trade-off. Streaming ST has much more strict latency constraints than standard online ST, as the desired latency level must be maintained during the whole translation process. Therefore, it is crucial to be able to accurately measure this latency, but the standard online ST metrics are not well suited for this task. As a consequence, new evaluation methods are proposed for streaming ST evaluation, which ensure realistic, yet interpretable results. Lastly, a novel method is presented for improving translation quality through the use of contextual information. Whereas standard online ST systems translate audios in isolation, there is a wealth of contextual information available for improving streaming ST systems. Our approach introduces the concept of streaming history by storing the most recent information of the translation process, which is then used by the model in order to improve translation quality. / The research leading to these results has received funding from the European Union’s Horizon 2020 research and innovation programme under grant agreements no. 761758 (X5Gon) and 952215 (TAILOR), and Erasmus+ Educa- tion programme under grant agreement no. 20-226-093604-SCH (EXPERT); the Government of Spain’s grant RTI2018-094879-B-I00 (Multisub) funded by MCIN/AEI/10.13039/501100011033 & “ERDF A way of making Europe”, and FPU scholarships FPU18/04135; and the Generalitat Valenciana’s research project Classroom Activity Recognition (ref. PROMETEO/2019/111) and predoctoral research scholarship ACIF/2017/055. / Iranzo Sánchez, J. (2023). Streaming Neural Speech Translation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/199170 / Compendio
110

Desarrollo de procedimientos para la deteccion del abandono de cultivos de cítricos utilizando técnicas de teledetección

Morell Monzó, Sergio 02 May 2023 (has links)
Tesis por compendio / [ES] El abandono de tierras agrícolas es un problema creciente en muchas regiones del planeta con importantes consecuencias a nivel socioeconómico y medioambiental. La Comunitat Valenciana (España) es la principal región productora de cítricos de Europa, sin embargo, actualmente se está produciendo un abandono significativo de estos cultivos. La presente tesis pretende desarrollar procedimientos para la identificar el abandono de los cultivos de cítricos a través de técnicas de teledetección y aprendizaje automático. Los métodos basados en teledetección se consideran especialmente convenientes debido a su alto grado de automatización y a su eficiencia en tiempo y coste, comparado con otras técnicas cartográficas habituales basadas en fotointerpretación y visitas de campo. La tesis desarrolla procedimientos para la identificación del estado de los cultivos utilizando diferentes tipos de datos de observación de la Tierra, como son: imágenes multiespectrales de los satélites Sentinel-2 y WorldVIew-3, imágenes aéreas, y nubes de puntos altimétricas derivadas de LiDAR aerotransportado y procesos fotogramétricos a partir de imágenes tomadas con vehículos aéreos no tripulados. Se desarrollaron diferentes metodologías para explotar dichas fuentes de datos en un paisaje agrícola altamente fragmentado con un tamaño promedio de las parcelas entre 0,25 ha y 0,50 ha. El análisis tomó como referencia la base de datos catastral de parcelas agrícolas y se identificaron tres estados de los cultivos en campo: productivo, no productivo y abandonado. Los resultados más precisos se obtuvieron al utilizar las imágenes aéreas o imágenes de satélite WorldView 3, incluyendo el cálculo de descriptores de textura, con una exactitud global entre 90-95%. La importancia de los descriptores de textura extraídos a partir de imágenes de resolución submétrica radica en su capacidad para identificar los patrones de plantación de los cultivos. Este enfoque permitió obtener una alta exactitud a partir de una única imagen. No obstante, también son destacables los resultados obtenidos al utilizar series temporales de imágenes Sentinel-2 con exactitudes globales en torno al 90%. Las diferencias existentes en las series temporales de índices de vegetación y humedad de los tres estados del cultivo permitieron mejorar el rendimiento de clasificación con respecto al enfoque basado en una única fecha. Diferentes casos de estudio demostraron la capacidad de identificar el abandono de tierras a través de teledetección. La información cuantitativa y espacialmente explícita generada sobre el estado de los cultivos puede ser una herramienta útil para la gestión agrícola, para la implementación de medidas de gestión del paisaje y para mejorar las estimaciones anuales de rendimiento de los cítricos. / [CA] L'abandonament de terres agrícoles és un problema creixent en moltes regions del planeta amb importants conseqüències en l'àmbit socioeconòmic i mediambiental. La Comunitat Valenciana (España) és la principal regió productora de cítrics d'Europa, no obstant això, actualment està produint-se'n un abandonament significatiu d'estos cultius. La present tesi pretén desenvolupar procediments per identificar l'abandonament dels cultius de cítrics per mitjà de tècniques de teledetecció i aprenentatge automàtic. Els mètodes basats en teledetecció es consideren especialment convenients a causa del seu alt grau d'automatització i a la seua eficiència en temps i cost, comparat amb altres tècniques cartogràfiques habituals basades en fotointerpretació i visites de camp. La tesi desenvolupa procediments per a la identificació de l'estat dels cultius utilitzant diferents tipus de dades d'observació de la Terra, com són: imatges multiespectrals dels satèl·lits Sentinel-2 i WorldVIew-3, imatges aèries i núvols de punts altimètrics derivats de LiDAR aerotransportat i processos fotogramètrics a partir d'imatges preses amb vehicles aeris no tripulats. Es van desenvolupar diferents metodologies per explotar estes fonts de dades en un paisatge agrícola altament fragmentat amb una grandària mitjana de les parcel·les entre 0,25 ha i 0,50 ha. L'anàlisi va prendre com a referència la base de dades cadastral de parcel·les agrícoles i es van identificar tres estats dels cultius al camp: productiu, no productiu i abandonat. Els resultats més precisos es van obtenir en utilitzar imatges aèries o imatges de satèl·lit WorldVIew-3, incloent-ne el càlcul de descriptors de textura, amb una exactitud global entre 90-95%. La importància dels descriptors de textura extrets a partir d'imatges de resolució submètrica radica en la seua capacitat per a identificar els patrons de plantació dels cultius. Aquest enfocament va permetre obtenir una alta exactitud a partir d'una única imatge. No obstant això, també són destacables els resultats obtinguts en utilitzar sèries temporals d'imatges Sentinel-2, amb exactituds globals entorn del 90%. Les diferències existents en les sèries temporals d'índex de vegetació i humitat dels tres estats del cultiu van permetre millorar el rendiment de classificació respecte a l'enfocament basat en una única data. Diferents casos d'estudi han demostrar la capacitat d'identificar l'abandonament de terres per mitjà de teledetecció. La informació quantitativa i espacialment explícita generada sobre l'estat dels cultius pot ser un ferrament útil per a la gestió agrícola, per a la implementació de mesures de gestió del paisatge i per millorar les estimacions anuals de rendiment dels cítrics. / [EN] Agricultural land abandonment is a growing issue in many regions of the planet with important socioeconomic and environmental consequences. The Comunitat Valenciana region (Spain) is the main citrus-producing in Europe, however, there is a currently significant abandonment of these crops. This thesis aims to develop procedures to identify citrus crop abandonment through remote sensing and machine learning techniques. Remote sensing-based methods are considered particularly convenient due to their high degree of automation and their efficiency in time and cost, compared to other usual cartographic techniques based on photo-interpretation and field visits. The thesis develops procedures for crop status identification using different types of Earth observation data, such as: multispectral images from Sentinel-2 and WorldView-3 satellites, aerial images, and altimetric point clouds derived from airborne LiDAR and photogrammetric processes from images taken by unmanned aerial vehicles. Different methodologies were developed to apply these data sources in a highly fragmented agricultural landscape with an average parcel size between 0.25 ha and 0.50 ha. The analysis was based on the cadastral database of agricultural parcels and three crop statuses were identified at field: productive, non-productive and abandoned. The most accurate results were obtained using aerial images or WorldView-3 satellite images, including the computation of texture descriptors, with an overall accuracy between 90-95%. The importance of texture descriptors extracted from sub-metric resolution images lies in their ability to identify crop planting patterns. This approach made it possible to obtain high accuracy from a single image. However, the results obtained when using time series of Sentinel-2 images are also remarkable, with an overall accuracy around 90%. The differences in the time series of vegetation and moisture indices of the three crop statuses improved the classification accuracy compared to the single date approach. Different case studies demonstrate the ability to identify agricultural land abandonment through remote sensing. The quantitative and spatially explicit information generated can be a useful tool for agricultural management, for implementing landscape management actions and for improving annual citrus yield estimations. / Morell Monzó, S. (2023). Desarrollo de procedimientos para la deteccion del abandono de cultivos de cítricos utilizando técnicas de teledetección [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193058 / Compendio

Page generated in 0.0769 seconds