• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 38
  • 3
  • Tagged with
  • 177
  • 42
  • 36
  • 33
  • 26
  • 25
  • 19
  • 19
  • 18
  • 16
  • 14
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECG

Jiménez Serrano, Santiago 07 September 2023 (has links)
[ES] Las enfermedades cardiovasculares son una de las principales causas de mortalidad y morbilidad en el mundo. Entre las arritmias más comunes en adultos destaca la Fibrilación Auricular (FA), presentando una tendencia de crecimiento muy significativa, sobre todo en población de edad avanzada o con trastornos de obesidad. En el otro extremo, nos encontramos con la Miocardiopatía Arritmogénica (MCA), considerada una enfermedad rara con una prevalencia de 1:2000-5000 pero con gran afectación entre familiares directos, causante de muerte súbita cardiaca (MSC), y con un diagnóstico clínico complicado. Más allá de la FA o la MCA, existe una amplia variedad de patologías derivadas de una disfunción en la activación y conducción eléctrica del corazón. Para todas ellas, el electrocardiograma (ECG) continúa figurando como la primera y principal técnica de diagnóstico clínico, siendo una herramienta fundamental de cribado y detección de patologías relativamente económica y ampliamente accesible. Sin embargo, el diagnóstico preciso a partir de la interpretación del ECG requiere de médicos experimentados, siendo ésta una tarea que consume recursos, tiempo y que además está sujeta a la variabilidad entre observadores. Respecto a las afecciones cardiacas más comunes, conseguir un diagnóstico de forma automática que sea fiable, utilizando tanto 12 como un número reducido o único de derivaciones, sigue presentándose como un desafío. Este aspecto cobra especial relevancia con el uso cada vez más extendido de dispositivos portátiles o wearables, los cuales están ganando un gran interés para la detección temprana y preventiva de enfermedades cardiacas, registrando normalmente un número reducido de derivaciones ECG. Dicho uso masivo les confiere un gran potencial para facilitar el cribado y seguimiento de distintas afecciones en una amplia variedad de escenarios, a pesar de registrar señales de peor calidad en comparación con equipos certificados para uso clínico. El principal reto con estos dispositivos es encontrar un equilibrio adecuado entre la sensibilidad y la especificidad en la detección de ritmos cardiacos susceptibles de ser patológicos. En consecuencia, es indispensable diseñar e implementar algoritmos precisos adecuados para dispositivos móviles o portátiles capaces de detectar distintas afecciones cardiacas en registros de ECG. Respecto las afecciones cardiacas menos comunes como el caso de la MCA, es necesario incrementar la sensibilidad en la detección durante los cribados intra-familiares realizados tras una MSC. Para ello, sería posible explorar biomarcadores propios a esta enfermedad obtenidos mediante técnicas de procesado de señales ECG, además de modelos de clasificación que hagan uso de ellos, contribuyendo así a reducir el número de casos de muerte súbita. En base a lo descrito anteriormente, la presente tesis estudia las posibilidades de diagnóstico basadas en técnicas de aprendizaje y clasificación automática en dos escenarios principales. El primero aborda la detección de la FA, así como un amplio abanico de otras patologías cardiacas comunes, donde proponemos y validamos distintos modelos de clasificación de bajo consumo computacional. Todo esto, utilizando extensas bases de datos de acceso abierto, y haciendo énfasis en enfoques de derivación única, ya que son los más utilizados en dispositivos móviles e inteligentes. El segundo escenario se centra en la detección de MCA mediante las 12 derivaciones estándar del ECG, donde proponemos y validamos nuevos biomarcadores y modelos de clasificación que tratan de incrementar la sensibilidad de los cribados intra-familiares realizados tras una MSC. Para ello, utilizamos una base de datos específica de la Unidad de Cardiopatías Familiares del Hospital Universitario y Politécnico La Fe de València. / [CA] Les malalties cardiovasculars són una de les principals causes de mortalitat i morbiditat en el món. Entre les arrítmies més comunes en adults destaca la Fibril·lació Auricular (FA), presentant una tendència de creixement molt significativa, sobretot en població d'edat avançada o amb trastorns d'obesitat. En l'altre extrem, ens trobem amb la Miocardiopatia Arritmogènica (MCA), considerada una malaltia rara amb una prevalença de 1:2000-5000 però amb gran afectació entre familiars directes, causant de mort sobtada cardíaca (MSC), i amb un diagnòstic clínic complicat. Més enllà de la FA o la MCA, existeix una àmplia varietat de patologies derivades d'una disfunció en l'activació i conducció elèctrica del cor. Per a totes elles, l'electrocardiograma (ECG) continua figurant com la primera i principal tècnica de diagnòstic clínic, sent una eina fonamental de cribratge i detecció de patologies relativament econòmica i àmpliament accessible. No obstant això, el diagnòstic precís a partir de la interpretació del ECG requereix de metges experimentats, sent aquesta una tasca que consumeix recursos, temps i que a més està subjecta a la variabilitat entre observadors. Respecte a les afeccions cardíaques més comunes, aconseguir un diagnòstic de manera automàtica que siga fiable, utilitzant tant 12 com un número reduït o únic de derivacions, continua presentant-se com un desafiament. Aquest aspecte cobra especial rellevància amb l'ús cada vegada més estés de dispositius portàtils o wearables, els quals estan guanyant un gran interés per a la detecció precoç i preventiva de malalties cardíaques, registrant normalment un nombre reduït de derivacions ECG. Aquest ús massiu els confereix un gran potencial per a facilitar el cribratge i seguiment de diferents afeccions en una àmplia varietat d'escenaris, malgrat registrar senyals de pitjor qualitat en comparació amb equips certificats per a ús clínic. El principal repte amb aquests dispositius és trobar un equilibri adequat entre la sensibilitat i l'especificitat en la detecció de ritmes cardíacs susceptibles de ser patològics. En conseqüència, és indispensable dissenyar i implementar algorismes precisos adequats per a dispositius mòbils o portàtils capaços de detectar diferents afeccions cardíaques en registres de ECG. Respecte les afeccions cardíaques menys comunes com el cas de la MCA, és necessari incrementar la sensibilitat en la detecció durant els cribratges intra-familiars realitzats després d'una MSC. Per a això, seria possible explorar biomarcadors propis a aquesta malaltia obtinguts mitjançant tècniques de processament de senyals ECG, a més de models de classificació que facen ús d'ells, contribuint així a reduir el nombre de casos de mort sobtada. Sobre la base del descrit anteriorment, la present tesi estudia les possibilitats de diagnòstic basades en tècniques d'aprenentatge i classificació automàtica en dos escenaris principals. El primer aborda la detecció de la FA, així com un ampli ventall d'altres patologies cardíaques comunes, on proposem i validem diferents models de classificació de baix consum computacional. Tot això, utilitzant extenses bases de dades d'accés obert, i fent èmfasi en enfocaments de derivació única, ja que són els més utilitzats en dispositius mòbils i intel·ligents. El segon escenari se centra en la detecció de MCA mitjançant les 12 derivacions estàndard de l'ECG, on proposem i validem nous biomarcadors i models de classificació que tracten d'incrementar la sensibilitat dels cribratges intra-familiars realitzats després d'una MSC. Per a això, utilitzem una base de dades específica de la Unitat de Cardiopaties Familiars de l'Hospital Universitari i Politècnic La Fe de València. / [EN] Cardiovascular diseases are one of the leading causes of mortality and morbidity worldwide. Atrial Fibrillation (AF) stands out among adults' most common arrhythmias, presenting a very significant growth trend, especially in the elderly population or those with obesity disorders. At the other extreme, we find Arrhythmogenic Cardiomyopathy (ACM), a rare disease with a prevalence of 1:2000-5000 but great affectation among direct relatives, causing sudden cardiac death (SCD), and with a complicated clinical diagnosis. Beyond AF or ACM, there is a wide variety of pathologies derived from dysfunctions in the activation or electrical conduction of the heart. For all of them, the electrocardiogram (ECG) continues to appear as the first and foremost clinical diagnostic technique, being a fundamental tool for screening and detecting pathologies that is relatively cheap and widely accessible. However, accurate diagnosis based on ECG interpretation requires experienced physicians, as this task consumes resources, time and is subject to variability between observers. For the most common cardiac conditions, achieving a reliable diagnosis automatically, using either 12 or a smaller or single number of leads, remains a challenge. This aspect is especially relevant with the increasingly widespread use of portable or wearable devices, which are gaining significant interest for the early and preventive detection of heart disease, typically recording a reduced number of ECG leads. Such massive use gives them great potential to facilitate screening and monitoring different conditions in different scenarios, despite registering signals of lower quality compared to equipment certified for clinical use. The main challenge with these devices is finding the right balance between sensitivity and specificity in detecting pathologic heart rhythms. Consequently, designing and implementing accurate algorithms suitable for mobile or portable devices capable of detecting different cardiac conditions in ECG recordings is essential. Concerning less common cardiac conditions such as the case of ACM, it is necessary to increase the sensitivity in detection during intra-family screenings carried out after an SCD. Hence, it would be possible to explore specific biomarkers to this disease obtained through ECG signal processing techniques, as well as classification models that use them, thus contributing to reduce the number of cases of sudden death. Based on the previously described, this thesis studies the diagnostic possibilities based on machine learning and classification techniques in two main scenarios. The first deals with detecting AF and a wide range of other common cardiac pathologies, where we propose and validate different classification models with low computational consumption. All this, using extensive open access databases, and emphasizing single-lead approaches, since they are the most used in mobile and smart devices. The second scenario focuses on detecting ACM using the standard 12-lead ECG, where we propose and validate new biomarkers and classification models that try to increase the sensitivity of intra-family screenings carried out after an MSC. For this task, we used a specific database of the Familial Cardiopathies Unit of the Hospital Universitario y Politécnico La Fe de València. / Jiménez Serrano, S. (2023). Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECG [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196826
162

Development of Smart Devices for the Detection of Metabolites of Toxic Substances and Disease-Related Enzyme Overexpression

Domínguez Rodríguez, Marcia 18 January 2024 (has links)
Tesis por compendio / [ES] Esta tesis se enfoca en el desarrollo de dispositivos inteligentes para detectar metabolitos de sustancias tóxicas y la sobreexpresión enzimática relacionada con enfermedades. Se aborda la limitación de las técnicas de diagnóstico convencionales y se destaca la utilidad de la orina como muestra biológica. Se discuten conceptos de materiales mesoporosos de sílice, reconocimiento molecular y sondas moleculares fluorogénicas. Los objetivos se detallan, y luego se presenta un nanodispositivo para detectar ácido trans,trans-mucónico (t,t-MA) en orina (S4). Se describe una sonda fluorogénica en el infrarrojo cercano para la detección de elevados niveles de alanina aminopeptidasa en orina (NB-ALA). También se presentan nuevas sondas para detectar biomarcadores de cáncer (NB-SO3-Leu y NB-SO3-Ala), resaltando la importancia de su solubilidad y eliminación renal. Finalmente, se propone una sonda molecular no invasiva (Cy7-MAO) para detectar la enzima monoamina oxidasa a través de medidas de fluorescencia en la orina. Las conclusiones subrayan el potencial de estos sistemas para el diagnóstico y tratamiento de enfermedades. / [CA] Aquesta tesi s'enfoca en el desenvolupament de dispositius intel·ligents per detectar metabòlits de substàncies tòxiques i la sobreexpressió enzimàtica relacionada amb malalties. S'aborda la limitació de les tècniques de diagnòstic convencionals i destaca la utilitat de l'orina com a mostra biològica. Es discuteixen conceptes de materials mesoporosos de sílice, reconeixement molecular i sondes moleculars fluorogèniques. Els objectius es detallen, i després es presenta un nanodispositiu per detectar àcid trans, transmucònic (t, t-MA) en orina (S4). Es descriu una sonda fluorogènica a l'infraroig proper per a la detecció d'elevats nivells d'alanina aminopeptidasa en orina (NB-ALA). També es presenten noves sondes per detectar biomarcadors de càncer (NB-SO3-Leu i NB-SO3-Ala), ressaltant la importància de la seva solubilitat i eliminació renal. Finalment, es proposa una sonda molecular no invasiva (Cy7-MAO) per detectar l'enzim monoamina oxidasa a través de mesures de fluorescència a l'orina. Les conclusions subratllen el potencial d'aquests sistemes per al diagnòstic i el tractament de malalties. / [EN] This PhD thesis focuses on the development of smart devices for detecting metabolites of toxic substances and enzyme overexpression related to diseases. It addresses the limitations of conventional diagnostic techniques and highlights the usefulness of urine as a biological sample. Concepts of mesoporous silica materials, molecular recognition, and fluorogenic molecular probes are discussed. The objectives are outlined, and then a nanodevice for detecting trans, trans-muconic acid (t,t-MA) in urine (S4) is presented. A near-infrared fluorogenic probe for the detection of high levels of alanine aminopeptidase in urine (NB-ALA) is described. New probes for detecting cancer biomarkers (NB-SO3-Leu and NB-SO3-Ala) are also introduced, emphasizing the importance of their solubility and renal elimination. Finally, a non-invasive molecular probe (Cy7-MAO) is proposed for detecting monoamine oxidase enzyme through fluorescence measurements in urine. The conclusions underscore the potential of these systems for the diagnosis and treatment of diseases. / Domínguez Rodríguez, M. (2023). Development of Smart Devices for the Detection of Metabolites of Toxic Substances and Disease-Related Enzyme Overexpression [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202015 / Compendio
163

On the Keyword Extraction and Bias Analysis, Graph-based Exploration and Data Augmentation for Abusive Language Detection in Low-Resource Settings

Peña Sarracén, Gretel Liz de la 07 April 2024 (has links)
Tesis por compendio / [ES] La detección del lenguaje abusivo es una tarea que se ha vuelto cada vez más importante en la era digital moderna, donde la comunicación se produce a través de diversas plataformas en línea. El aumento de las interacciones en estas plataformas ha provocado un aumento de la aparición del lenguaje abusivo. Abordar dicho contenido es crucial para mantener un entorno en línea seguro e inclusivo. Sin embargo, esta tarea enfrenta varios desafíos que la convierten en un área compleja y que demanda de continua investigación y desarrollo. En particular, detectar lenguaje abusivo en entornos con escasez de datos presenta desafíos adicionales debido a que el desarrollo de sistemas automáticos precisos a menudo requiere de grandes conjuntos de datos anotados. En esta tesis investigamos diferentes aspectos de la detección del lenguaje abusivo, prestando especial atención a entornos con datos limitados. Primero, estudiamos el sesgo hacia palabras clave abusivas en modelos entrenados para la detección del lenguaje abusivo. Con este propósito, proponemos dos métodos para extraer palabras clave potencialmente abusivas de colecciones de textos. Luego evaluamos el sesgo hacia las palabras clave extraídas y cómo se puede modificar este sesgo para influir en el rendimiento de la detección del lenguaje abusivo. El análisis y las conclusiones de este trabajo revelan evidencia de que es posible mitigar el sesgo y que dicha reducción puede afectar positivamente el desempeño de los modelos. Sin embargo, notamos que no es posible establecer una correspondencia similar entre la variación del sesgo y el desempeño de los modelos cuando hay escasez datos con las técnicas de reducción del sesgo estudiadas. En segundo lugar, investigamos el uso de redes neuronales basadas en grafos para detectar lenguaje abusivo. Por un lado, proponemos una estrategia de representación de textos diseñada con el objetivo de obtener un espacio de representación en el que los textos abusivos puedan distinguirse fácilmente de otros textos. Por otro lado, evaluamos la capacidad de redes neuronales convolucionales basadas en grafos para clasificar textos abusivos. La siguiente parte de nuestra investigación se centra en analizar cómo el aumento de datos puede influir en el rendimiento de la detección del lenguaje abusivo. Para ello, investigamos dos técnicas bien conocidas basadas en el principio de minimización del riesgo en la vecindad de instancias originales y proponemos una variante para una de ellas. Además, evaluamos técnicas simples basadas en el reemplazo de sinónimos, inserción aleatoria, intercambio aleatorio y eliminación aleatoria de palabras. Las contribuciones de esta tesis ponen de manifiesto el potencial de las redes neuronales basadas en grafos y de las técnicas de aumento de datos para mejorar la detección del lenguaje abusivo, especialmente cuando hay limitación de datos. Estas contribuciones han sido publicadas en conferencias y revistas internacionales. / [CA] La detecció del llenguatge abusiu és una tasca que s'ha tornat cada vegada més important en l'era digital moderna, on la comunicació es produïx a través de diverses plataformes en línia. L'augment de les interaccions en estes plataformes ha provocat un augment de l'aparició de llenguatge abusiu. Abordar este contingut és crucial per a mantindre un entorn en línia segur i inclusiu. No obstant això, esta tasca enfronta diversos desafiaments que la convertixen en una àrea complexa i contínua de recerca i desenvolupament. En particular, detectar llenguatge abusiu en entorns amb escassetat de dades presenta desafiaments addicionals pel fet que el desenvolupament de sistemes automàtics precisos sovint requerix de grans conjunts de dades anotades. En esta tesi investiguem diferents aspectes de la detecció del llenguatge abusiu, prestant especial atenció a entorns amb dades limitades. Primer, estudiem el biaix cap a paraules clau abusives en models entrenats per a la detecció de llenguatge abusiu. Amb este propòsit, proposem dos mètodes per a extraure paraules clau potencialment abusives de col·leccions de textos. Després avaluem el biaix cap a les paraules clau extretes i com es pot modificar este biaix per a influir en el rendiment de la detecció de llenguatge abusiu. L'anàlisi i les conclusions d'este treball revelen evidència que és possible mitigar el biaix i que esta reducció pot afectar positivament l'acompliment dels models. No obstant això, notem que no és possible establir una correspondència similar entre la variació del biaix i l'acompliment dels models quan hi ha escassetat dades amb les tècniques de reducció del biaix estudiades. En segon lloc, investiguem l'ús de xarxes neuronals basades en grafs per a detectar llenguatge abusiu. D'una banda, proposem una estratègia de representació textual dissenyada amb l'objectiu d'obtindre un espai de representació en el qual els textos abusius puguen distingir-se fàcilment d'altres textos. D'altra banda, avaluem la capacitat de models basats en xarxes neuronals convolucionals basades en grafs per a classificar textos abusius. La següent part de la nostra investigació se centra en analitzar com l'augment de dades pot influir en el rendiment de la detecció del llenguatge abusiu. Per a això, investiguem dues tècniques ben conegudes basades en el principi de minimització del risc en el veïnatge d'instàncies originals i proposem una variant per a una d'elles. A més, avaluem tècniques simples basades en el reemplaçament de sinònims, inserció aleatòria, intercanvi aleatori i eliminació aleatòria de paraules. Les contribucions d'esta tesi destaquen el potencial de les xarxes neuronals basades en grafs i de les tècniques d'augment de dades per a millorar la detecció del llenguatge abusiu, especialment quan hi ha limitació de dades. Estes contribucions han sigut publicades en revistes i conferències internacionals. / [EN] Abusive language detection is a task that has become increasingly important in the modern digital age, where communication takes place via various online platforms. The increase in online interactions has led to an increase in the occurrence of abusive language. Addressing such content is crucial to maintaining a safe and inclusive online environment. However, this task faces several challenges that make it a complex and ongoing area of research and development. In particular, detecting abusive language in environments with sparse data poses an additional challenge, since the development of accurate automated systems often requires large annotated datasets. In this thesis we investigate different aspects of abusive language detection, paying particular attention to environments with limited data. First, we study the bias toward abusive keywords in models trained for abusive language detection. To this end, we propose two methods for extracting potentially abusive keywords from datasets. We then evaluate the bias toward the extracted keywords and how this bias can be modified in order to influence abusive language detection performance. The analysis and conclusions of this work reveal evidence that it is possible to mitigate the bias and that such a reduction can positively affect the performance of the models. However, we notice that it is not possible to establish a similar correspondence between bias mitigation and model performance in low-resource settings with the studied bias mitigation techniques. Second, we investigate the use of models based on graph neural networks to detect abusive language. On the one hand, we propose a text representation framework designed with the aim of obtaining a representation space in which abusive texts can be easily distinguished from other texts. On the other hand, we evaluate the ability of models based on convolutional graph neural networks to classify abusive texts. The next part of our research focuses on analyzing how data augmentation can influence the performance of abusive language detection. To this end, we investigate two well-known techniques based on the principle of vicinal risk minimization and propose a variant for one of them. In addition, we evaluate simple techniques based on the operations of synonym replacement, random insertion, random swap, and random deletion. The contributions of this thesis highlight the potential of models based on graph neural networks and data augmentation techniques to improve abusive language detection, especially in low-resource settings. These contributions have been published in several international conferences and journals. / This research work was partially funded by the Spanish Ministry of Science and Innovation under the research project MISMIS-FAKEnHATE on Misinformation and Miscommunication in social media: FAKE news and HATE speech (PGC2018-096212-B-C31). The authors thank also the EU-FEDER Comunitat Valenciana 2014-2020 grant IDIFEDER/2018/025. This work was done in the framework of the research project on Fairness and Transparency for equitable NLP applications in social media, funded by MCIN/AEI/10.13039/501100011033 and by ERDF, EU A way of making EuropePI. FairTransNLP research project (PID2021-124361OB-C31) funded by MCIN/AEI/10.13039/501100011033 and by ERDF, EU A way of making Europe. Part of the work presented in this article was performed during the first author’s research visit to the University of Mannheim, supported through a Contact Fellowship awarded by the DAAD scholarship program “STIBET Doktoranden”. / Peña Sarracén, GLDL. (2024). On the Keyword Extraction and Bias Analysis, Graph-based Exploration and Data Augmentation for Abusive Language Detection in Low-Resource Settings [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203266 / Compendio
164

Contribució a l'estudi de les uninormes en el marc de les equacions funcionals. Aplicacions a la morfologia matemàtica

Ruiz Aguilera, Daniel 04 June 2007 (has links)
Les uninormes són uns operadors d'agregació que, per la seva definició, es poden considerar com a conjuncions o disjuncions, i que han estat aplicades a camps molt diversos. En aquest treball s'estudien algunes equacions funcionals que tenen com a incògnites les uninormes, o operadors definits a partir d'elles. Una d'elles és la distributivitat, que és resolta per les classes d'uninormes conegudes, solucionant, en particular, un problema obert en la teoria de l'anàlisi no-estàndard. També s'estudien les implicacions residuals i fortes definides a partir d'uninormes, trobant solució a la distributivitat d'aquestes implicacions sobre uninormes. Com a aplicació d'aquests estudis, es revisa i s'amplia la morfologia matemàtica borrosa basada en uninormes, que proporciona un marc inicial favorable per a un nou enfocament en l'anàlisi d'imatges, que haurà de ser estudiat en més profunditat. / Las uninormas son unos operadores de agregación que, por su definición se pueden considerar como conjunciones o disjunciones y que han sido aplicados a campos muy diversos. En este trabajo se estudian algunas ecuaciones funcionales que tienen como incógnitas las uninormas, o operadores definidos a partir de ellas.Una de ellas es la distributividad, que se resuelve para las classes de uninormas conocidas, solucionando, en particular, un problema abierto en la teoría del análisis no estándar. También se estudian las implicaciones residuales y fuertes definidas a partir de uninormas, encontrando solución a la distributividad de estas implicaciones sobre uninormas. Como aplicación de estos estudios, se revisa y amplía la morfología matemática borrosa basada en uninormas, que proporciona un marco inicial favorable para un nuevo enfoque en el análisis de imágenes, que tendrá que ser estudiado en más profundidad. / Uninorms are aggregation operators that, due to its definition, can be considered as conjunctions or disjunctions, and they have been applied to very different fields. In this work, some functional equations are studied, involving uninorms, or operators defined from them as unknowns. One of them is the distributivity equation, that is solved for all the known classes of uninorms, finding solution, in particular, to one open problem in the non-standard analysis theory. Residual implications, as well as strong ones defined from uninorms are studied, obtaining solution to the distributivity equation of this implications over uninorms. As an application of all these studies, the fuzzy mathematical morphology based on uninorms is revised and deeply studied, getting a new framework in image processing, that it will have to be studied in more detail.
165

Consensus and analia: new challenges in detection and management of security vulnerabilities in data networks

Corral Torruella, Guiomar 10 September 2009 (has links)
A mesura que les xarxes passen a ser un element integral de les corporacions, les tecnologies de seguretat de xarxa es desenvolupen per protegir dades i preservar la privacitat. El test de seguretat en una xarxa permet identificar vulnerabilitats i assegurar els requisits de seguretat de qualsevol empresa. L'anàlisi de la seguretat permet reconèixer informació maliciosa, tràfic no autoritzat, vulnerabilitats de dispositius o de la xarxa, patrons d'intrusió, i extreure conclusions de la informació recopilada en el test. Llavors, on està el problema? No existeix un estàndard de codi obert ni un marc integral que segueixi una metodologia de codi obert per a tests de seguretat, la informació recopilada després d'un test inclou moltes dades, no existeix un patró exacte i objectiu sobre el comportament dels dispositius de xarxa ni sobre les xarxes i, finalment, el nombre de vulnerabilitats potencials és molt extens. El desafiament d'aquest domini resideix a tenir un gran volum de dades complexes, on poden aparèixer diagnòstics inconsistents. A més, és un domini no supervisat on no s'han aplicat tècniques d'aprenentatge automàtic anteriorment. Per això cal una completa caracterització del domini. Consensus és l'aportació principal d'aquesta tesi: un marc integrat que inclou un sistema automatitzat per millorar la realització de tests en una xarxa i l'anàlisi de la informació recollida. El sistema automatitza els mecanismes associats a un test de seguretat i minimitza la durada de l'esmentat test, seguint la metodologia OSSTMM. Pot ser usat en xarxes cablejades i sense fils. La seguretat es pot avaluar des d'una perspectiva interna, o bé externa a la pròpia xarxa. Es recopilen dades d'ordinadors, routers, firewalls i detectors d'intrusions. Consensus gestionarà les dades a processar per analistes de seguretat. Informació general i específica sobre els seus serveis, sistema operatiu, la detecció de vulnerabilitats, regles d'encaminament i de filtrat, la resposta dels detectors d'intrusions, la debilitat de les contrasenyes, i la resposta a codi maliciós o a atacs de denegació de servei són un exemple de les dades a emmagatzemar per cada dispositiu. Aquestes dades són recopilades per les eines de test incloses a Consensus.La gran quantitat de dades per cada dispositiu i el diferent número i tipus d'atributs que els caracteritzen, compliquen l'extracció manual d'un patró de comportament. Les eines de test automatitzades poden obtenir diferents resultats sobre el mateix dispositiu i la informació recopilada pot arribar a ser incompleta o inconsistent. En aquest entorn sorgeix la segona principal aportació d'aquesta tesi: Analia, el mòdul d'anàlisi de Consensus. Mentre que Consensus s'encarrega de recopilar dades sobre la seguretat dels dispositius, Analia inclou tècniques d'Intel·ligència Artificial per ajudar als analistes després d'un test de seguretat. Diferents mètodes d 'aprenentatge no supervisat s'han analitzat per ser adaptats a aquest domini. Analia troba semblances dins dels dispositius analitzats i l'agrupació dels esmentats dispositius ajuda als analistes en l'extracció de conclusions. Les millors agrupacions són seleccionades mitjançant l'aplicació d'índexs de validació. A continuació, el sistema genera explicacions sobre cada agrupació per donar una resposta més detallada als analistes de seguretat.La combinació de tècniques d'aprenentatge automàtic en el domini de la seguretat de xarxes proporciona beneficis i millores en la realització de tests de seguretat mitjançant la utilització del marc integrat Consensus i el seu sistema d'anàlisi de resultats Analia. / A medida que las redes pasan a ser un elemento integral de las corporaciones, las tecnologías de seguridad de red se desarrollan para proteger datos y preservar la privacidad. El test de seguridad en una red permite identificar vulnerabilidades y asegurar los requisitos de seguridad de cualquier empresa. El análisis de la seguridad permite reconocer información maliciosa, tráfico no autorizado, vulnerabilidades de dispositivos o de la red, patrones de intrusión, y extraer conclusiones de la información recopilada en el test. Entonces, ¿dónde está el problema? No existe un estándar de código abierto ni un marco integral que siga una metodología de código abierto para tests de seguridad, la información recopilada después de un test incluye muchos datos, no existe un patrón exacto y objetivo sobre el comportamiento de los dispositivos de red ni sobre las redes y, finalmente, el número de vulnerabilidades potenciales es muy extenso. El desafío de este dominio reside en tener un gran volumen de datos complejos, donde pueden aparecer diagnósticos inconsistentes. Además, es un dominio no supervisado donde no se han aplicado técnicas de aprendizaje automático anteriormente. Por ello es necesaria una completa caracterización del dominio.Consensus es la aportación principal de esta tesis: un marco integrado que incluye un sistema automatizado para mejorar la realización de tests en una red y el análisis de la información recogida. El sistema automatiza los mecanismos asociados a un test de seguridad y minimiza la duración de dicho test, siguiendo la metodología OSSTMM. Puede ser usado en redes cableadas e inalámbricas. La seguridad se puede evaluar desde una perspectiva interna, o bien externa a la propia red. Se recopilan datos de ordenadores, routers, firewalls y detectores de intrusiones. Consensus gestionará los datos a procesar por analistas de seguridad. Información general y específica sobre sus servicios, sistema operativo, la detección de vulnerabilidades, reglas de encaminamiento y de filtrado, la respuesta de los detectores de intrusiones, la debilidad de las contraseñas, y la respuesta a código malicioso o a ataques de denegación de servicio son un ejemplo de los datos a almacenar por cada dispositivo. Estos datos son recopilados por las herramientas de test incluidas en Consensus. La gran cantidad de datos por cada dispositivo y el diferente número y tipo de atributos que les caracterizan, complican la extracción manual de un patrón de comportamiento. Las herramientas de test automatizadas pueden obtener diferentes resultados sobre el mismo dispositivo y la información recopilada puede llegar a ser incompleta o inconsistente. En este entorno surge la segunda principal aportación de esta tesis: Analia, el módulo de análisis de Consensus. Mientras que Consensus se encarga de recopilar datos sobre la seguridad de los dispositivos, Analia incluye técnicas de Inteligencia Artificial para ayudar a los analistas después de un test de seguridad. Distintos métodos de aprendizaje no supervisado se han analizado para ser adaptados a este dominio. Analia encuentra semejanzas dentro de los dispositivos analizados y la agrupación de dichos dispositivos ayuda a los analistas en la extracción de conclusiones. Las mejores agrupaciones son seleccionadas mediante la aplicación de índices de validación. A continuación, el sistema genera explicaciones sobre cada agrupación para dar una respuesta más detallada a los analistas de seguridad.La combinación de técnicas de aprendizaje automático en el dominio de la seguridad de redes proporciona beneficios y mejoras en la realización de tests de seguridad mediante la utilización del marco integrado Consensus y su sistema de análisis de resultados Analia. / As networks become an integral part of corporations and everyone's lives, advanced network security technologies are being developed to protect data and preserve privacy. Network security testing is necessary to identify and report vulnerabilities, and also to assure enterprise security requirements. Security analysis is necessary to recognize malicious data, unauthorized traffic, detected vulnerabilities, intrusion data patterns, and also to extract conclusions from the information gathered in the security test. Then, where is the problem? There is no open-source standard for security testing, there is no integral framework that follows an open-source methodology for security testing, information gathered after a security test includes large data sets, there is not an exact and objective pattern of behavior among network devices or, furthermore, among data networks and, finally, there are too many potentially vulnerabilities. The challenge of this domain resides in having a great volume of data; data are complex and can appear inconsistent diagnostics. It is also an unsupervised domain where no machine learning techniques have been applied before. Thus a complete characterization of the domain is needed.Consensus is the main contribution of this thesis. Consensus is an integrated framework that includes a computer-aided system developed to help security experts during network testing and analysis. The system automates mechanisms related to a security assessment in order to minimize the time needed to perform an OSSTMM security test. This framework can be used in wired and wireless networks. Network security can be evaluated from inside or from outside the system. It gathers data of different network devices, not only computers but also routers, firewalls and Intrusion Detection Systems (IDS). Consensus manages many data to be processed by security analysts after an exhaustive test. General information, port scanning data, operating system fingerprinting, vulnerability scanning data, routing and filtering rules, IDS response, answer to malicious code, weak passwords reporting, and response to denial of service attacks can be stored for each tested device. This data is gathered by the automated testing tools that have been included in Consensus.The great amount of data for every device and the different number and type of attributes complicates a manually traffic pattern finding. The automated testing tools can obtain different results, incomplete or inconsistent information. Then data obtained from a security test can be uncertain, approximate, complex and partial true. In this environment arises the second main contribution of this thesis: Analia, the data analysis module of Consensus. Whereas Consensus gathers security data, Analia includes Artificial Intelligence to help analysts after a vulnerability assessment. Unsupervised learning has been analyzed to be adapted to this domain. Analia finds resemblances within tested devices and clustering aids analysts in the extraction of conclusions. Afterwards, the best results are selected by applying cluster validity indices. Then explanations of clustering results are included to give a more comprehensive response to security analysts.The combination of machine learning techniques in the network security domain provides benefits and improvements when performing security assessments with the Consensus framework and processing its results with Analia.
166

Disseny de seqüències PN usant algoritmes genètics, ajust del control difús i optimització de l'estructura multiresolutiva per a la sincronització d'un receptor DS-SS en canal ionosfèric de llarga distància

Alsina Pagès, Rosa Maria 16 July 2012 (has links)
L'estructura multiresolutiva proposada per Moran [1] té com a objectiu obtenir l'equilibri entre el cost computacional de l'adquisició sèrie i l'eficiència de l'adquisició paral•lela en sistemes d'espectre eixamplat de seqüència directa. L'adquisició i el posterior tracking són dos processos clau en la desmodulació del senyal d'espectre eixamplat, puix que sense una correcta sincronització aquesta és inviable. L'estructura multiresolutiva mostrà en la seva primera proposta un bon comportament en un canal ionosfèric de 800km [2], però el problema al que s'enfronta ara és més complex. Un canal ionosfèric des de l'Antàrtida a Catalunya, d'una longitud de 12700km, amb unes condicions de canal més agreujades per la distància i la variabilitat horària de la ionosfera en el trajecte de les ones. És amb aquest objectiu que aquest treball de tesi presenta millores a aquest algorisme d'adquisició i de seguiment amb els ulls posats en el problema a resoldre. S'han dissenyat seqüències PN adaptades a les necessitats de l'estructura multiresolutiva usant estratègies evolutives [3,4] i algorismes genètics [5], demanant a les seqüències pseudoaleatòries l'acompliment de més requisits que els originals de les seqüències PN. D'altra banda, també s'ha dissenyat un sistema d'estimació de la qualitat de l'adquisició i de control basat en lògica difusa [6], que permeti donar garanties de la robustesa de l'adquisició i alhora, millorar les prestacions de l'estructura reduint-ne el cost computacional. Finalment, s'ha realitzat un refinament del funcionament de l'estructura multiresolutiva, ajustant-ne els paràmetres d'aprenentatge dels filtres adaptatius de la mateixa per al canal ionosfèric i afegint-li la prestació de funcionar com a detector RAKE, que millora la qualitat de les dades desmodulades. Aquests nous dissenys i millores han estat contrastats amb l'estructura multiresolutiva original [1] i amb d'altres algorismes d'adquisició adaptatius basats en filtres LMS [7,8] i s'ha demostrat que les aportacions realitzades en aquest treball permeten obtenir un millor rendiment en les condicions de transmissió abordades. [1] J. A. Morán. Sistema ràpid d’adquisició per transmissió DS-SS sobre canal ionosfèric. Tesi Doctoral, Enginyeria i Arquitectura La Salle. Universitat Ramon Llull, Barcelona (Espanya), 2001. [2] J.A. Morán, J.C. Socoró, X. Jové, J.L. Pijoan i F. Tarrés. Multiresolution Adaptive Structure for acquisition in DS-SS receivers. International Conference on Acoustics, Speech and Signal Processing (ICASSP). Salt Lake City (EUA), 2001. [3] I. Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipiender biologischen Evolution. Frommann-Holzboog, Alemanya, 1973. [4] H.P. Schwefel. Evoluitonsstrategie und numerische Optimierung. Tesi Doctoral, Technische Universitat Berlin, Berlin (Alemanya), 1975. [5] D. E. Goldberg. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, 1989. [6] L.A. Zadeh. Fuzzy Sets. IEEE Trans. on Information and Control, 8:338–353, 1965. [7] M.G. El-Tarhuni. Application of Adaptive Filtering to Direct-Sequence Spread-Spectrum Code Synchronization. Tesi Doctoral, Carleton University, 1997. [8] M. Han, T. Yu, C. Kang i D. Hong. A New Adaptive Code-Acquisition Algorithm Using Parallel Subfilter Structure. IEEE Transactions on Vehicular Technology, 55(6):1790–1796, Novembre 2006. / La estructura multiresolutiva propuesta por Moran [1] tiene como objetivo obtener el equilibrio entre el coste computacional de la adquisición serie y la eficiencia de la adquisición paralela en sistemas de espectro ensanchado de secuencia directa. La adquisición y el posterior tracking son dos procesos clave en la demodulación de la señal de espectro ensanchado, puesto que sin una correcta sincronización ésta es inviable. La estructura multiresolutiva mostró en su primera propuesta un buen comportamiento en un canal ionosférico de 800km [2], pero el problema al que se enfronta ahora es más complejo. Un canal ionosférico desde la Antártida a Catalunya, con una longitud de 12700km, con unas condiciones de canal más agravadas por la distancia y la variabilidad horaria de la ionosfera en el trayecto de las ondas. Con este objetivo, este trabajo de tesis presenta mejoras a este algoritmo de adquisición y de seguimiento con la mirada puesta en el problema a resolver. Se han diseñado secuencias PN adaptadas a las necesidades de la estructura multiresolutiva usando estrategias evolutivas [3,4] y algoritmos genéticos [5], pidiendo a las secuencias pseudoaleatorias más requisitos que los habituales en las secuencias PN. Por otro lado, también se ha diseñado un sistema de estimación de la calidad en la adquisición y de control basado en lógica difusa [6], que permita dar garantías de la robustez en la adquisición y a su vez, mejorar las prestaciones de la estructura reduciendo el coste computacional. Finalmente, se ha realizado un ajuste del funcionamiento de la estructura multiresolutiva, ajustándose los parámetros de aprendizaje de los filtros adaptativos para el canal ionosférico y añadiendo la prestación de funcionar como detector RAKE, que mejora la calidad de los datos demodulados. Estos nuevos diseños y mejoras se han contrastado con la estructura multiresolutiva original [1] y con otros algoritmos de adquisición adaptativos basados en filtros LMS [7,8] y se ha demostrado que las aportaciones realizadas en este trabajo permiten obtener un mejor rendimiento en las condiciones de transmisión abordadas. [1] J. A. Morán. Sistema ràpid d’adquisició per transmissió DS-SS sobre canal ionosfèric. Tesis Doctoral, Enginyeria i Arquitectura La Salle. Universitat Ramon Llull, Barcelona (España), 2001. [2] J.A. Morán, J.C. Socoró, X. Jové, J.L. Pijoan i F. Tarrés. Multiresolution Adaptive Structure for acquisition in DS-SS receivers. International Conference on Acoustics, Speech and Signal Processing (ICASSP). Salt Lake City (EUA), 2001. [3] I. Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipiender biologischen Evolution. Frommann-Holzboog, Alemanya, 1973. [4] H.P. Schwefel. Evoluitonsstrategie und numerische Optimierung. Tesis Doctoral, Technische Universitat Berlin, Berlin (Alemanya), 1975. [5] D. E. Goldberg. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, 1989. [6] L.A. Zadeh. Fuzzy Sets. IEEE Trans. on Information and Control, 8:338–353, 1965. [7] M.G. El-Tarhuni. Application of Adaptive Filtering to Direct-Sequence Spread-Spectrum Code Synchronization. Tesis Doctoral, Carleton University, 1997. [8] M. Han, T. Yu, C. Kang i D. Hong. A New Adaptive Code-Acquisition Algorithm Using Parallel Subfilter Structure. IEEE Transactions on Vehicular Technology, 55(6):1790–1796, Noviembre 2006. / The multiresolutive structure proposed by Moran [1] attempts to reach a compromise between the computational cost of serial acquisition schemes and acquisition efficiency of parallel systems in direct-sequence spread spectrum acquisition. Acquisition and subsequent tracking are two key processes in the signal demodulation, since without proper synchronization demodulation is impossible. The multiresolutive structure in Moran’s first proposal showed a good performance on an ionospheric channel of 800km [2], but the problem we face now is more complex. A ionospheric radio channel from the Antarctica to Catalonia, 12700km in length, with worsen channel conditions due to distance and time variability of the ionosphere along the paths of the radio waves. This thesis presents improvements to this algorithm acquisition and tracking system in the aim of facing those hard channel conditions. PN sequences are designed to satisfy the needs of the multiresolutive structure [ABM05, AFSB07] using evolutionary strategies [3, 4] and genetic algorithms [5], through adding more requirements than is usually demanded. On the other hand, a fuzzy logic [6] control block has been implemented to estimate the quality of acquisition and control, evaluate the robustness of the acquisition and improve the performance of the structure by reducing its computational load. Finally, the multiresolutive structure has been adjusted, setting new values for the adaptive filter convergence parameters that refer to the ionospheric radio channel and improving the demodulated data using a RAKE detector. The new multiresolutive structure has been compared to the original multiresolutive structure [1] and to other LMS-based adaptive acquisition algorithms [7,8]. The results show that the new multiresolutive structure is competitive when comparing the original structure and also in relation to other adaptive acquisition algorithms found in state-of-the-art. [1] J. A. Morán. Sistema ràpid d’adquisició per transmissió DS-SS sobre canal ionosfèric. PhD Thesis, Enginyeria i Arquitectura La Salle. Universitat Ramon Llull, Barcelona (Espanya), 2001. [2] J.A. Morán, J.C. Socoró, X. Jové, J.L. Pijoan i F. Tarrés. Multiresolution Adaptive Structure for acquisition in DS-SS receivers. International Conference on Acoustics, Speech and Signal Processing (ICASSP). Salt Lake City (EUA), 2001. [3] I. Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipiender biologischen Evolution. Frommann-Holzboog, Alemanya, 1973. [4] H.P. Schwefel. Evoluitonsstrategie und numerische Optimierung. Tesi Doctoral, Technische Universitat Berlin, Berlin (Alemanya), 1975. [5] D. E. Goldberg. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, 1989. [6] L.A. Zadeh. Fuzzy Sets. IEEE Trans. on Information and Control, 8:338–353, 1965. [7] M.G. El-Tarhuni. Application of Adaptive Filtering to Direct-Sequence Spread-Spectrum Code Synchronization. PhD Thesis, Carleton University, 1997. [8] M. Han, T. Yu, C. Kang i D. Hong. A New Adaptive Code-Acquisition Algorithm Using Parallel Subfilter Structure. IEEE Transactions on Vehicular Technology, 55(6):1790–1796, November 2006.
167

Reconocimiento geométrico de objetos 3D y detección de deformaciones en manipulación robótica

Mateo Agulló, Carlos 03 July 2017 (has links)
Recientemente, con la aparición de nuevos sensores visuales de bajo coste capaces de adquirir y reconstruir datos 3D, y de los desarrollos de nuevos métodos, algoritmos y sistemas de percepción basados en información visual 3D, se ha producido una revolución en el desarrollo de aplicaciones robóticas, tales como el reconocimiento de objetos para la interacción de los robots con su entorno en tareas de agarre y manipulado inteligente. Para realizar estas tareas, los robots son dotados con diferentes sensores (como pueden ser cámaras, sensores de presión, fuerza, etc.) que les permitan extraer la información necesaria del entorno de trabajo. En esta tesis serán usados sensores de visión 3D, basados en RGBD. La detección y el reconocimiento de objetos en entornos de trabajo utilizando información tridimensional es un campo de estudio en el que se centran actualmente numerosas investigaciones. Sin embargo, no se ha llegado a resolver por completo el problema del reconocimiento de objetos, en especial cuando el robot se enfrenta a situaciones donde las escenas son complejas. También se debe tener en cuenta temas como el rendimiento de los procesos, ya que cuando se desean desarrollar aplicaciones de manipulado robótico se requieren tiempos de respuesta elevados. Como será discutido durante la tesis, la estructura utilizada para representar los datos e información 3D serán las nubes de puntos. Existen diferentes métodos que permiten extraer la información necesaria de ellas con el fin de reconocer y recuperar la pose de los objetos que contienen. Principalmente hay dos grandes tipos de aproximaciones, las que se basan en información local de las variaciones de la superficie y las que se basan en las características globales de la superficie. El primer grupo ha alcanzado una relativa madurez y esto ha conducido a sistemas de reconocimiento robustos. Sin embargo, presentan inconvenientes como tiempos de computación elevados cuando se trabaja con nubes de puntos densas para representar objetos, o de los elevados requisitos de memoria. El segundo grupo, basado en la extracción global de características, representan la geometría de una superficie con una única firma o histograma (en ocasiones la mezcla de ambos). De este modo se consiguen métodos de descripción con un rendimiento mucho más eficiente. Esta tesis discute cual de las dos aproximaciones es más idónea en tareas de manipulación robótica, para ello se realiza un amplio estudio a nivel teórico-práctico, del cual se presentará un nuevo método de descripción basado en información geométrica global. Por otro lado, se hace especialmente difícil el problema de la manipulación robótica cuando los objetos a manipular tienen propiedades de elasticidad. Como segundo objetivo de esta tesis es presentar un sistema de percepción visual para tareas de manipulación robótica de objetos elásticos. La percepción visual es idónea en tareas de agarre complejas o de manipulación inteligente para ayudar al control de robots cuando otros sistemas sensoriales, como pueden ser los sistemas de percepción táctil o de fuerza, no son capaces de obtener información útil. El sistema visual que se presenta, sirve como soporte de ayuda a otros sistemas de percepción basados en tacto, para llevar a cabo tareas de manipulación de objetos con propiedades de elasticidad. Por un lado, el sistema propuesto presenta una aproximación visual cuyo objetivo es supervisar la interacción entre el objeto manipulado y la herramienta robótica, ya sea pinza o mano, con la que se realiza la manipulación del objeto. Esta aproximación es de gran utilidad en ausencia de información procedente de otro tipo de sensores (p.e. fuerza o táctil) o cuando ésta es pobre o presenta inconsistencias. Por otro lado, el método de supervisión, también, está concebido para medir cambios en la geometría de la superficie del objeto manipulado y por lo tanto, éste es capaz de detectar y localizar deformaciones en la superficie causadas por presiones inadecuadas aplicadas por los dedos de la pinza o mano robótica. Todo los métodos y sistemas propuestos en la presente tesis han sido probados utilizando bases de datos públicas, además los experimentos desarrollados se han realizado empleando distintas plataformas robóticas, pero en todas ellas se emplea como herramienta de manipulación una mano antropomórfica de varios dedos. Es de destacar, que además de utilizar bases de datos de objetos públicas, también se ha desarrollado una base de datos de objetos simples con formas geométricas ambiguas. En el último capítulo de esta tesis se utiliza, un conjunto de objetos para realizar las pruebas en las cuales los elementos a manipular tienen distinta geometría y están fabricados con distintos materiales; esto permite mostrar el comportamiento de la estrategia presentada cuando los objetos tienen distintas propiedades de rigidez, elasticidad y flexibilidad.
168

Síntesis y estudio de derivados de 3H-fenoxazin-3-ona y Aminometilantraceno en disolución y soportados sobre sólidos mesoporosos tipo MCM-41 para su aplicación como sensores moleculares ópticos

Descalzo López, Ana Belén 06 May 2008 (has links)
En esta tesis se han desarrollado varias sondas fluorescentes y materiales híbridos para la detección óptica de diversas especies tanto catiónicas (Hg2+ y metales alcalinotérreos), aniónicas (ATP, carboxilatos de cadena larga y fluoruro) como neutras (vapores orgánicos). El núcleo cromofórico principal estudiado ha sido la 7-amino-3H-fenoxazin-3-ona, cuya estructura consiste en un grupo amino que actúa como electrón dador en el proceso de transferencia interna de carga fotoinducida, y un grupo carbonilo como aceptor conectados a través del sistema electrónico p. Este cromóforo posee propiedades ópticas óptimas como elevados coeficientes de absorción molar y rendimientos cuánticos de fluoresecencia, con longitudes de onda de absorción y emisión centradas por encima de los 500 nm. Estudios espectroscópicos de UV/Vis de una serie de sistemas modelo revelan que el aumento de la fuerza electrón dadora del sustituyente introducido a través del grupo amino genera un aumento del rendimiento cuántico de fluorescencia y desplazamientos batocrómicos de las bandas de absorción y emisión. En base a esto, la introducción de un grupo electrón dador débil (urea) como receptor ha permitido obtener un fluoroionóforo capaz de detectar la presencia de aniones (acetato y dihidrogenfosfato) en disolventes orgánicos con un aumento en la fluorescencia y un cambio de color de naranja a rosa inducidos por la coordinación del anión. En el caso del fluoruro, anión más básico, se pone de manifiesto mediante estudios espectroscópicos de UV/Vis y 1H-RMN la desprotonación del colorante. Otro aspecto interesante de este cromóforo es su capacidad para actuar como un receptor ditópico en ciertas situaciones. La protonación y coordinación de cationes metálicos tiene lugar a través del grupo carbonilo. Mediante la introducción de diversos receptores a través del nitrógeno (ligandos macrocíclicos tipo éter corona para la coordinación de cationes alcalinotérreos y tipo aza-tia-oxa para la coordinación d / Descalzo López, AB. (2004). Síntesis y estudio de derivados de 3H-fenoxazin-3-ona y Aminometilantraceno en disolución y soportados sobre sólidos mesoporosos tipo MCM-41 para su aplicación como sensores moleculares ópticos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1851
169

Detecting, Defining and Developing Soft Skills in Business and ICT Contexts

Schleutker, Kai Eugen Johannes 10 January 2022 (has links)
[ES] La motivación de este proyecto de investigación surgió de fuentes tanto personales como profesionales. En el campo de los negocios, así como en muchos otros campos, la definición de competencia profesional ha experimentado una importante evolución en los últimos 20 años. A medida que los entornos de trabajo se vuelven cada vez más digitales, pero también basados en equipos y redes, el papel de las habilidades individuales crece. Los empleadores de las empresas y las organizaciones de TIC buscan "habilidades técnicas", pero cada vez más buscan graduados capaces de administrarse por sí mismos, trabajar en equipos y redes y resolver problemas. La necesidad de estas "habilidades blandas" ha sido expresada por parte de organizaciones y empleadores, y se cree que su función crecerá adicionalmente en el futuro. Sin embargo, hay muchas razones por las que las instituciones educativas han tenido dificultades para captar este desafío. Como resultado, se informa que el mercado laboral sufre de "brechas de habilidades", lo que causa problemas tanto a los empleadores como a los graduados, e indirectamente también a los educadores. Una de las principales razones de esto es que los educadores carecen de la conciencia de las habilidades necesarias en las organizaciones. Además, no están seguros de si se pueden promover las habilidades blandas y cómo se debe llevar a cabo. En esta investigación, aclaro la "brecha de habilidades" y las posibles soluciones para reducirla. Empiezo por definir el carácter y el rol de Soft Skills. Posteriormente, inspecciono el proceso de adquisición de habilidades desde el aspecto de las partes mencionadas, llamadas "partes interesadas". Mi objetivo es crear un método que pueda considerar las Soft Skills de forma sistemática, con respecto a su rol para los diferentes stakeholders. Para lograrlo, se compone un marco de las Soft Skills esenciales, viable para Universidades y Organizaciones. A continuación, se presenta un modelo tridimensional del proceso de adquisición de Soft Skills. Luego se sugiere el indicador Method Soft Skills Status (3Si), operacionalizando los elementos del modelo en tres dimensiones estadísticas, "Significación", "Capacidad de aprendizaje" y "Nivel". Posteriormente se experimenta el Método propuesto mediante el lanzamiento de una encuesta a 381 profesionales de las TIC y empresas en cuatro países europeos. En la sección Resultados, se presentan y discuten los resultados de la encuesta. A continuación, se aplican los resultados para probar el Método, lo que permite una clasificación en ocho clases de Soft Skills. Estas clases proporcionan descripciones específicas para cada una de las Soft Skills, aplicables a los educadores y formadores que trabajan en Soft Skills. Los resultados afirman la hipótesis planteada a la investigación. / [CA] La motivació d'aquest projecte d'investigació va sorgir de fonts tant personals com professionals. En el camp dels negocis, així com en molts altres camps, la definició de competència professional ha experimentat una important evolució en els últims 20 anys. A mesura que els entorns de treball es tornen cada vegada més digitals, però també basats en equips i xarxes, el paper de les habilitats individuals creix. Els ocupadors de les empreses i les organitzacions de TIC busquen "habilitats tècniques", però cada vegada més busquen graduats capaços d'administrar-se per si mateixos, treballar en equips i xarxes i resoldre problemes. La necessitat d'aquestes habilitats transversals ha sigut expressada per part d'organitzacions i ocupadors, i es creu que la seua funció creixerà addicionalment en el futur. No obstant això, hi ha moltes raons per les quals les institucions educatives han tingut dificultats per a captar aquest desafiament. Com a resultat, s'informa que el mercat laboral pateix de "bretxes d'habilitats", la qual cosa causa problemes tant als ocupadors com als graduats, i indirectament també als educadors. Una de les principals raons d'això és que els educadors manquen de la consciència de les habilitats necessàries en les organitzacions. A més, no estan segurs de si es poden promoure les habilitats blanes i com s'ha de dur a terme. En aquesta investigació, aclarisc la "bretxa d'habilitats" i les possibles solucions per a reduir-la. Comence per definir el caràcter i el rol de Soft Skills. Posteriorment, inspeccione el procés d'adquisició d'habilitats des de l'aspecte de les parts esmentades, anomenades "parts interessades". El meu objectiu és crear un mètode que puga considerar les Soft Skills de manera sistemàtica, respecte al seu rol per als diferents stakeholders. Per a aconseguir-ho, es compon un marc de les Soft Skills essencials, viable per a Universitats i Organitzacions. A continuació, es presenta un model tridimensional del procés d'adquisició de Soft Skills. Després se suggereix l'indicador "Method Soft Skills Status (3Si), transformant en operacions els elements del model en tres dimensions estadístiques, "Significació", "Capacitat d'aprenentatge" i "Nivell". Posteriorment s'experimenta el Mètode proposat mitjançant el llançament d'una enquesta a 381 professionals de les TIC i empreses en quatre països europeus. En la secció Resultats, es presenten i discuteixen els resultats de l'enquesta. A continuació, s'apliquen els resultats per a provar el Mètode, la qual cosa permet una classificació en huit classes de Soft Skills. Aquestes classes proporcionen descripcions específiques per a cadascuna de les Soft Skills, aplicables als educadors i formadors que treballen en Soft Skills. Els resultats afirmen la hipòtesi plantejada a la investigació. / [EN] The motivation to this research project emerged from both personal and professional sources. In the field of business, as well as many other fields, the definition of professional competence has undergone a major evolution over the past 20 years. As working environments become increasingly digital, but also based on teams and networks, the role of individual skills grow. Employers in business and ICT organizations seek for technical 'hard skills', yet they increasingly look for graduates able to manage themselves, work in teams and networks and solve problems. The need for these 'Soft Skills' has been expressed from the part of Organizations and employers, and their role is believed to grow additionally in the future. However, there are many reasons why educational institutions have found it difficult to capture this challenge. As a result, the labour market is reported to suffer from 'skills gaps', which cause problems for the employers as well as the graduates, and indirectly also to the educators. A main reason for this is that educators lack the awareness of the skills needed in Organizations. In addition, they feel unsure about whether Soft Skills can be promoted, and how this should be conducted. In this research, I elucidate the 'skills gap' and possible solutions to reduce it. I start by defining the character and role of Soft Skills. Subsequently, I inspect the skills acquisition process from the aspect of the mentioned parts, called 'stakeholders'. My objective is to create a method that can consider Soft Skills in a systematic way, in respect to their role for the different stakeholders. To achieve this, a framework of the essential Soft Skills, viable for HEIs and Organizations is composed. Next, a three-dimensional model of the Soft Skills acquisition process is presented. The Method Soft Skills Status indicator (3Si) is then suggested, by operationalizing the elements of the model into three statistical dimensions, 'Significance', 'Learnability' and 'Level'. The proposed Method is subsequently experimented, by launching a survey to 381 business and ICT professionals in four European countries. In the Results section, the outcomes of the survey are presented and discussed. Next, the results are applied to test the Method, which allows a classification in eight classes of Soft Skills. These classes provide specific descriptions for each of the Soft Skills, applicable for educators and trainers working on Soft Skills. The results affirm the hypothesis set to the research. / Schleutker, KEJ. (2021). Detecting, Defining and Developing Soft Skills in Business and ICT Contexts [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/179407
170

Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach

Quirós Díaz, Lorenzo 21 March 2022 (has links)
[ES] El Análisis de la Estructura de Documentos (Document Layout Analysis), aplicado a documentos manuscritos, tiene como objetivo obtener automáticamente la estructura intrínseca de dichos documentos. Su desarrollo como campo de investigación se extiende desde los sistemas de segmentación de caracteres desarrollados a principios de la década de 1960 hasta los sistemas complejos desarrollados en la actualidad, donde el objetivo es analizar estructuras de alto nivel (líneas de texto, párrafos, tablas, etc.) y la relación que existe entre ellas. Esta tesis, en primer lugar, define el objetivo del Análisis de la Estructura de Documentos desde una perspectiva probabilística. A continuación, la complejidad del problema se reduce a un conjunto de subproblemas complementarios bien conocidos, de manera que pueda ser gestionado por medio de recursos informáticos modernos. Concretamente se abordan tres de los principales problemas del Análisis de la Estructura de Documentos siguiendo una formulación probabilística. Específicamente se aborda la Detección de Línea Base (Baseline Detection), la Segmentación de Regiones (Region Segmentation) y la Determinación del Orden de Lectura (Reading Order Determination). Uno de los principales aportes de esta tesis es la formalización de los problemas de Detección de Línea Base y Segmentación de Regiones bajo un marco probabilístico, donde ambos problemas pueden ser abordados por separado o de forma integrada por los modelos propuestos. Este último enfoque ha demostrado ser muy útil para procesar grandes colecciones de documentos con recursos informáticos limitados. Posteriormente se aborda el subproblema de la Determinación del Orden de Lectura, que es uno de los subproblemas más importantes, aunque subestimados, del Análisis de la Extructura de Documentos, ya que es el nexo que permite convertir los datos extraídos de los sistemas de Reconocimiento Automático de Texto (Automatic Text Recognition Systems) en información útil. Por lo tanto, en esta tesis abordamos y formalizamos la Determinación del Orden de Lectura como un problema de clasificación probabilística por pares. Además, se proponen dos diferentes algoritmos de decodificación que reducen la complejidad computacional del problema. Por otra parte, se utilizan diferentes modelos estadísticos para representar la distribución de probabilidad sobre la estructura de los documentos. Estos modelos, basados en Redes Neuronales Artificiales (desde un simple Perceptrón Multicapa hasta complejas Redes Convolucionales y Redes de Propuesta de Regiones), se estiman a partir de datos de entrenamiento utilizando algoritmos de aprendizaje automático supervisados. Finalmente, todas las contribuciones se evalúan experimentalmente, no solo en referencias académicas estándar, sino también en colecciones de miles de imágenes. Se han considerado documentos de texto manuascritos y documentos musicales manuscritos, ya que en conjunto representan la mayoría de los documentos presentes en bibliotecas y archivos. Los resultados muestran que los métodos propuestos son muy precisos y versátiles en una amplia gama de documentos manuscritos. / [CA] L'Anàlisi de l'Estructura de Documents (Document Layout Analysis), aplicada a documents manuscrits, pretén automatitzar l'obtenció de l'estructura intrínseca d'un document. El seu desenvolupament com a camp d'investigació comprén des dels sistemes de segmentació de caràcters creats al principi dels anys 60 fins als complexos sistemes de hui dia que busquen analitzar estructures d'alt nivell (línies de text, paràgrafs, taules, etc) i les relacions entre elles. Aquesta tesi busca, primer de tot, definir el propòsit de l'anàlisi de l'estructura de documents des d'una perspectiva probabilística. Llavors, una vegada reduïda la complexitat del problema, es processa utilitzant recursos computacionals moderns, per a dividir-ho en un conjunt de subproblemes complementaris més coneguts. Concretament, tres dels principals subproblemes de l'Anàlisi de l'Estructura de Documents s'adrecen seguint una formulació probabilística: Detecció de la Línia Base Baseline Detection), Segmentació de Regions (Region Segmentation) i Determinació de l'Ordre de Lectura (Reading Order Determination). Una de les principals contribucions d'aquesta tesi és la formalització dels problemes de la Detecció de les Línies Base i dels de Segmentació de Regions en un entorn probabilístic, sent els dos problemes tractats per separat o integrats en conjunt pels models proposats. Aquesta última aproximació ha demostrat ser de molta utilitat per a la gestió de grans col·leccions de documents amb uns recursos computacionals limitats. Posteriorment s'ha adreçat el subproblema de la Determinació de l'Ordre de Lectura, sent un dels subproblemes més importants de l'Anàlisi d'Estructures de Documents, encara així subestimat, perquè és el nexe que permet transformar en informació d'utilitat l'extracció de dades dels sistemes de reconeixement automàtic de text. És per això que el fet de determinar l'ordre de lectura s'adreça i formalitza com un problema d'ordenació probabilística per parells. A més, es proposen dos algoritmes descodificadors diferents que reducix la complexitat computacional del problema. Per altra banda s'utilitzen diferents models estadístics per representar la distribució probabilística sobre l'estructura dels documents. Aquests models, basats en xarxes neuronals artificials (des d'un simple perceptron multicapa fins a complexes xarxes convolucionals i de propostes de regió), s'estimen a partir de dades d'entrenament mitjançant algoritmes d'aprenentatge automàtic supervisats. Finalment, totes les contribucions s'avaluen experimentalment, no només en referents acadèmics estàndard, sinó també en col·leccions de milers d'imatges. S'han considerat documents de text manuscrit i documents musicals manuscrits, ja que representen la majoria de documents presents a biblioteques i arxius. Els resultats mostren que els mètodes proposats són molt precisos i versàtils en una àmplia gamma de documents manuscrits. / [EN] Document Layout Analysis, applied to handwritten documents, aims to automatically obtain the intrinsic structure of a document. Its development as a research field spans from the character segmentation systems developed in the early 1960s to the complex systems designed nowadays, where the goal is to analyze high-level structures (lines of text, paragraphs, tables, etc) and the relationship between them. This thesis first defines the goal of Document Layout Analysis from a probabilistic perspective. Then, the complexity of the problem is reduced, to be handled by modern computing resources, into a set of well-known complementary subproblems. More precisely, three of the main subproblems of Document Layout Analysis are addressed following a probabilistic formulation, namely Baseline Detection, Region Segmentation and Reading Order Determination. One of the main contributions of this thesis is the formalization of Baseline Detection and Region Segmentation problems under a probabilistic framework, where both problems can be handled separately or in an integrated way by the proposed models. The latter approach is proven to be very useful to handle large document collections under restricted computing resources. Later, the Reading Order Determination subproblem is addressed. It is one of the most important, yet underestimated, subproblem of Document Layout Analysis, since it is the bridge that allows us to convert the data extracted from Automatic Text Recognition systems into useful information. Therefore, Reading Order Determination is addressed and formalized as a pairwise probabilistic sorting problem. Moreover, we propose two different decoding algorithms that reduce the computational complexity of the problem. Furthermore, different statistical models are used to represent the probability distribution over the structure of the documents. These models, based on Artificial Neural Networks (from a simple Multilayer Perceptron to complex Convolutional and Region Proposal Networks), are estimated from training data using supervised Machine Learning algorithms. Finally, all the contributions are experimentally evaluated, not only on standard academic benchmarks but also in collections of thousands of images. We consider handwritten text documents and handwritten musical documents as they represent the majority of documents in libraries and archives. The results show that the proposed methods are very accurate and versatile in a very wide range of handwritten documents. / Quirós Díaz, L. (2022). Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181483

Page generated in 0.1078 seconds