• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 260
  • 44
  • 2
  • Tagged with
  • 306
  • 306
  • 143
  • 82
  • 82
  • 82
  • 82
  • 82
  • 64
  • 64
  • 47
  • 47
  • 45
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Fluid-structure interaction with the application to the non-linear aeroelastic phenomena

Cremades Botella, Andrés 06 November 2023 (has links)
[ES] El interés en reducir el peso y resistencia aerodinámica de vehículos y en desarrollar fuentes de energía renovables se ha incrementado debido a la compleja situación ambiental y los requerimientos legales para reducir las emisiones de contaminantes y el consumo de combustibles. La industria aeronáutica ha propuesto nuevos diseños que integren conceptos como alas de alto alargamiento y materiales con elevada resistencia específica, como los materiales compuestos. Por su parte, conceptos similares se emplean en la generación de energía eólica. El radio de las palas de las turbinas eólicas se incrementa paulatinamente, siendo un ejemplo muy claro las grandes instalaciones off-shore. El uso de estructuras más alargadas y ligeras provoca mayor deformación debida a las cargas aerodinámicas. Este fenómeno se conoce como aeroelasticidad y combina los efectos de las cargas aerodinámicas, los efectos inerciales y las tensiones internas de la estructura. La combinación de las cargas anteriores provoca fenómenos de amortiguamiento de las vibraciones, o por el contrario, inestabilidades aeroelásticas. Diferentes metodologías pueden ser empleadas para simular los fenómenos aeroelásticos. La metodología más extendida para la simulación de las ecuaciones elásticas del sólido es la conocida como análisis de elementos finitos. Respecto a las ecuaciones de conservación del fluido, la mecánica de fluidos computacional es la herramienta de resolución para un problema arbitrario. La combinación de las metodologías anteriores puede ser empleada para el cálculo de fenómenos aeroelásticos. Sin embargo, el coste computacional de estas simulaciones es inasumible en la mayoría de casos de aplicación. Se requiere una metodología nueva capaz de reducir el coste de cálculo. Este trabajo se centra en el desarrollo de modelos de orden reducido que permitan resolver el problema acoplado sin pérdidas sustanciales de precisión. En primer lugar, la estructura tridimensional se reduce a una sección equivalente que reproduzca la física del sólido original. La sección equivalente se acopla con dos modelos aerodinámicos: simulaciones de mecánica de fluidos computacional y un modelo reducido basado en redes neuronales. Ambos modelos presentan elevada precisión respecto a las simulaciones tridimensionales. Sin embargo, algunos efectos como los efectos aerodinámicos tridimensionales, las distribuciones de carga aerodinámica, la presencia de materiales ortotrópicos y los acoplamientos estructurales no pueden ser simulados. Con el objetivo de resolver los limitantes del modelo anterior, se propone un segundo modelo de orden reducido. En este caso se trata de un algoritmo basado en elementos de viga. El algoritmo se diseña para ser capaz de incluir el cálculo de materiales ortotrópicos y diferentes tipos de problemas aeroelásticos. Inicialmente, se emplea el software para determinar su precisión en el cálculo de una viga de material compuesto y sección rectangular. Estos resultados se validan con las simulaciones tridimensionales. De este modo se demuestra la capacidad de la herramienta computacional para predecir las inestabilidades y los efectos de acoplamiento estructural provocados por la orientación de las fibras. Posteriormente, el algoritmo se emplea en la simulación de turbinas eólicas, mejorando los rangos de operación de las palas sin que ello suponga una penalización desde el punto de vista del peso de la misma. Finalmente, un ala basada en una estructura de membrana resistente es simulada. El cálculo obtiene una gran precisión en la predicción de la velocidad de flameo respecto a la simulación acoplada, siendo la única limitación del modelo la predicción de la distorsión de la membrana. El trabajo presente un conjunto de modelos de orden reducido que permiten disminuir el coste computacional de las simulaciones aeroelásticas en órdenes de magnitud. También, se proporcionan directrices para la selección del modelo reducido apropiado para los casos de interés. / [CA] L'interès a reduir el pes i la resistència aerodinàmica dels vehicles i a desenvolupar fonts d'energia renovables s'ha incrementat a causa de la complexa situació ambiental i els requeriments legals per a reduir les emissions de contaminants i el consum de combustibles. La indústria aeronàutica ha proposat nous dissenys que integren conceptes com ales d'alt allargament i materials amb elevada resistència específica, com ara els materials compostos. Per la seua banda, conceptes similars es fan servir en la generació d'energia eòlica. El radi de les pales de les turbines eòliques s'incrementa progresivament, sent un exemple molt clar les grans instal·lacions off-shore. L'ús d'estructures més allargades i lleugeres provoca més deformació deguda a les càrregues aerodinàmiques. Aquest fenomen es coneix com a aeroelasticitat i combina els efectes de les càrregues aerodinàmiques, els efectes inercials i les tensions internes de l'estructura. La combinació de les càrregues anteriors provoca fenòmens d'esmorteïment de les vibracions, o per contra, inestabilitats aeroelàstiques. Diferents metodologies poden ser emprades per simular els fenòmens aeroelàstics. La metodologia més estesa per a la simulació de les equacions elàstiques del sòlid és la coneguda com a anàlisi d'elements finits. Pel que fa a les equacions de conservació del fluid, la mecànica de fluids computacional és l'eina de resolució per a un problema arbitrari. La combinació de les metodologies anteriors pot ser emprada per al càlcul de fenòmens aeroelàstics. Tot i això, el cost computacional d'aquestes simulacions és inassumible en la majoria de casos d'aplicació. Cal una metodologia nova capaç de reduir el cost de càlcul. Aquest treball se centra en el desenvolupament de models d'ordre reduït que permeten resoldre el problema acoblat sense pèrdues substancials de precisió. En primer lloc, l'estructura tridimensional es reduix a una secció equivalent que reproduixca la física del sòlid original. La secció equivalent s'acobla amb dos models aerodinàmics. El primer empra les forces aerodinàmiques obtingudes mitjançant simulacions de mecànica de fluids computacional. Posteriorment es fa servir un model reduït basat en xarxes neuronals. Tots dos models presenten elevada precisió respecte a les simulacions tridimensionals. No obstant això, alguns efectes com ara els efectes aerodinàmics tridimensionals, les distribucions de càrrega aerodinàmica, la presència de materials ortotròpics i els acoblaments estructurals no poden ser simulats. Amb l'objectiu de resoldre els limitants del model anterior, es proposa un segon model dordre reduït. En aquest cas és un algorisme basat en elements de biga. L'algorisme es dissenya per ser capaç d'incloure el càlcul de materials ortotròpics i diferents tipus de problemes aeroelàstics. Inicialment, s'empra el programari per determinar-ne la precisió en el càlcul d'una biga de material compost i secció rectangular. Aquests resultats es validen amb les simulacions tridimensionals. D'aquesta manera, es demostra la capacitat de l'eina computacional per predir les inestabilitats i els efectes d'acoblament estructural provocats per l'orientació de les fibres. Posteriorment, l'algorisme s'empra en la simulació de turbines eòliques, millorant els rangs d'operació de les pales sense que això suposi una penalització des del punt de vista del pes. Finalment, una ala basada en una estructura de membrana resistent és simulada. El càlcul obté una gran precisió en la predicció de la velocitat de flameig respecte a la simulació acoblada, i l'única limitació del model és la predicció de la distorsió de la membrana. El treball presenta un conjunt de models reduïts que permeten disminuir el cost computacional de les simulacions aeroelàstiques en ordres de magnitud. També es proporcionen directrius per a la selecció del model reduït adequat per als casos d'interès. / [EN] The complex environmental situation and the legal requirements for decreasing pollutant emissions and fuel consumption have increased the interest in reducing the empty weight and drag of vehicles and developing renewable energy sources. Due to the former, the aviation industry has proposed new designs integrating high strength-to-weight ratios, such as composite materials and higher aspect ratio wings. These increases in aspect ratio have also been applied to wind energy generation. The rotors of wind turbines are increasing their diameters in recent years: a clear example is the massive off-shore facilities. Using larger and lightweight structures increases the effects of the aerodynamic loads on structural deformation. Structural dynamics are strongly connected to the air-structure interaction. This phenomenon, called aeroelasticity, combines the effect of the external aerodynamic loads, the inertial forces, and the internal elastic stress of the structure. The complex combination of all the previous effects may damp the vibrations of the structure, or on the contrary, they could increase their amplitude, resulting in an unstable phenomenon. The simulation of the aeroelastic phenomena can be performed using different approaches. The well-known finite element analysis is the most extended methodology for solving solid elastic equations. Regarding fluid conservation equations, computational fluid dynamics is the principal tool for resolving general aerodynamic problems. The aeroelastic simulations can be calculated by combining the previous algorithms. Nevertheless, the computational cost of these methodologies is excessive for a general engineering case. Therefore, new methodologies are required. This work focuses on developing aeroelastic reduced-order models that compute the coupled phenomena without substantial accuracy losses. Initially, the complete three-dimensional structure is reduced to an equivalent section that reproduces the structure. The equivalent structural section is coupled with two aerodynamic models. The first one uses the forces calculated with aeroelastic computational fluid dynamics. Then, a surrogate model based on artificial neural networks is combined with the equivalent section. Both models show accurate agreement compared to the complete three-dimensional simulations in predicting unstable velocity. However, the three-dimensional aerodynamic effects, load distribution, orthotropic materials, and structural couplings cannot be considered. In order to solve the previous limitations, a reduced-order model based on a beam element solver is proposed. The algorithm is designed to consider a general orthotropic material and different typologies of aeroelastic problems. Initially, the software is proven to simulate accurately a squared cross-section composite material beam. The results are validated with the complete three-dimensional simulations, demonstrating the capabilities of the tool for predicting the instabilities and the effects of the fiber orientations. Then, the algorithm is used for simulating a wind turbine blade, and the algorithm results are used to improve the operation range of the blades without weight penalties. Finally, a resistant membrane wing is simulated, obtaining high accuracy in the prediction of the flutter velocity compared with the complete coupled simulation. In addition, the only limitation of the model is the prediction of the membrane distortion. The work presents a set of reduced-order models that allow for reducing the computational cost of the aeroelastic simulations by orders of magnitude. In addition, a decision pattern is provided for selecting the appropriate algorithm for the interest problem. / This thesis have been funded by Spanish Ministry of Science, Innovation and University through the University Faculty Training (FPU) program with reference FPU19/02201. / Cremades Botella, A. (2023). Fluid-structure interaction with the application to the non-linear aeroelastic phenomena [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/199249
292

Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECG

Jiménez Serrano, Santiago 07 September 2023 (has links)
[ES] Las enfermedades cardiovasculares son una de las principales causas de mortalidad y morbilidad en el mundo. Entre las arritmias más comunes en adultos destaca la Fibrilación Auricular (FA), presentando una tendencia de crecimiento muy significativa, sobre todo en población de edad avanzada o con trastornos de obesidad. En el otro extremo, nos encontramos con la Miocardiopatía Arritmogénica (MCA), considerada una enfermedad rara con una prevalencia de 1:2000-5000 pero con gran afectación entre familiares directos, causante de muerte súbita cardiaca (MSC), y con un diagnóstico clínico complicado. Más allá de la FA o la MCA, existe una amplia variedad de patologías derivadas de una disfunción en la activación y conducción eléctrica del corazón. Para todas ellas, el electrocardiograma (ECG) continúa figurando como la primera y principal técnica de diagnóstico clínico, siendo una herramienta fundamental de cribado y detección de patologías relativamente económica y ampliamente accesible. Sin embargo, el diagnóstico preciso a partir de la interpretación del ECG requiere de médicos experimentados, siendo ésta una tarea que consume recursos, tiempo y que además está sujeta a la variabilidad entre observadores. Respecto a las afecciones cardiacas más comunes, conseguir un diagnóstico de forma automática que sea fiable, utilizando tanto 12 como un número reducido o único de derivaciones, sigue presentándose como un desafío. Este aspecto cobra especial relevancia con el uso cada vez más extendido de dispositivos portátiles o wearables, los cuales están ganando un gran interés para la detección temprana y preventiva de enfermedades cardiacas, registrando normalmente un número reducido de derivaciones ECG. Dicho uso masivo les confiere un gran potencial para facilitar el cribado y seguimiento de distintas afecciones en una amplia variedad de escenarios, a pesar de registrar señales de peor calidad en comparación con equipos certificados para uso clínico. El principal reto con estos dispositivos es encontrar un equilibrio adecuado entre la sensibilidad y la especificidad en la detección de ritmos cardiacos susceptibles de ser patológicos. En consecuencia, es indispensable diseñar e implementar algoritmos precisos adecuados para dispositivos móviles o portátiles capaces de detectar distintas afecciones cardiacas en registros de ECG. Respecto las afecciones cardiacas menos comunes como el caso de la MCA, es necesario incrementar la sensibilidad en la detección durante los cribados intra-familiares realizados tras una MSC. Para ello, sería posible explorar biomarcadores propios a esta enfermedad obtenidos mediante técnicas de procesado de señales ECG, además de modelos de clasificación que hagan uso de ellos, contribuyendo así a reducir el número de casos de muerte súbita. En base a lo descrito anteriormente, la presente tesis estudia las posibilidades de diagnóstico basadas en técnicas de aprendizaje y clasificación automática en dos escenarios principales. El primero aborda la detección de la FA, así como un amplio abanico de otras patologías cardiacas comunes, donde proponemos y validamos distintos modelos de clasificación de bajo consumo computacional. Todo esto, utilizando extensas bases de datos de acceso abierto, y haciendo énfasis en enfoques de derivación única, ya que son los más utilizados en dispositivos móviles e inteligentes. El segundo escenario se centra en la detección de MCA mediante las 12 derivaciones estándar del ECG, donde proponemos y validamos nuevos biomarcadores y modelos de clasificación que tratan de incrementar la sensibilidad de los cribados intra-familiares realizados tras una MSC. Para ello, utilizamos una base de datos específica de la Unidad de Cardiopatías Familiares del Hospital Universitario y Politécnico La Fe de València. / [CA] Les malalties cardiovasculars són una de les principals causes de mortalitat i morbiditat en el món. Entre les arrítmies més comunes en adults destaca la Fibril·lació Auricular (FA), presentant una tendència de creixement molt significativa, sobretot en població d'edat avançada o amb trastorns d'obesitat. En l'altre extrem, ens trobem amb la Miocardiopatia Arritmogènica (MCA), considerada una malaltia rara amb una prevalença de 1:2000-5000 però amb gran afectació entre familiars directes, causant de mort sobtada cardíaca (MSC), i amb un diagnòstic clínic complicat. Més enllà de la FA o la MCA, existeix una àmplia varietat de patologies derivades d'una disfunció en l'activació i conducció elèctrica del cor. Per a totes elles, l'electrocardiograma (ECG) continua figurant com la primera i principal tècnica de diagnòstic clínic, sent una eina fonamental de cribratge i detecció de patologies relativament econòmica i àmpliament accessible. No obstant això, el diagnòstic precís a partir de la interpretació del ECG requereix de metges experimentats, sent aquesta una tasca que consumeix recursos, temps i que a més està subjecta a la variabilitat entre observadors. Respecte a les afeccions cardíaques més comunes, aconseguir un diagnòstic de manera automàtica que siga fiable, utilitzant tant 12 com un número reduït o únic de derivacions, continua presentant-se com un desafiament. Aquest aspecte cobra especial rellevància amb l'ús cada vegada més estés de dispositius portàtils o wearables, els quals estan guanyant un gran interés per a la detecció precoç i preventiva de malalties cardíaques, registrant normalment un nombre reduït de derivacions ECG. Aquest ús massiu els confereix un gran potencial per a facilitar el cribratge i seguiment de diferents afeccions en una àmplia varietat d'escenaris, malgrat registrar senyals de pitjor qualitat en comparació amb equips certificats per a ús clínic. El principal repte amb aquests dispositius és trobar un equilibri adequat entre la sensibilitat i l'especificitat en la detecció de ritmes cardíacs susceptibles de ser patològics. En conseqüència, és indispensable dissenyar i implementar algorismes precisos adequats per a dispositius mòbils o portàtils capaços de detectar diferents afeccions cardíaques en registres de ECG. Respecte les afeccions cardíaques menys comunes com el cas de la MCA, és necessari incrementar la sensibilitat en la detecció durant els cribratges intra-familiars realitzats després d'una MSC. Per a això, seria possible explorar biomarcadors propis a aquesta malaltia obtinguts mitjançant tècniques de processament de senyals ECG, a més de models de classificació que facen ús d'ells, contribuint així a reduir el nombre de casos de mort sobtada. Sobre la base del descrit anteriorment, la present tesi estudia les possibilitats de diagnòstic basades en tècniques d'aprenentatge i classificació automàtica en dos escenaris principals. El primer aborda la detecció de la FA, així com un ampli ventall d'altres patologies cardíaques comunes, on proposem i validem diferents models de classificació de baix consum computacional. Tot això, utilitzant extenses bases de dades d'accés obert, i fent èmfasi en enfocaments de derivació única, ja que són els més utilitzats en dispositius mòbils i intel·ligents. El segon escenari se centra en la detecció de MCA mitjançant les 12 derivacions estàndard de l'ECG, on proposem i validem nous biomarcadors i models de classificació que tracten d'incrementar la sensibilitat dels cribratges intra-familiars realitzats després d'una MSC. Per a això, utilitzem una base de dades específica de la Unitat de Cardiopaties Familiars de l'Hospital Universitari i Politècnic La Fe de València. / [EN] Cardiovascular diseases are one of the leading causes of mortality and morbidity worldwide. Atrial Fibrillation (AF) stands out among adults' most common arrhythmias, presenting a very significant growth trend, especially in the elderly population or those with obesity disorders. At the other extreme, we find Arrhythmogenic Cardiomyopathy (ACM), a rare disease with a prevalence of 1:2000-5000 but great affectation among direct relatives, causing sudden cardiac death (SCD), and with a complicated clinical diagnosis. Beyond AF or ACM, there is a wide variety of pathologies derived from dysfunctions in the activation or electrical conduction of the heart. For all of them, the electrocardiogram (ECG) continues to appear as the first and foremost clinical diagnostic technique, being a fundamental tool for screening and detecting pathologies that is relatively cheap and widely accessible. However, accurate diagnosis based on ECG interpretation requires experienced physicians, as this task consumes resources, time and is subject to variability between observers. For the most common cardiac conditions, achieving a reliable diagnosis automatically, using either 12 or a smaller or single number of leads, remains a challenge. This aspect is especially relevant with the increasingly widespread use of portable or wearable devices, which are gaining significant interest for the early and preventive detection of heart disease, typically recording a reduced number of ECG leads. Such massive use gives them great potential to facilitate screening and monitoring different conditions in different scenarios, despite registering signals of lower quality compared to equipment certified for clinical use. The main challenge with these devices is finding the right balance between sensitivity and specificity in detecting pathologic heart rhythms. Consequently, designing and implementing accurate algorithms suitable for mobile or portable devices capable of detecting different cardiac conditions in ECG recordings is essential. Concerning less common cardiac conditions such as the case of ACM, it is necessary to increase the sensitivity in detection during intra-family screenings carried out after an SCD. Hence, it would be possible to explore specific biomarkers to this disease obtained through ECG signal processing techniques, as well as classification models that use them, thus contributing to reduce the number of cases of sudden death. Based on the previously described, this thesis studies the diagnostic possibilities based on machine learning and classification techniques in two main scenarios. The first deals with detecting AF and a wide range of other common cardiac pathologies, where we propose and validate different classification models with low computational consumption. All this, using extensive open access databases, and emphasizing single-lead approaches, since they are the most used in mobile and smart devices. The second scenario focuses on detecting ACM using the standard 12-lead ECG, where we propose and validate new biomarkers and classification models that try to increase the sensitivity of intra-family screenings carried out after an MSC. For this task, we used a specific database of the Familial Cardiopathies Unit of the Hospital Universitario y Politécnico La Fe de València. / Jiménez Serrano, S. (2023). Desarrollo de nuevos marcadores y clasificadores de bajo coste computacional para identificar afecciones cardiacas en registros ECG [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196826
293

Improving Recommender Engines for Video Streaming Platforms with RNNs and Multivariate Data / Förbättring av Rekommendationsmotorer för Videoströmningsplattformar med RNN och Multivariata Data

Pérez Felipe, Daniel January 2022 (has links)
For over 4 years now, there has been a fierce fight for staying ahead in the so-called ”Streaming War”. The Covid-19 pandemic and its consequent confinement only worsened the situation. In such a market where the user is faced with too many streaming video services to choose from, retaining customers becomes a necessary must. Moreover, an extensive catalogue makes it even more difficult for the user to choose a movie from. Recommender Systems try to ease this task by analyzing the users’ interactions with the platform and predicting movies that, a priori, will be watched next. Neural Networks have started to be implemented as the underlying technology in the development of Recommender Systems. Yet, most streaming services fall victim to a highly uneven movies distribution, where a small fraction of their content is watched by most of their users, having the rest of their catalogue a limited number of views. This is the long-tail problem that makes for a difficult classification model. An RNN model was implemented to solve this problem. Following a multiple-experts classification strategy, where each classifier focuses only on a specific group of films, movies are clustered by popularity. These clusters were created following the Jenks natural breaks algorithm, clustering movies by minimizing the inner group variance and maximizing the outer group variance. This new implementation ended up outperforming other clustering methods, where the proposed Jenks’ movie clusters gave better results for the corresponding models. The model had, as input, an ordered stream of watched movies. An extra input variable, the date of the visualization, gave an increase in performance, being more noticeable in those clusters with a fewer amount of movies and more views, i.e., those clusters not corresponding to the least popular ones. The addition of an extra variable, the percent of movies watched, gave inconclusive results due to hardware limitations. / I över fyra år har det nu varit en hård kamp för att ligga i framkant i det så kallade ”Streaming kriget”. Covid-19-pandemin och den därpå följande karantänen förvärrade bara situationen. På en sådan marknad där användaren står inför alltför många streamingtjänster att välja mellan, blir kvarhållande av kunderna en nödvändighet. En omfattande katalog gör det dessutom ännu svårare för användaren att välja en film. Rekommendationssystem försöker underlätta denna uppgift genom att analysera användarnas interaktion med plattformen och förutsäga vilka filmer som kommer att ses härnäst. Neurala nätverk har börjat användas som underliggande teknik vid utvecklingen av rekommendationssystem. De flesta streamingtjänster har dock en mycket ojämn fördelning av filmerna, då en liten del av deras innehåll ses av de flesta av användarna, medan en stor del av deras katalog har ett begränsat antal visualiseringar. Detta så kallade ”Long Tail”-problem gör det svårt att skapa en klassificeringsmodell. En RNN-modell implementerades för att lösa detta problem. Genom att följa en klassificeringsstrategi med flera experter, där varje klassificerare endast fokuserar på en viss grupp av filmer, grupperas filmerna efter popularitet. Dessa kluster skapades enligt Jenks natural breaks-algoritm, som klustrar filmer genom att minimera variansen i den inre gruppen och maximera variansen i den yttre gruppen. Denna nya implementering överträffade till slut andra klustermetoder, där filmklustren föreslagna av Jenks gav bättre resultat för motsvarande modeller. Modellen hade som indata en ordnad ström av sedda filmer. En extra ingångsvariabel, datumet för visualiseringen, gav en ökning av prestandan, som var mer märkbar i de kluster med färre filmer och fler visualiseringar, dvs. de kluster som inte motsvarade de minst populära klustren. Tillägget av en extra variabel, procent av filmen som har setts, gav inte entydiga resultat på grund av hårdvarubegränsningar / Desde hace más de 4 años, se está librando una lucha encarnizada por mantenerse en cabeza en la llamada ”Guerra del Streaming”. La Covid-19 y su consiguiente confinamiento no han hecho más que empeorar la situación. En un mercado como éste, en el que el usuario se encuentra con demasiados servicios de vídeo en streaming entre los que elegir, retener a los clientes se convierte en una necesidad. Además, un catálogo extenso dificulta aún más la elección de una película por parte del usuario. Los sistemas de recomendación intentan facilitar esta tarea analizando las interacciones de los usuarios con la plataforma y predecir las películas que, a priori, se verán a continuación. Las Redes Neuronales han comenzado a implementarse como tecnología subyacente en el desarrollo de los sistemas de recomendación. Sin embargo, la mayoría de los servicios de streaming son víctimas de una distribución de películas muy desigual, en la que una pequeña fracción de sus contenidos es vista por la mayoría de sus usuarios, teniendo el resto de su catálogo un número muy inferior de visualizaciones. Este es el denominado problema de ”long-tail” que dificulta el modelo de clasificación. Para resolver este problema se implementó un modelo RNN. Siguiendo una estrategia de clasificación de expertos múltiples, en la que cada clasificador se centra en un único grupo específico de películas, agrupadas por popularidad. Estos clusters se crearon siguiendo el algoritmo de Jenks, agrupando las películas mediante minimización y maximización de la varianza entre grupos . Esta nueva implementación acabó superando a otros métodos de clustering, donde los clusters de películas de Jenks propuestos dieron mejores resultados para los modelos correspondientes. El modelo tenía como entrada un flujo ordenado de películas vistas. Una variable de entrada extra, la fecha de la visualización, dio un incremento en el rendimiento, siendo más notable en aquellos clusters con una menor cantidad de películas y más visualizaciones, es decir, aquellos clusters que no corresponden a los menos populares. La adición de una variable extra, el porcentaje de películas vistas, dio resultados no concluyentes debido a limitaciones hardware.
294

Aplicación de técnicas de Deep Learning para el reconocimiento de páginas Web y emociones faciales: Un estudio comparativo y experimental

Mejia-Escobar, Christian 07 March 2023 (has links)
El progreso de la Inteligencia Artificial (IA) ha sido notable en los últimos años. Los impresionantes avances en imitar las capacidades humanas por parte de las máquinas se deben especialmente al campo del Deep Learning (DL). Este paradigma evita el complejo diseño manual de características. En su lugar, los datos pasan directamente a un algoritmo, que aprende a extraer y representar características jerárquicamente en múltiples capas a medida que aprende a resolver una tarea. Esto ha demostrado ser ideal para problemas relacionados con el mundo visual. Una solución de DL comprende datos y un modelo. La mayor parte de la investigación actual se centra en los modelos, en busca de mejores algoritmos. Sin embargo, aunque se prueben diferentes arquitecturas y configuraciones, difícilmente mejorará el rendimiento si los datos no son de buena calidad. Son escasos los estudios que se centran en mejorar los datos, pese a que constituyen el principal recurso para el aprendizaje automático. La recolección y el etiquetado de extensos datasets de imágenes consumen mucho tiempo, esfuerzo e introducen errores. La mala clasificación, la presencia de imágenes irrelevantes, el desequilibrio de las clases y la falta de representatividad del mundo real son problemas ampliamente conocidos que afectan el rendimiento de los modelos en escenarios prácticos. Nuestra propuesta enfrenta estos problemas a través de un enfoque data-centric. A través de la ingeniería del dataset original utilizando técnicas de DL, lo hacemos más adecuado para entrenar un modelo con mejor rendimiento y generalización en escenarios reales. Para demostrar esta hipótesis, consideramos dos casos prácticos que se han convertido en temas de creciente interés para la investigación. Por una parte, Internet es la plataforma mundial de comunicación y la Web es la principal fuente de información para las actividades humanas. Las páginas Web crecen a cada segundo y son cada vez más sofisticadas. Para organizar este complejo y vasto contenido, la clasificación es la técnica básica. El aspecto visual de una página Web puede ser una alternativa al análisis textual del código para distinguir entre categorías. Abordamos el reconocimiento y la clasificación de páginas Web creando un dataset de capturas de pantalla apropiado desde cero. Por otro lado, aunque los avances de la IA son significativos en el aspecto cognitivo, la parte emocional de las personas es un desafío. La expresión facial es la mejor evidencia para manifestar y transmitir nuestras emociones. Aunque algunos datasets de imágenes faciales existen para entrenar modelos de DL, no ha sido posible alcanzar el alto rendimiento en entornos controlados utilizando datasets in-the-lab. Abordamos el reconocimiento y la clasificación de emociones humanas mediante la combinación de varios datasets in-the wild de imágenes faciales. Estas dos problemáticas plantean situaciones distintas y requieren de imágenes con contenido muy diferente, por lo que hemos diseñado un método de refinamiento del dataset según el caso de estudio. En el primer caso, implementamos un modelo de DL para clasificar páginas Web en determinadas categorías utilizando únicamente capturas de pantalla, donde los resultados demostraron un problema multiclase muy difícil. Tratamos el mismo problema con la estrategia One vs. Rest y mejoramos el dataset mediante reclasificación, detección de imágenes irrelevantes, equilibrio y representatividad, además de utilizar técnicas de regularización y un nuevo mecanismo de predicción con los clasificadores binarios. Estos clasificadores operando por separado mejoran el rendimiento, en promedio incrementan un 26.29% la precisión de validación y disminuyen un 42.30% el sobreajuste, mostrando importantes mejoras respecto al clasificador múltiple que opera con todas las categorías juntas. Utilizando el nuevo modelo, hemos desarrollado un sistema en línea para clasificar páginas Web que puede ayudar a diseñadores, propietarios de sitios Web, Webmasters y usuarios en general. En el segundo caso, la estrategia consiste en refinar progresivamente el dataset de imágenes faciales mediante varios entrenamientos sucesivos de un modelo de red convolucional. En cada entrenamiento, se utilizan las imágenes faciales correspondientes a las predicciones correctas del entrenamiento anterior, lo que permite al modelo captar más características distintivas de cada clase de emoción. Tras el último entrenamiento, el modelo realiza una reclasificación automática de todo el dataset. Este proceso también nos permite detectar las imágenes irrelevantes, pero nuestro propósito es mejorar el dataset sin modificar, borrar o aumentar las imágenes, a diferencia de otros trabajos similares. Los resultados experimentales en tres datasets representativos demostraron la eficacia del método propuesto, mejorando la precisión de validación en un 20.45%, 14.47% y 39.66%, para FER2013, NHFI y AffectNet, respectivamente. Las tasas de reconocimiento en las versiones reclasificadas de estos datasets son del 86.71%, el 70.44% y el 89.17%, que alcanzan el estado del arte. Combinamos estas versiones mejor clasificadas para aumentar el número de imágenes y enriquecer la diversidad de personas, gestos y atributos de resolución, color, fondo, iluminación y formato de imagen. El dataset resultante se utiliza para entrenar un modelo más general. Frente a la necesidad de métricas más realistas de la generalización de los modelos, creamos un dataset evaluador combinado, equilibrado, imparcial y bien etiquetado. Para tal fin, organizamos este dataset en categorías de género, edad y etnia. Utilizando un predictor de estas características representativas de la población, podemos seleccionar el mismo número de imágenes y mediante el exitoso modelo Stable Diffusion es posible generar las imágenes faciales necesarias para equilibrar las categorías creadas a partir de las mencionadas características. Los experimentos single-dataset y cross-dataset indican que el modelo entrenado en el dataset combinado mejora la generalización de los modelos entrenados individualmente en FER2013, NHFI y AffectNet en un 13.93%, 24.17% y 7.45%, respectivamente. Desarrollamos un sistema en línea de reconocimiento de emociones que aprovecha el modelo más genérico obtenido del dataset combinado. Por último, la buena calidad de las imágenes faciales sintéticas y la reducción de tiempo conseguida con el método generativo nos motivan para crear el primer y mayor dataset artificial de emociones categóricas. Este producto de libre acceso puede complementar los datasets reales, que son difíciles de recopilar, etiquetar, equilibrar, controlar las características y proteger la identidad de las personas.
295

On the Keyword Extraction and Bias Analysis, Graph-based Exploration and Data Augmentation for Abusive Language Detection in Low-Resource Settings

Peña Sarracén, Gretel Liz de la 07 April 2024 (has links)
Tesis por compendio / [ES] La detección del lenguaje abusivo es una tarea que se ha vuelto cada vez más importante en la era digital moderna, donde la comunicación se produce a través de diversas plataformas en línea. El aumento de las interacciones en estas plataformas ha provocado un aumento de la aparición del lenguaje abusivo. Abordar dicho contenido es crucial para mantener un entorno en línea seguro e inclusivo. Sin embargo, esta tarea enfrenta varios desafíos que la convierten en un área compleja y que demanda de continua investigación y desarrollo. En particular, detectar lenguaje abusivo en entornos con escasez de datos presenta desafíos adicionales debido a que el desarrollo de sistemas automáticos precisos a menudo requiere de grandes conjuntos de datos anotados. En esta tesis investigamos diferentes aspectos de la detección del lenguaje abusivo, prestando especial atención a entornos con datos limitados. Primero, estudiamos el sesgo hacia palabras clave abusivas en modelos entrenados para la detección del lenguaje abusivo. Con este propósito, proponemos dos métodos para extraer palabras clave potencialmente abusivas de colecciones de textos. Luego evaluamos el sesgo hacia las palabras clave extraídas y cómo se puede modificar este sesgo para influir en el rendimiento de la detección del lenguaje abusivo. El análisis y las conclusiones de este trabajo revelan evidencia de que es posible mitigar el sesgo y que dicha reducción puede afectar positivamente el desempeño de los modelos. Sin embargo, notamos que no es posible establecer una correspondencia similar entre la variación del sesgo y el desempeño de los modelos cuando hay escasez datos con las técnicas de reducción del sesgo estudiadas. En segundo lugar, investigamos el uso de redes neuronales basadas en grafos para detectar lenguaje abusivo. Por un lado, proponemos una estrategia de representación de textos diseñada con el objetivo de obtener un espacio de representación en el que los textos abusivos puedan distinguirse fácilmente de otros textos. Por otro lado, evaluamos la capacidad de redes neuronales convolucionales basadas en grafos para clasificar textos abusivos. La siguiente parte de nuestra investigación se centra en analizar cómo el aumento de datos puede influir en el rendimiento de la detección del lenguaje abusivo. Para ello, investigamos dos técnicas bien conocidas basadas en el principio de minimización del riesgo en la vecindad de instancias originales y proponemos una variante para una de ellas. Además, evaluamos técnicas simples basadas en el reemplazo de sinónimos, inserción aleatoria, intercambio aleatorio y eliminación aleatoria de palabras. Las contribuciones de esta tesis ponen de manifiesto el potencial de las redes neuronales basadas en grafos y de las técnicas de aumento de datos para mejorar la detección del lenguaje abusivo, especialmente cuando hay limitación de datos. Estas contribuciones han sido publicadas en conferencias y revistas internacionales. / [CA] La detecció del llenguatge abusiu és una tasca que s'ha tornat cada vegada més important en l'era digital moderna, on la comunicació es produïx a través de diverses plataformes en línia. L'augment de les interaccions en estes plataformes ha provocat un augment de l'aparició de llenguatge abusiu. Abordar este contingut és crucial per a mantindre un entorn en línia segur i inclusiu. No obstant això, esta tasca enfronta diversos desafiaments que la convertixen en una àrea complexa i contínua de recerca i desenvolupament. En particular, detectar llenguatge abusiu en entorns amb escassetat de dades presenta desafiaments addicionals pel fet que el desenvolupament de sistemes automàtics precisos sovint requerix de grans conjunts de dades anotades. En esta tesi investiguem diferents aspectes de la detecció del llenguatge abusiu, prestant especial atenció a entorns amb dades limitades. Primer, estudiem el biaix cap a paraules clau abusives en models entrenats per a la detecció de llenguatge abusiu. Amb este propòsit, proposem dos mètodes per a extraure paraules clau potencialment abusives de col·leccions de textos. Després avaluem el biaix cap a les paraules clau extretes i com es pot modificar este biaix per a influir en el rendiment de la detecció de llenguatge abusiu. L'anàlisi i les conclusions d'este treball revelen evidència que és possible mitigar el biaix i que esta reducció pot afectar positivament l'acompliment dels models. No obstant això, notem que no és possible establir una correspondència similar entre la variació del biaix i l'acompliment dels models quan hi ha escassetat dades amb les tècniques de reducció del biaix estudiades. En segon lloc, investiguem l'ús de xarxes neuronals basades en grafs per a detectar llenguatge abusiu. D'una banda, proposem una estratègia de representació textual dissenyada amb l'objectiu d'obtindre un espai de representació en el qual els textos abusius puguen distingir-se fàcilment d'altres textos. D'altra banda, avaluem la capacitat de models basats en xarxes neuronals convolucionals basades en grafs per a classificar textos abusius. La següent part de la nostra investigació se centra en analitzar com l'augment de dades pot influir en el rendiment de la detecció del llenguatge abusiu. Per a això, investiguem dues tècniques ben conegudes basades en el principi de minimització del risc en el veïnatge d'instàncies originals i proposem una variant per a una d'elles. A més, avaluem tècniques simples basades en el reemplaçament de sinònims, inserció aleatòria, intercanvi aleatori i eliminació aleatòria de paraules. Les contribucions d'esta tesi destaquen el potencial de les xarxes neuronals basades en grafs i de les tècniques d'augment de dades per a millorar la detecció del llenguatge abusiu, especialment quan hi ha limitació de dades. Estes contribucions han sigut publicades en revistes i conferències internacionals. / [EN] Abusive language detection is a task that has become increasingly important in the modern digital age, where communication takes place via various online platforms. The increase in online interactions has led to an increase in the occurrence of abusive language. Addressing such content is crucial to maintaining a safe and inclusive online environment. However, this task faces several challenges that make it a complex and ongoing area of research and development. In particular, detecting abusive language in environments with sparse data poses an additional challenge, since the development of accurate automated systems often requires large annotated datasets. In this thesis we investigate different aspects of abusive language detection, paying particular attention to environments with limited data. First, we study the bias toward abusive keywords in models trained for abusive language detection. To this end, we propose two methods for extracting potentially abusive keywords from datasets. We then evaluate the bias toward the extracted keywords and how this bias can be modified in order to influence abusive language detection performance. The analysis and conclusions of this work reveal evidence that it is possible to mitigate the bias and that such a reduction can positively affect the performance of the models. However, we notice that it is not possible to establish a similar correspondence between bias mitigation and model performance in low-resource settings with the studied bias mitigation techniques. Second, we investigate the use of models based on graph neural networks to detect abusive language. On the one hand, we propose a text representation framework designed with the aim of obtaining a representation space in which abusive texts can be easily distinguished from other texts. On the other hand, we evaluate the ability of models based on convolutional graph neural networks to classify abusive texts. The next part of our research focuses on analyzing how data augmentation can influence the performance of abusive language detection. To this end, we investigate two well-known techniques based on the principle of vicinal risk minimization and propose a variant for one of them. In addition, we evaluate simple techniques based on the operations of synonym replacement, random insertion, random swap, and random deletion. The contributions of this thesis highlight the potential of models based on graph neural networks and data augmentation techniques to improve abusive language detection, especially in low-resource settings. These contributions have been published in several international conferences and journals. / This research work was partially funded by the Spanish Ministry of Science and Innovation under the research project MISMIS-FAKEnHATE on Misinformation and Miscommunication in social media: FAKE news and HATE speech (PGC2018-096212-B-C31). The authors thank also the EU-FEDER Comunitat Valenciana 2014-2020 grant IDIFEDER/2018/025. This work was done in the framework of the research project on Fairness and Transparency for equitable NLP applications in social media, funded by MCIN/AEI/10.13039/501100011033 and by ERDF, EU A way of making EuropePI. FairTransNLP research project (PID2021-124361OB-C31) funded by MCIN/AEI/10.13039/501100011033 and by ERDF, EU A way of making Europe. Part of the work presented in this article was performed during the first author’s research visit to the University of Mannheim, supported through a Contact Fellowship awarded by the DAAD scholarship program “STIBET Doktoranden”. / Peña Sarracén, GLDL. (2024). On the Keyword Extraction and Bias Analysis, Graph-based Exploration and Data Augmentation for Abusive Language Detection in Low-Resource Settings [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203266 / Compendio
296

Development and Evaluation of a Road Marking Recognition Algorithm implemented on Neuromorphic Hardware / Utveckling och utvärdering av en algoritm för att läsa av vägbanan, som implementeras på neuromorfisk hårdvara

Bou Betran, Santiago January 2022 (has links)
Driving is one of the most common and preferred forms of transport used in our actual society. However, according to studies, it is also one of the most dangerous. One solution to increase safety on the road is applying technology to automate and prevent avoidable human errors. Nevertheless, despite the efforts to obtain reliable systems, we have yet to find a reliable and safe enough solution for solving autonomous driving. One of the reasons is that many drives are done in conditions far from the ideal, with variable lighting conditions and fast-paced, unpredictable environments. This project develops and evaluates an algorithm that takes the input of dynamic vision sensors (DVS) and runs on neuromorphic spiking neural networks (SNN) to obtain a robust road lane tracking system. We present quantitative and qualitative metrics that evaluate the performance of lane recognition in low light conditions against conventional algorithms. This project is motivated by the main advantages of neuromorphic vision sensors: recognizing a high dynamic range and allowing a high-speed image capture. Another improvement of this system is the computational speed and power efficiency that characterize neuromorphic hardware based on spiking neural networks. The results obtained show a similar accuracy of this new algorithm compared to previous implementations on conventional hardware platforms. Most importantly, it accomplishes the proposed task with lower latency and computing power requirements than previous algorithms. / Att köra bil är ett av de vanligaste och mest populära transportsätten i vårt samhälle. Enligt forskningen är det också ett av de farligaste. En lösning för att öka säkerheten på vägarna är att med teknikens hjälp automatisera bilkörningen och på så sätt förebygga misstag som beror på den mänskliga faktorn. Trots ansträngningarna för att få fram tillförlitliga system har man dock ännu inte hittat en tillräckligt tillförlitlig och säker lösning för självkörande bilar. En av orsakerna till det är att många körningar sker under förhållanden som är långt ifrån idealiska, med varierande ljusförhållanden och oförutsägbara miljöer i höga hastigheter. I det här projektet utvecklar och utvärderar vi en algoritm som tar emot indata från dynamiska synsensorer (Dynamic Vision Sensors, DVS) och kör datan på neuromorfiska pulserande neuronnät (Spiking Neural Networks, SNN) för att skapa ett robust system för att läsa av vägbanan. Vi presenterar en kvantitativ och kvalitativ utvärdering av hur väl systemet läser av körbanans linjer i svagt ljus, och jämför därefter resultaten med dem för tidigare algoritmer. Detta projekt motiveras av de viktigaste fördelarna med neuromorfiska synsensorer: brett dynamiskt omfång och hög bildtagningshastighet. En annan fördel hos detta system är den korta beräkningstiden och den energieffektivitet som kännetecknar neuromorfisk hårdvara baserad på pulserande neuronnät. De resultat som erhållits visar att den nya algoritmen har en liknande noggrannhet som tidigare algoritmer på traditionella hårdvaruplattformar. I jämförelse med den traditionella tekniken, utför algoritmen i den föreliggande studien sin uppgift med kortare latenstid och lägre krav på processorkraft. / La conducción es una de las formas de transporte más comunes y preferidas en la actualidad. Sin embargo, diferentes estudios muestran que también es una de las más peligrosas. Una solución para aumentar la seguridad en la carretera es aplicar la tecnología para automatizar y prevenir los evitables errores humanos. No obstante, a pesar de los esfuerzos por conseguir sistemas fiables, todavía no hemos encontrado una solución suficientemente fiable y segura para resolver este reto. Una de las razones es el entorno de la conducción, en situaciones que distan mucho de las ideales, con condiciones de iluminación variables y entornos rápidos e imprevisibles. Este proyecto desarrolla y evalúa un algoritmo que toma la entrada de sensores de visión dinámicos (DVS) y ejecuta su computación en redes neuronales neuromórficas (SNN) para obtener un sistema robusto de seguimiento de carriles en carretera. Presentamos métricas cuantitativas y cualitativas que evalúan el rendimiento del reconocimiento de carriles en condiciones de poca luz, frente a algoritmos convencionales. Este proyecto está motivado por la validación de las ventajas de los sensores de visión neuromórficos: el reconocimiento de un alto rango dinámico y la captura de imágenes de alta velocidad. Otra de las mejoras que se espera de este sistema es la velocidad de procesamiento y la eficiencia energética que caracterizan al hardware neuromórfico basado en redes neuronales de impulsos. Los resultados obtenidos muestran una precisión similar entre el nuevo algoritmo en comparación con implementaciones anteriores en plataformas convencionales. Y lo que es más importante, realiza la tarea propuesta con menor latencia y requisitos de potencia de cálculo.
297

Desenvolupament del programari ArIS (Artificial Intelligence Suite): implementació d’eines de cribratge virtual per a la química mèdica

Estrada Tejedor, Roger 11 November 2011 (has links)
El disseny molecular de sistemes d’interès per a la química mèdica i per al disseny de fàrmacs sempre s’ha trobat molt lligat a la disponibilitat sintètica dels resultats. Des del moment que la química combinatòria s’incorpora dins de l’esquema sintètic, canvia el paper que ha de jugar la química computacional: la diversitat d’estructures possibles a sintetitzar fa necessària la introducció de mètodes, com el cribratge virtual, que permetin avaluar la viabilitat de grans quimioteques virtuals amb un temps raonable. Els mètodes quimioinformàtics responen a la necessitat anterior, posant a l’abast de l’usuari mètodes eficaços per a la predicció teòrica d’activitats biològiques o propietats d’interès. Dins d’aquests destaquen els mètodes basats en la relació quantitativa d’estructura-activitat (QSAR). Aquests han demostrat ser eficaços per l’establiment de models de predicció en l’àmbit farmacològic i biomèdic. S’ha avaluat la utilització de mètodes QSAR no lineals en la teràpia fotodinàmica del càncer, donat que és una de les línies de recerca d’interès del Grup d’Enginyeria Molecular (GEM) de l’IQS. El disseny de fotosensibilitzadors es pot realitzar a partir de la predicció de propietats fisicoquímiques (com l’espectre d’absorció i la hidrofobicitat del sistema molecular), i de l’estudi de la seva localització subcel•lular preferent, la qual ha demostrat recentment jugar un paper molt important en l’eficàcia del procés global. Per altra banda, les xarxes neuronals artificials són actualment un dels mètodes més ben valorats per a l’establiment de models QSAR no lineals. Donat l’interès de disposar d’un programari capaç d’aplicar aquests mètodes i que, a més, sigui prou versàtil i adaptable com per poder-se aplicar a diferents problemes, s’ha desenvolupat el programari ArIS. Aquest inclou els principals mètodes de xarxes neuronals artificials, per realitzar tasques de classificació i predicció quantitativa, necessaris per a l’estudi de problemes d’interès, com és la predicció de l’activitat anti-VIH d’anàlegs de l’AZT, l’optimització de formulacions químiques o el reconeixement estructural de grans sistemes moleculars / El diseño molecular de sistemas de interés para la química médica y para el diseño de fármacos siempre ha estado condicionado por la disponibilidad sintética de los resultados. Desde el momento en que la química combinatoria se incorpora en el esquema sintético, cambia el papel de la química computacional: la diversidad de estructuras que pueden sintetizarse hace necesaria la introducción de métodos, como el cribado virtual, que permitan evaluar la viabilidad de grandes quimiotecas virtuales en un tiempo razonable. Los métodos quimioinformáticos responden a la necesidad anterior, ofreciendo al usuario métodos eficaces para la predicción teórica de actividades biológicas o propiedades de interés. Entre ellos destacan los métodos basados en la relación cuantitativa de estructura-actividad (QSAR), que han demostrado ser eficaces para establecer modelos de predicción en el ámbito farmacológico y biomédico. Se ha evaluado la utilización de métodos QSAR no lineales en terapia fotodinámica del cáncer, dado que es una de las líneas de investigación de interés del Grup d’Enginyeria Molecular (GEM) del IQS. El diseño de fotosensibilizadores se puede realizar a partir de la predicción de propiedades fisicoquímicas (como su espectro de absorción o su hidrofobicidad) y del estudio de su localización subcelular preferente, la cual ha demostrado recientemente jugar un papel muy importante en la eficacia del proceso global. Por otro lado, las redes neuronales artificiales son actualmente uno de los métodos mejor valorados para establecer modelos QSAR no lineales. Es por ello que resulta muy interesante disponer de un programa capaz de aplicar estos métodos y que, además, sea lo suficientemente versátil y adaptable como para poder aplicarse a distintos problemas, según las necesidades del usuario. Por este motivo se ha desarrollado el programa ArIS, el cual incluye los principales métodos de redes neuronales artificiales para realizar tareas de clasificación y predicción cuantitativa, necesarios para el estudio de problemas de interés como la predicción de la actividad anti-VIH de análogos del AZT, la optimización de formulaciones químicas o el reconocimiento estructural de grandes sistemas moleculares. / Molecular modelling of interesting systems for medicinal chemistry and drug design highly depends on availability of synthetic results. Since combinatorial chemistry was incorporated into the synthetic scheme, the role of computational chemistry has changed: the structural diversity of candidates to be synthesized requires the introduction of computational methods which are able to screen large virtual libraries. Answering to this requirement, chemoinformatics offers many kinds of different methods for predicting biological activities and molecular properties. One of the most relevant techniques among them is Quantitative Structure-Activity Relationships (QSAR), which can be used to establish prediction models for both, pharmacological and biomedical sectors. The use of non- linear QSAR methods has been evaluated in photodynamic therapy of cancer, one of the research areas of the Grup d’Enginyeria Molecular (GEM) at IQS. Molecular design of photosensitizers can be performed by computational studies of their physicochemical properties (absorption spectra or hydrophobicity, for example) and subcellular localization, which becomes a key factor in the efficacy of the overall process. Furthermore, artificial neural networks are nowadays rated as one of the very best methods for establishing non-linear QSAR models. Developing software that includes all these methods would be certainly interesting. Implemented algorithms should be versatile and easily adaptable for their use in any problems. We have developed ArIS software, which includes the most important methods of artificial neural networks for classification and quantitative prediction. ArIS has been used to predict anti-HIV activity of AZT-analogues, for optimization of chemical formulations and for structural recognition in large molecular systems, among others.
298

Noves tècniques de gestió per a l'empresa promotora constructora

Cassú i Serra, Elvira 03 February 2006 (has links)
En el sector de la promoció construcció, i en especial, en el subsector de la promoció construcció d'habitatges, l'empresari ha de tenir un bon coneixement de les variables d'entorn ja que la consideració de les mateixes seran fonamentals a l'hora de prendre decisions sobre planificació estratègica. En l'actualitat vivim una fase de canvis socioeconòmics que dificulten la previsió del comportament futur de les variables d'entorn. Per tant, el subjecte decisor es troba en un ambient d'incertesa que s'aguditza per la majoritària presència de factors qualitatius difícils de quantificar. Llavors, l'empresari promotor constructor haurà de recórrer a tècniques operatives de gestió que tinguin present aquesta situació i això serà possible a partir de les eines que ens ofereix la lògica borrosa. Aquesta tesi s'ha estructurat en tres parts: En la primera part, exposem les característiques específiques i l'evolució del sector. En la segona part, expliquem la metodologia i, en la tercera part, exposem diverses aplicacions de la metodologia borrosa per l'establiment de noves estratègies de gestió aplicades al sector objecte d'estudi. / In the management of promoters builders business area, specially in the subarea of house promotion building, to gather a large information of the variables around becomes essential. Their being taken into consideration is fundamental when considering decisions upon strategic foresight. Today, socioeconomic changes make difficult to forecast the future behaviour of the variables around and the uncertain atmosphere intensifies due to the majority presence of qualitative factors hard to quantify. In the management of promoters builders business it turns as necessary to apply to operative techniques that take into account the present situation. This is possible by using the tools fuzzy logics grant us. The first part of this thesis gives specific characteristics of the area and its evolution. Methodology is explained in the second part and in the third part different practical examples of fuzzy logic methodology are presented to establish new management strategies applied to this field.
299

Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach

Quirós Díaz, Lorenzo 21 March 2022 (has links)
[ES] El Análisis de la Estructura de Documentos (Document Layout Analysis), aplicado a documentos manuscritos, tiene como objetivo obtener automáticamente la estructura intrínseca de dichos documentos. Su desarrollo como campo de investigación se extiende desde los sistemas de segmentación de caracteres desarrollados a principios de la década de 1960 hasta los sistemas complejos desarrollados en la actualidad, donde el objetivo es analizar estructuras de alto nivel (líneas de texto, párrafos, tablas, etc.) y la relación que existe entre ellas. Esta tesis, en primer lugar, define el objetivo del Análisis de la Estructura de Documentos desde una perspectiva probabilística. A continuación, la complejidad del problema se reduce a un conjunto de subproblemas complementarios bien conocidos, de manera que pueda ser gestionado por medio de recursos informáticos modernos. Concretamente se abordan tres de los principales problemas del Análisis de la Estructura de Documentos siguiendo una formulación probabilística. Específicamente se aborda la Detección de Línea Base (Baseline Detection), la Segmentación de Regiones (Region Segmentation) y la Determinación del Orden de Lectura (Reading Order Determination). Uno de los principales aportes de esta tesis es la formalización de los problemas de Detección de Línea Base y Segmentación de Regiones bajo un marco probabilístico, donde ambos problemas pueden ser abordados por separado o de forma integrada por los modelos propuestos. Este último enfoque ha demostrado ser muy útil para procesar grandes colecciones de documentos con recursos informáticos limitados. Posteriormente se aborda el subproblema de la Determinación del Orden de Lectura, que es uno de los subproblemas más importantes, aunque subestimados, del Análisis de la Extructura de Documentos, ya que es el nexo que permite convertir los datos extraídos de los sistemas de Reconocimiento Automático de Texto (Automatic Text Recognition Systems) en información útil. Por lo tanto, en esta tesis abordamos y formalizamos la Determinación del Orden de Lectura como un problema de clasificación probabilística por pares. Además, se proponen dos diferentes algoritmos de decodificación que reducen la complejidad computacional del problema. Por otra parte, se utilizan diferentes modelos estadísticos para representar la distribución de probabilidad sobre la estructura de los documentos. Estos modelos, basados en Redes Neuronales Artificiales (desde un simple Perceptrón Multicapa hasta complejas Redes Convolucionales y Redes de Propuesta de Regiones), se estiman a partir de datos de entrenamiento utilizando algoritmos de aprendizaje automático supervisados. Finalmente, todas las contribuciones se evalúan experimentalmente, no solo en referencias académicas estándar, sino también en colecciones de miles de imágenes. Se han considerado documentos de texto manuascritos y documentos musicales manuscritos, ya que en conjunto representan la mayoría de los documentos presentes en bibliotecas y archivos. Los resultados muestran que los métodos propuestos son muy precisos y versátiles en una amplia gama de documentos manuscritos. / [CA] L'Anàlisi de l'Estructura de Documents (Document Layout Analysis), aplicada a documents manuscrits, pretén automatitzar l'obtenció de l'estructura intrínseca d'un document. El seu desenvolupament com a camp d'investigació comprén des dels sistemes de segmentació de caràcters creats al principi dels anys 60 fins als complexos sistemes de hui dia que busquen analitzar estructures d'alt nivell (línies de text, paràgrafs, taules, etc) i les relacions entre elles. Aquesta tesi busca, primer de tot, definir el propòsit de l'anàlisi de l'estructura de documents des d'una perspectiva probabilística. Llavors, una vegada reduïda la complexitat del problema, es processa utilitzant recursos computacionals moderns, per a dividir-ho en un conjunt de subproblemes complementaris més coneguts. Concretament, tres dels principals subproblemes de l'Anàlisi de l'Estructura de Documents s'adrecen seguint una formulació probabilística: Detecció de la Línia Base Baseline Detection), Segmentació de Regions (Region Segmentation) i Determinació de l'Ordre de Lectura (Reading Order Determination). Una de les principals contribucions d'aquesta tesi és la formalització dels problemes de la Detecció de les Línies Base i dels de Segmentació de Regions en un entorn probabilístic, sent els dos problemes tractats per separat o integrats en conjunt pels models proposats. Aquesta última aproximació ha demostrat ser de molta utilitat per a la gestió de grans col·leccions de documents amb uns recursos computacionals limitats. Posteriorment s'ha adreçat el subproblema de la Determinació de l'Ordre de Lectura, sent un dels subproblemes més importants de l'Anàlisi d'Estructures de Documents, encara així subestimat, perquè és el nexe que permet transformar en informació d'utilitat l'extracció de dades dels sistemes de reconeixement automàtic de text. És per això que el fet de determinar l'ordre de lectura s'adreça i formalitza com un problema d'ordenació probabilística per parells. A més, es proposen dos algoritmes descodificadors diferents que reducix la complexitat computacional del problema. Per altra banda s'utilitzen diferents models estadístics per representar la distribució probabilística sobre l'estructura dels documents. Aquests models, basats en xarxes neuronals artificials (des d'un simple perceptron multicapa fins a complexes xarxes convolucionals i de propostes de regió), s'estimen a partir de dades d'entrenament mitjançant algoritmes d'aprenentatge automàtic supervisats. Finalment, totes les contribucions s'avaluen experimentalment, no només en referents acadèmics estàndard, sinó també en col·leccions de milers d'imatges. S'han considerat documents de text manuscrit i documents musicals manuscrits, ja que representen la majoria de documents presents a biblioteques i arxius. Els resultats mostren que els mètodes proposats són molt precisos i versàtils en una àmplia gamma de documents manuscrits. / [EN] Document Layout Analysis, applied to handwritten documents, aims to automatically obtain the intrinsic structure of a document. Its development as a research field spans from the character segmentation systems developed in the early 1960s to the complex systems designed nowadays, where the goal is to analyze high-level structures (lines of text, paragraphs, tables, etc) and the relationship between them. This thesis first defines the goal of Document Layout Analysis from a probabilistic perspective. Then, the complexity of the problem is reduced, to be handled by modern computing resources, into a set of well-known complementary subproblems. More precisely, three of the main subproblems of Document Layout Analysis are addressed following a probabilistic formulation, namely Baseline Detection, Region Segmentation and Reading Order Determination. One of the main contributions of this thesis is the formalization of Baseline Detection and Region Segmentation problems under a probabilistic framework, where both problems can be handled separately or in an integrated way by the proposed models. The latter approach is proven to be very useful to handle large document collections under restricted computing resources. Later, the Reading Order Determination subproblem is addressed. It is one of the most important, yet underestimated, subproblem of Document Layout Analysis, since it is the bridge that allows us to convert the data extracted from Automatic Text Recognition systems into useful information. Therefore, Reading Order Determination is addressed and formalized as a pairwise probabilistic sorting problem. Moreover, we propose two different decoding algorithms that reduce the computational complexity of the problem. Furthermore, different statistical models are used to represent the probability distribution over the structure of the documents. These models, based on Artificial Neural Networks (from a simple Multilayer Perceptron to complex Convolutional and Region Proposal Networks), are estimated from training data using supervised Machine Learning algorithms. Finally, all the contributions are experimentally evaluated, not only on standard academic benchmarks but also in collections of thousands of images. We consider handwritten text documents and handwritten musical documents as they represent the majority of documents in libraries and archives. The results show that the proposed methods are very accurate and versatile in a very wide range of handwritten documents. / Quirós Díaz, L. (2022). Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181483 / TESIS
300

Economía de la innovación y la digitalización del turismo: un estudio del mercado de Airbnb aplicando técnicas econométricas y redes neuronales

Más-Ferrando, Adrián 20 January 2023 (has links)
Esta tesis doctoral tiene como fin realizar una revisión de los principios económicos del turismo desde una perspectiva de la economía de la innovación, analizar el potencial impacto de la aplicación de IA en la industria turística a todos los niveles, y el estudio del mercado turístico más disruptivo de las últimas décadas: la economía de plataforma, ejemplificada en el caso de estudio de Airbnb. En este Capítulo I se establece el hilo conductor de los apartados de los que consta esta tesis en formato compendio, inspirada en diversos trabajos, entre los que se incluyen los publicados por el doctorando en esta etapa predoctoral. Para ello se presenta el diseño de la investigación, explicando detalladamente todo el proceso realizado para lograr el planteamiento de la tesis y la consecución de los objetivos y se dedica un breve apartado para presentar las principales conclusiones de la tesis. El Capítulo II de esta investigación está dedicado a la revisión de la evolución del concepto de innovación y su importancia en la teoría económica. Para ello nos basaremos en referentes teóricos que han estudiado el papel de la tecnología y la innovación en el crecimiento económico, como Schumpeter, Solow, Romer o Lucas. Con ello se pretende comprender el impacto que están teniendo los cambios disruptivos que vivimos en la economía, para posteriormente aplicarlos a la transformación de la estructura de la industria turística. En el Capítulo III se realiza un análisis aplicado de la innovación y del impacto de las nuevas tecnologías en el sector turístico. En él se estudiará el estado de la innovación del sector, realizando importantes aclaraciones sobre la capacidad que tiene la industria para adaptar o desarrollar tecnologías disruptivas. Además, se explicarán los principios digitales que están transformando la industria turística y el nuevo ciclo de investigación derivado de la aparición del Big Data y que está protagonizado por técnicas basadas en algoritmos de Machine Learning, justificando así la elección del sector turístico como caso de estudio. En el Capítulo IV se realiza una revisión completa del proceso transformador que está viviendo la estructura de la industria turística debido al cambio de paradigma tecnológico. Así, se estudia cómo estos procesos innovadores están desarrollando una nueva demanda turística basada en los datos, cómo se está reinventando la cadena de valor turística, cómo se fijan los precios turísticos en un mercado con información casi perfecta, qué retos supone para el mercado laboral y formativo del sector, y qué papel juegan en el surgimiento de nuevos competidores de base tecnológica en el sector. En los Capítulos V y VI se escoge como caso de estudio aplicado el mercado alojativo, utilizando la información de Airbnb. Sin duda, esta empresa representa muchos de los desafíos a los que se enfrenta el sector en cuestiones tecnológicas, de regulación política, intervención de mercado, reinterpretación de la cadena de valor turística, aparición de shocks económicos o pandémicos a los que se deben enfrentar los investigadores. El Capítulo V tiene como objeto de análisis la ciudad de Madrid, cuarto destino por número de anuncios de Airbnb en Europa. Para este caso aplicado se estudia si la pandemia de la COVID-19 tuvo un impacto significativo en la estructura de la oferta y de la demanda de Airbnb. Para ello, el estudio parte de un modelo logit de datos de panel hedónicos, se aplican diferentes métodos alternativos de selección de variables y pruebas de verosimilitud para confirmar la existencia del cambio estructural que afecte a la toma de decisiones a la hora de alquilar un apartamento de la Plataforma. El Capítulo VI centra el estudio en la Comunidad Valenciana, uno de los principales destinos turísticos de sol y playa, para realizar un análisis sobre la fijación de precios del alojamiento turístico en la plataforma. Este caso de estudio tiene por objetivo analizar si la aplicación de algoritmos de ML permite a las empresas optimizar precios de una manera más eficiente que modelos tradicionales. Para ello, se enfrenta el rendimiento de un modelo de precios hedónicos tradicional frente a un modelo de estimación basado en redes neuronales, comprobándose el mejor ajuste en la capacidad predictiva de las técnicas basadas en machine learning a la hora de fijar precios. De este modo la tesis doctoral constituye una valiosa y novedosa aportación al nuevo ciclo de investigación del sector. Propone una exhaustiva revisión de todas las implicaciones y las aplicaciones que tienen las nuevas tecnologías en el turismo y de las ventajas del uso de técnicas de análisis basadas machine learning para los investigadores en su estudio.

Page generated in 0.0806 seconds