• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 39
  • Tagged with
  • 117
  • 117
  • 58
  • 55
  • 49
  • 46
  • 44
  • 44
  • 44
  • 44
  • 44
  • 37
  • 32
  • 27
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Optimization of Fluid Bed Dryer Energy Consumption for Pharmaceutical Drug Processes through Machine Learning and Cloud Computing Technologies

Barriga Rodríguez, Roberto 01 September 2023 (has links)
[ES] Los altos costes energéticos, las constantes medidas regulatorias aplicadas por las administraciones para mantener bajos los costes sanitarios, así como los cambios en la normativa sanitaria que se han introducido en los últimos años, han tenido un impacto significativo en la industria farmacéutica y sanitaria. El paradigma Industria 4.0 engloba cambios en el modelo productivo tradicional de la industria farmacéutica con la inclusión de tecnologías que van más allá de la automatización tradicional. El objetivo principal es lograr medicamentos más rentables mediante la incorporación óptima de tecnologías como la analítica avanzada. El proceso de fabricación de las industrias farmacéuticas tiene diferentes etapas (mezclado, secado, compactado, recubrimiento, envasado, etc.) donde una de las etapas más costosas energéticamente es el proceso de secado. El objetivo durante este proceso es extraer el contenido de líquidos como el agua mediante la inyección de aire caliente y seco en el sistema. Este tiempo de secado normalmente está predeterminado y depende del volumen y el tipo de unidades de producto farmacéutico que se deben deshidratar. Por otro lado, la fase de precalentamiento puede variar dependiendo de varios parámetros como la experiencia del operador. Por lo tanto, es posible asumir que una optimización de este proceso a través de analítica avanzada es posible y puede tener un efecto significativo en la reducción de costes en todo el proceso de fabricación. Debido al alto coste de la maquinaria involucrada en el proceso de producción de medicamentos, es una práctica común en la industria farmacéutica tratar de maximizar la vida útil de estas máquinas que no están equipados con los últimos sensores. Así pues, es posible implementar un modelo de aprendizaje automático que utilice plataformas de analítica avanzada, como la computación en la nube, para analizar los posibles ahorros en el consumo de energía. Esta tesis está enfocada en mejorar el consumo de energía en el proceso de precalentamiento de un secador de lecho fluido, mediante la definición e implementación de una plataforma de computación en la nube IIOT (Industrial Internet of Things)-Cloud, para alojar y ejecutar un algoritmo de aprendizaje automático basado en el modelo Catboost, para predecir cuándo es el momento óptimo para detener el proceso y reducir su duración y, en consecuencia, su consumo energético. Los resultados experimentales muestran que es posible reducir el proceso de precalentamiento en un 45% de su duración en tiempo y, en consecuencia, reducir el consumo de energía hasta 2.8 MWh por año. / [CAT] Els elevats costos energètics, les constants mesures reguladores aplicades per les administracions per mantenir uns costos assistencials baixos, així com els canvis en la normativa sanitària que s'han introduït en els darrers anys, han tingut un impacte important en el sector farmacèutic i sanitari. El paradigma de la indústria 4.0 engloba els canvis en el model de producció tradicional de la indústria farmacèutica amb la inclusió de tecnologies que van més enllà de l'automatització tradicional. L'objectiu principal és aconseguir fàrmacs més rendibles mitjançant la incorporació òptima de tecnologies com l'analítica avançada. El procés de fabricació de les indústries farmacèutiques té diferents etapes (mescla, assecat, compactació, recobriment, envasat, etc.) on una de les etapes més costoses energèticament és el procés d'assecat. L'objectiu d'aquest procés és extreure el contingut de líquids com l'aigua injectant aire calent i sec al sistema. Aquest temps de procediment d'assecat normalment està predeterminat i depèn del volum i del tipus d'unitats de producte farmacèutic que cal deshidratar. D'altra banda, la fase de preescalfament pot variar en funció de diversos paràmetres com l'experiència de l'operador. Per tant, podem assumir que una optimització d'aquest procés mitjançant analítiques avançades és possible i pot tenir un efecte significatiu de reducció de costos en tot el procés de fabricació. A causa de l'elevat cost de la maquinària implicada en el procés de producció de fàrmacs, és una pràctica habitual a la indústria farmacèutica intentar maximitzar la vida útil d'aquestes màquines que no estan equipats amb els darrers sensors. Així, es pot implementar un model d'aprenentatge automàtic que utilitza plataformes de analítiques avançades com la computació en núvol, per analitzar l'estalvi potencial del consum d'energia. Aquesta tesis està enfocada a millorar el consum d'energia en el procés de preescalfament d'un assecador de llit fluid, mitjançant la definició i implementació d'una plataforma IIOT (Industrial Internet of Things)-Cloud computing, per allotjar i executar un algorisme d'aprenentatge automàtic basat en el modelatge Catboost, per predir quan és el moment òptim per aturar el procés i reduir-ne la durada, i en conseqüència el seu consum energètic. Els resultats de l'experiment mostren que és possible reduir el procés de preescalfament en un 45% de la seva durada en temps i, en conseqüència, reduir el consum d'energia fins a 2.8 MWh anuals. / [EN] High energy costs, the constant regulatory measures applied by administrations to maintain low healthcare costs, and the changes in healthcare regulations introduced in recent years have all significantly impacted the pharmaceutical and healthcare industry. The industry 4.0 paradigm encompasses changes in the traditional production model of the pharmaceutical industry with the inclusion of technologies beyond traditional automation. The primary goal is to achieve more cost-efficient drugs through the optimal incorporation of technologies such as advanced analytics. The manufacturing process of the pharmaceutical industry has different stages (mixing, drying, compacting, coating, packaging, etc..), and one of the most energy-expensive stages is the drying process. This process aims to extract the liquid content, such as water, by injecting warm and dry air into the system. This drying procedure time usually is predetermined and depends on the volume and the kind of units of a pharmaceutical product that must be dehydrated. On the other hand, the preheating phase can vary depending on various parameters, such as the operator's experience. It is, therefore, safe to assume that optimization of this process through advanced analytics is possible and can have a significant cost-reducing effect on the whole manufacturing process. Due to the high cost of the machinery involved in the drug production process, it is common practice in the pharmaceutical industry to try to maximize the useful life of these machines, which are not equipped with the latest sensors. Thus, a machine learning model using advanced analytics platforms, such as cloud computing, can be implemented to analyze potential energy consumption savings. This thesis is focused on improving the energy consumption in the preheating process of a fluid bed dryer by defining and implementing an IIOT (Industrial Internet of Things) Cloud computing platform. This architecture will host and run a machine learning algorithm based on Catboost modeling to predict when the optimum time is reached to stop the process, reduce its duration, and consequently its energy consumption. Experimental results show that it is possible to reduce the preheating process by 45% of its time duration, consequently reducing energy consumption by up to 2.8 MWh per year. / Barriga Rodríguez, R. (2023). Optimization of Fluid Bed Dryer Energy Consumption for Pharmaceutical Drug Processes through Machine Learning and Cloud Computing Technologies [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/195847
102

Genomic instability as a predictive biomarker for the application of DNA-damaging therapies in gynecological cancer patients

López Reig, Raquel 30 October 2023 (has links)
[ES] El curso natural de los tumores va acompañado de la acumulación progresiva de alteraciones genómicas, propiciando una cadena de eventos que resultan en inestabilidad genómica (IG). Éste fenómeno, caracterizado por alteraciones en el número de copias, constituye un hallmark genómico con impacto pronóstico más allá de la histología y otras características moleculares del tumor. En el ámbito de la investigación en oncología ginecológica, la IG ha ganado fuerza en los últimos años, permitiendo la estratificación de pacientes de acuerdo al pronóstico y la respuesta a agentes que dañan el ADN, como las terapias basadas en platinos y los inhibidores de PARP. En el cáncer de ovario, en particular, se ha descrito un subgrupo molecular caracterizado por alta incidencia de alteraciones en el número de copias relacionado con un mejor pronóstico y respuesta a quimioterapia. Esta correlación presenta la IG como un buen marcador predictivo y pronóstico. Así, un modelo basado en la IG trasladable a la práctica clínica constituirá una herramienta útil para la optimización de la toma de decisiones. La era de la medicina personalizada llegó de la mano de los estudios integrativos, donde las técnicas de alto rendimiento se aplican de manera combinada para obtener una visión molecular global de los tumores, completando y complementando la caracterización clásica a nivel anatómico e histológico. Esta tesis propone un estudio global de la IG como biomarcador pronóstico y predictivo de respuesta en cáncer ginecológico, haciendo hincapié en el cáncer de ovario seroso de alto grado y cáncer de endometrio. A través de la aplicación de estrategias basadas en NGS con la adaptación de pipelines de análisis disponibles obtuvimos los perfiles de IG de muestras de tejido fijadas en formol y embebidas en parafina, de una manera fiable, portable y coste efectiva, combinando herramientas de machine learning para ajustar modelos predictivos y pronósticos. Partiendo de esta premisa, ajustamos y validamos, en cohortes clínicas bien caracterizadas, tres modelos a partir de los datos ómicos individuales y un modelo integrativo (Scarface Score) que demostró la capacidad de predecir la respuesta a agentes que dañan el ADN en un escenario clínico concreto de pacientes con cáncer de ovario seroso de alto grado. Paralelamente, desarrollamos y validamos un algoritmo basado en el perfil de mutaciones, con impacto pronóstico, en cáncer de endometrio. Este algoritmo consiguió una estratificación que respondía al perfil de IG de los pacientes. Finalmente, se caracterizó un panel de líneas celulares de cáncer de ovario a nivel de respuesta, genético y genómico. Se interrogó el estatus de la vía de recombinación homóloga y su asociación a patrones de IG, completando el perfil molecular y estableciendo las bases para futuros estudios preclínicos y clínicos. Los resultados obtenidos en esta tesis doctoral presentan herramientas de gran valor para el manejo clínico en cuanto a la búsqueda de una medicina personalizada. Adicionalmente, diferentes estudios para trasladar el modelo predictivo a otros escenarios clínicos pueden ser explorados, usando como base el planteado, pero restableciendo puntos de corte nuevos y específicos. / [CA] El curs natural dels tumors va acompanyat de l'acumulació progressiva d'alteracions genòmiques, propiciant una cadena d'esdeveniments que resulten en inestabilitat genòmica (IG). Aquest fenomen, caracteritzat per la presencia de alteracions en el nombre de cópies, constitueix un hallmark genòmic amb impacte pronòstic més enllà de la histologia i altres característiques moleculars del tumor. En l'àmbit de la recerca en oncologia ginecològica, la IG ha guanyat força en els últims anys, permetent l'estratificació de pacients d'acord amb el pronòstic i la resposta d'agents que danyen l'ADN, com les teràpies basades en platins i els inhibidors de PARP. En el càncer d'ovari en particular, s'ha descrit un subgrup molecular caracteritzat per una alta incidència d'alteracions en el nombre de còpies relacionat amb un millor pronòstic i resposta a quimioteràpia. Aquesta correlació presenta la IG com un marcador predictiu i pronòstic adeqüat. Així, un model basat en la IG traslladable a la pràctica clínica constituirà una eina útil per a l'optimització de la presa de decisions. L'era de la medicina personalitzada va arribar de la mà dels estudis integratius, on les tècniques d'alt rendiment s'apliquen de manera combinada per a obtenir una visió molecular global dels tumors, completant i complementant la caracterització clàssica a nivell anatòmic i histològic. Aquesta tesi proposa un estudi global de la IG com a biomarcador pronòstic i predictiu de resposta en càncer ginecològic, posant l'accent en el càncer d'ovari serós d'alt grau i càncer d'endometri. A través de la aplicación d'estratègies basades en NGS amb l'adaptació de pipelines d'anàlisis disponibles, vam obtenir els perfils de IG de mostres de teixit fixades en formol i embegudes en parafina d'una manera fiable, portable i cost efectiva, combinant eines de machine learning per a ajustar models predictius i pronòstics. Partint d'aquesta premissa, vam ajustar i validar, en cohortes clíniques ben caracteritzades, tres models a partir de les dades omiques individuals i un model integratiu (Scarface Score) que va demostrar la capacitat de predir la resposta a agents que danyen l'ADN en un escenari clínic concret de pacients amb càncer d'ovari serós d'alt grau. Paral·lelament, desenvoluparem i validarem un algoritme basat en el perfil de mutacions amb impacte pronòstic en càncer d'endometri. Aquest algoritme va aconseguir una estratificació que responia al perfil de IG dels pacients. Finalment, es va caracteritzar un panell de línies cel·lulars de càncer d'ovari a nivell de resposta, genètic i genòmic. Es varen interrogar l'estatus de la via de recombinació homòloga i la seua associació a patrons de IG, completant el perfil molecular i establint les bases per a futurs estudis preclínics i clínics. Els resultats obtinguts en aquesta tesi doctoral presenten eines de gran valor per al maneig clínic en quant a la cerca d'una medicina personalitzada. Addicionalment, diferents estudis per a traslladar el model predictiu a altres escenaris clínics poden ser plantejats, usant com a base el propost però restablint punts de tall nous i específics. / [EN] The natural course of tumors matches the progressive accumulation of genomic alterations, triggering a cascade of events that results in genomic instability (GI). This phenomenon includes copy number alterations and constitutes a genomic hallmark that defines specific outcomes beyond histology and other molecular features of the tumor. In the context of gynaecologic oncology research, GI has gained strength in the last years allowing the stratification of patients according to prognosis and response to certain DNA-damaging agents, such as platinum-based therapies and PARP inhibitors. Particularly in ovarian and endometrial cancers, it has been described a molecular subgroup characterized by high copy number alterations (CNA) related to good prognosis and better response to chemotherapy. This relationship highlights GI as a predictive and prognostic biomarker. Hence, a GI-based model translated into clinical practice would constitute a tool for optimizing clinical decision-making. The era of personalised medicine arrived together with the coming of integrative studies, where results of high-throughput techniques are combined to obtain a comprehensive molecular landscape of the diseases, bringing a new paradigm to characterize the tumors beyond classical anatomic and histological characteristics. This thesis proposes a global study of the phenomenon of GI as a prognostic and predictive biomarker of treatment response in gynaecological cancers, mainly focused on high-grade ovarian cancer and endometrial cancer. Through the development of an NGS-based strategy with the adaptation of available pipelines of analysis, we obtained GI profiles on formalin-fixed paraffin-embedded samples in a reliable, portable, and cost-effective approach, with the combination of Machine Learning tools to fit prognostic and predictive models based on the integration of omic data. Based on that premise, we fit and validated, in well-characterized clinical cohorts, three single-source models and an integrative ensemble model (Scarface Score) that proved to be able to predict response to DNA-damaging agents in a clinical scenario of High-Grade Serous Ovarian Cancer. In addition, a mutational-based algorithm (12g algorithm) with prognostic impact was developed and validated for endometrial cancer patients. This algorithm achieved a GI-based stratification of patients. Finally, a panel of ovarian cancer cell lines was characterized at the response, genetic and genomic level, interrogating homologous recombination repair pathway status and its associated GI profiles, completing the molecular landscape, and establishing the basis and breeding ground of future preclinical and clinical studies. The results reported in this Doctoral Thesis provide valuable clinical management tools in the accomplishment of a reliable tailored therapy. Additionally, future studies in different tumor types and drugs for implementation of the predictive model can be planned, using as a base the defined one but re-establishing new and specific cut-offs. / The present doctoral thesis was partially funded by GVA Grants “Subvencions per a la realització de projectes d’i+d+i desenvolupats per grups d’investigació emergents (GV/2020/158)” and “Ayudas para la contratación de personal investigador en formación de carácter predoctoral” (ACIF/2016/008), “Beca de investigación traslacional Andrés Poveda 2020” from GEICO group and Phase II clinical trial (POLA: NCT02684318, EudraCT 2015-001141-08, 03.10.2015). This study was awarded the Prize “Antonio Llombart Rodriguez-FINCIVO 2020” from the Royal Academy of Medicine of the Valencian Community / López Reig, R. (2023). Genomic instability as a predictive biomarker for the application of DNA-damaging therapies in gynecological cancer patients [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/199026
103

Adoption Factors of Artificial intelligence in Human Resource Management

Tuffaha, Mohand 06 September 2022 (has links)
Tesis por compendio / [ES] El mundo es testigo de nuevos avances tecnológicos que afectan significativamente a las organizaciones en diferentes departamentos. La inteligencia artificial (IA) es uno de estos avances, visto como una tecnología revolucionaria en la gestión de recursos humanos (RRHH). Profesionales y académicos han discutido el brillante papel de la IA en RRHH. Sin embargo, el análisis profundo de esta tecnología en el proceso de RRHH es aún escaso. Con todo ello, el objetivo principal de esta tesis es investigar el estado de la IA en RRHH y así identificar factores clave de implementación concretos. Primero, construyendo un marco académico para la IA en RRHH; segundo, analizar las aplicaciones de IA más utilizada en los procesos de RRHH; tercero, identificar las formas óptimas de transferir el conocimiento en los procesos de implementación de IA. La metodología utilizada para la investigación combina la revisión sistemática de la literatura y técnicas de investigación cualitativa. Como base y medida preparatoria para abordar las preguntas de investigación, se llevó a cabo un extenso análisis de la literatura en el campo AI-RRHH, con un enfoque particular en las publicaciones de algoritmos de IA en HRM, análisis de HR-Big data, aplicaciones/soluciones de IA en HRM e implementación de IA. En la misma línea, el autor publicó artículos en varias conferencias que contribuyeron a mejorar la madurez de las preguntas de investigación. Con base en este conocimiento, los estudios publicados ilustraron la brecha entre la promesa y la realidad de la IA en RRHH, teniendo en cuenta los requisitos técnicos de la implementación de la IA, así como las aplicaciones y limitaciones. Posteriormente, se entrevistó a expertos en recursos humanos y consultores de IA que ya habían adquirido experiencia de primera mano con los procesos de recursos humanos en un entorno de IA para descubrir la verdad de la aplicación de la IA dominante en el proceso de RRHH. Los principales hallazgos de esta tesis incluyen la derivación de una definición completa de IA en RRHH, así como el estado de las estrategias de adopción de aplicaciones de IA en RRHH. Como resultado adicional, se explora la utilidad y las limitaciones de los chatbots en el proceso de contratación en la India. Además, factores clave para transferir el conocimiento del proceso de implementación de IA a los gerentes y empleados de recursos humanos. Finalmente, se concluye identificando desafíos asociados con la implementación de IA en el proceso de recursos humanos y el impacto de COVID-19 en la implementación de IA. / [CA] El món és testimoni de nous avanços tecnològics, que afecten significativament les organitzacions en diferents departaments. La intel·ligència artificial (IA) és un d'aquests avanços que s'anuncia àmpliament com una tecnologia revolucionària en la gestió de recursos humans (HRM). Professionals i acadèmics han discutit el brillant paper de la IA en HRM. No obstant això, encara és escàs l'anàlisi profund d'aquesta tecnologia en el procés de HRM. Per tant, l'objectiu principal d'aquesta tesi és investigar l'estat de la IA en HRM i derivar factors clau d'implementació concrets. Primer, construint un marc acadèmic per a la IA en HRM; segon, analitzar l'aplicació de IA més utilitzada en el procés de recursos humans; tercer, identificar les formes òptimes de transferir el coneixement dels processos d'implementació de IA. La metodologia utilitzada per a la investigació es combina entre una revisió sistemàtica de la literatura i una tècnica d'investigació qualitativa. Com a base i mesura preparatòria per a abordar les preguntes d'investigació, es va dur a terme una extensa anàlisi de la literatura en el camp IA-HRM, amb un enfocament particular en les publicacions d'algorismes de IA en HRM, anàlisis de HR-Big data, aplicacions/soluciones de IA en HRM i implementació de IA. En la mateixa línia, l'autor va publicar articles en diverses conferències que van procedir a millorar la maduresa de les preguntes d'investigació. Amb base en aquest coneixement, els estudis publicats van illustrar la bretxa entre la promesa i la realitat de la IA en HRM, tenint en compte els requisits tècnics de la implementació de la IA, així com les aplicacions i limitacions. Posteriorment, es va entrevistar experts en recursos humans i consultors de IA que ja havien adquirit experiència de primera mà amb els processos de recursos humans en un entorn de IA per a descobrir la veritat de l'aplicació de la IA dominant en el procés de recursos humans. Les principals troballes d'aquesta tesi són la derivació d'una definició completa de IA en HRM, així com l'estat de les estratègies d'adopció d'aplicacions de IA en HRM. Com a resultat addicional, explore la utilitat i les limitacions dels chatbots en el procés de contractació a l'Índia. A més, factors clau per a transferir el coneixement del procés d'implementació de IA als gerents i empleats de recursos humans. També es van concloure els desafiaments associats amb la implementació de IA en el procés de recursos humans i l'impacte de COVID-19 en la implementació de IA. / [EN] The world is witnessing new technological advancements, which significantly impacts organizations across different departments. Artificial intelligence (AI) is one of these advancements that is widely heralded as a revolutionary technology in Human Resource Management (HRM). Professionals and scholars have discussed the bright role of AI in HRM. However, deep analysis of this technology in the HR process is still scarce. Therefore, the main goal of this thesis is to investigate the status of AI in HRM and derive concrete implementation key factors. Through, first, building an academic framework for AI in HRM; second, analyzing the most commonly used AI applications in HR process; third, identifying the optimal ways to transfer the knowledge of AI implementation processes. The methodology used for the investigation combines a systematic literature review and a qualitative research technique. As a basis and preparatory measure to address the research questions, an extensive literature analysis in the AI-HRM field was carried out, with a particular focus on publications of AI in HRM, HR-Big data analysis, AI applications/solutions in HRM and AI implementation. Along similar lines, the author published papers in several conference proceedings to improve the maturity of research questions. Based on this work, the published studies illustrate the gap between the promise and reality of AI in HRM, taking into account the requirements of AI implementation as well as the applications and limitations. Subsequently, HR experts and AI consultants, who had already gained first-hand experience with HR processes in an AI environment, were interviewed to find out the truth of the dominant AI's application in HR process. The main findings of this thesis are the derivation of a complete definition of AI in HRM as well as the status of the adoption strategies of AI applications in HRM. As a further result, it explores the usefulness and limitations of chatbots in the recruitment processes in India. In addition, derived the key factors to transfer the knowledge of AI implementation process to HR managers and employees. Challenges associated with AI implementation in the HR process and the impact of COVID-19 on AI implementation were also concluded. / Tuffaha, M. (2022). Adoption Factors of Artificial intelligence in Human Resource Management [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/185909 / TESIS / Compendio
104

New Challenges in Learning Classifier Systems: Mining Rarities and Evolving Fuzzy Models

Orriols Puig, Albert 12 December 2008 (has links)
Durant l'última dècada, els sistemes classificadors (LCS) d'estil Michigan - sistemes d'aprenentatge automàtic que combinen tècniques de repartiment de crèdit i algorismes genètics (AG) per evolucionar una població de classificadors online- han renascut. Juntament amb la formulació dels sistemes de primera generació, s'han produït avenços importants en (1) el disseny sistemàtic de nous LCS competents, (2) la seva aplicació en dominis rellevants i (3) el desenvolupament d'anàlisis teòriques. Malgrat aquests dissenys i aplicacions importants, encara hi ha reptes complexos que cal abordar per comprendre millor el funcionament dels LCS i per solucionar problemes del món real eficientment i escalable.Aquesta tesi tracta dos reptes importants - compartits amb la comunitat d'aprenentatge automàtic - amb LCS d'estil Michigan: (1) aprenentatge en dominis que contenen classes estranyes i (2) evolució de models comprensibles on s'utilitzin mètodes de raonament similars als humans. L'aprenentatge de models precisos de classes estranyes és crític, doncs el coneixement clau sol quedar amagat en exemples d'aquestes, i la majoria de tècniques d'aprenentatge no són capaces de modelar la raresa amb precisió. La detecció de rareses sol ser complicat en aprenentatge online ja que el sistema d'aprenentatge rep un flux d'exemples i ha de detectar les rareses al vol. D'altra banda, l'evolució de models comprensibles és crucial en certs dominis com el mèdic, on l'expert acostuma a estar més interessat en obtenir una explicació intel·ligible de la predicció que en la predicció en si mateixa.El treball present considera dos LCS d'estil Michigan com a punt de partida: l'XCS i l 'UCS. Es pren l'XCS com a primera referència ja que és l'LCS que ha tingut més influencia fins al moment. L'UCS hereta els components principals de l'XCS i els especialitza per aprenentatge supervisat. Tenint en compte que aquesta tesi especialment se centra en problemes de classificació, l'UCS també es considera en aquest estudi. La inclusió de l'UCS marca el primer objectiu de la tesi, sota el qual es revisen un conjunt de punts que van restar oberts en el disseny del sistema. A més, per il·lustrar les diferències claus entre l'XCS i l'UCS, es comparen ambdós sistemes sobre una bateria de problemes artificials de complexitat acotada.L'estudi de com els LCS aprenen en dominis amb classes estranyes comença amb un estudi analític que descompon el problema en cinc elements crítics i deriva models per facetes per cadascun d'ells. Aquesta anàlisi s'usa com a eina per dissenyar guies de configuració que permeten que l'XCS i l'UCS solucionin problemes que prèviament no eren resolubles. A continuació, es comparen els dos LCS amb alguns dels sistemes d'aprenentatge amb més influencia en la comunitat d'aprenentatge automàtic sobre una col·lecció de problemes del món real que contenen classes estranyes. Els resultats indiquen que els dos LCS són els mètodes més robustos de la comparativa. Així mateix, es demostra experimentalment que remostrejar els conjunts d'entrenament amb l'objectiu d'eliminar la presencia de classes estranyes beneficia, en mitjana, el rendiment de les tècniques d'aprenentatge.El repte de crear models més comprensibles i d'usar mecanismes de raonament que siguin similars als humans s'aborda mitjançant el disseny d'un nou LCS per aprenentatge supervisat que combina les capacitats d'avaluació de regles online, la robustesa mostrada pels AG en problemes complexos i la representació comprensible i mètodes de raonament fonamentats proporcionats per la lògica difusa. El nou LCS, anomenat Fuzzy-UCS, s'estudia en detall i es compara amb una bateria de mètodes d'aprenentatge. Els resultats de la comparativa demostren la competitivitat del Fuzzy-UCS en termes de precisió i intel·ligibilitat dels models evolucionats. Addicionalment, s'usa Fuzzy-UCS per extreure models de classificació acurats de grans volums de dades, exemplificant els avantatges de l'arquitectura d'aprenentatge online del Fuzzy-UCS.En general, les observacions i avenços assolits en aquesta tesi contribueixen a augmentar la comprensió del funcionament dels LCS i en preparar aquests tipus de sistemes per afrontar problemes del món real de gran complexitat. Finalment, els resultats experimentals ressalten la robustesa i competitivitat dels LCS respecte a altres mètodes d'aprenentatge, encoratjant el seu ús per tractar nous problemes del món real. / Durante la última década, los sistemas clasificadores (LCS) de estilo Michigan - sistemas de aprendizaje automático que combinan técnicas de repartición de crédito y algoritmos genéticos (AG) para evolucionar una población de clasificadores online - han renacido. Juntamente con la formulación de los sistemas de primera generación, se han producido avances importantes en (1) el diseño sistemático de nuevos LCS competentes, (2) su aplicación en dominios relevantes y (3) el desarrollo de análisis teóricos. Pese a eso, aún existen retos complejos que deben ser abordados para comprender mejor el funcionamiento de los LCS y para solucionar problemas del mundo real escalable y eficientemente.Esta tesis trata dos retos importantes - compartidos por la comunidad de aprendizaje automático - con LCS de estilo Michigan: (1) aprendizaje en dominios con clases raras y (2) evolución de modelos comprensibles donde se utilicen métodos de razonamiento similares a los humanos. El aprendizaje de modelos precisos de clases raras es crítico pues el conocimiento clave suele estar escondido en ejemplos de estas clases, y la mayoría de técnicas de aprendizaje no son capaces de modelar la rareza con precisión. El modelado de las rarezas acostumbra a ser más complejo en entornos de aprendizaje online, pues el sistema de aprendizaje recibe un flujo de ejemplos y debe detectar las rarezas al vuelo. La evolución de modelos comprensibles es crucial en ciertos dominios como el médico, donde el experto está más interesado en obtener una explicación inteligible de la predicción que en la predicción en sí misma.El trabajo presente considera dos LCS de estilo Michigan como punto de partida: el XCS y el UCS. Se toma XCS como primera referencia debido a que es el LCS que ha tenido más influencia hasta el momento. UCS es un diseño reciente de LCS que hereda los componentes principales de XCS y los especializa para aprendizaje supervisado. Dado que esta tesis está especialmente centrada en problemas de clasificación automática, también se considera UCS en el estudio. La inclusión de UCS marca el primer objetivo de la tesis, bajo el cual se revisan un conjunto de aspectos que quedaron abiertos durante el diseño del sistema. Además, para ilustrar las diferencias claves entre XCS y UCS, se comparan ambos sistemas sobre una batería de problemas artificiales de complejidad acotada.El estudio de cómo los LCS aprenden en dominios con clases raras empieza con un estudio analítico que descompone el problema en cinco elementos críticos y deriva modelos por facetas para cada uno de ellos. Este análisis se usa como herramienta para diseñar guías de configuración que permiten que XCS y UCS solucionen problemas que previamente no eran resolubles. A continuación, se comparan los dos LCS con algunos de los sistemas de aprendizaje de mayor influencia en la comunidad de aprendizaje automático sobre una colección de problemas del mundo real que contienen clases raras.Los resultados indican que los dos LCS son los métodos más robustos de la comparativa. Además, se demuestra experimentalmente que remuestrear los conjuntos de entrenamiento con el objetivo de eliminar la presencia de clases raras beneficia, en promedio, el rendimiento de los métodos de aprendizaje automático incluidos en la comparativa.El reto de crear modelos más comprensibles y usar mecanismos de razonamiento que sean similares a los humanos se aborda mediante el diseño de un nuevo LCS para aprendizaje supervisado que combina las capacidades de evaluación de reglas online, la robustez mostrada por los AG en problemas complejos y la representación comprensible y métodos de razonamiento proporcionados por la lógica difusa. El sistema que resulta de la combinación de estas ideas, llamado Fuzzy-UCS, se estudia en detalle y se compara con una batería de métodos de aprendizaje altamente reconocidos en el campo de aprendizaje automático. Los resultados de la comparativa demuestran la competitividad de Fuzzy-UCS en referencia a la precisión e inteligibilidad de los modelos evolucionados. Adicionalmente, se usa Fuzzy-UCS para extraer modelos de clasificación precisos de grandes volúmenes de datos, ejemplificando las ventajas de la arquitectura de aprendizaje online de Fuzzy-UCS.En general, los avances y observaciones proporcionados en la tesis presente contribuyen a aumentar la comprensión del funcionamiento de los LCS y a preparar estos tipos de sistemas para afrontar problemas del mundo real de gran complejidad. Además, los resultados experimentales resaltan la robustez y competitividad de los LCS respecto a otros métodos de aprendizaje, alentando su uso para tratar nuevos problemas del mundo real. / During the last decade, Michigan-style learning classifier systems (LCSs) - genetic-based machine learning (GBML) methods that combine apportionment of credit techniques and genetic algorithms (GAs) to evolve a population of classifiers online - have been enjoying a renaissance. Together with the formulation of first generation systems, there have been crucial advances in (1) systematic design of new competent LCSs, (2) applications in important domains, and (3) theoretical analyses for design. Despite these successful designs and applications, there still remain difficult challenges that need to be addressed to increase our comprehension of how LCSs behave and to scalably and efficiently solve real-world problems.The purpose of this thesis is to address two important challenges - shared by the machine learning community - with Michigan-style LCSs: (1) learning from domains that contain rare classes and (2) evolving highly legible models in which human-like reasoning mechanisms are employed. Extracting accurate models from rare classes is critical since the key, unperceptive knowledge usually resides in the rarities, and many traditional learning techniques are not able to model rarity accurately. Besides, these difficulties are increased in online learning, where the learner receives a stream of examples and has to detect rare classes on the fly. Evolving highly legible models is crucial in some domains such as medical diagnosis, in which human experts may be more interested in the explanation of the prediction than in the prediction itself.The contributions of this thesis take two Michigan-style LCSs as starting point: the extended classifier system (XCS) and the supervised classifier system (UCS). XCS is taken as the first reference of this work since it is the most influential LCS. UCS is a recent LCS design that has inherited the main components of XCS and has specialized them for supervised learning. As this thesis is especially concerned with classification problems, UCS is also considered in this study. Since UCS is still a young system, for which there are several open issues that need further investigation, its learning architecture is first revised and updated. Moreover, to illustrate the key differences between XCS and UCS, the behavior of both systems is compared % and show that UCS converges quickly than XCS on a collection of boundedly difficult problems.The study of learning from rare classes with LCSs starts with an analytical approach in which the problem is decomposed in five critical elements, and facetwise models are derived for each element. The analysis is used as a tool for designing configuration guidelines that enable XCS and UCS to solve problems that previously eluded solution. Thereafter, the two LCSs are compared with several highly-influential learners on a collection of real-world problems with rare classes, appearing as the two best techniques of the comparison. Moreover, re-sampling the training data set to eliminate the presence of rare classes is demonstrated to benefit, on average, the performance of LCSs.The challenge of building more legible models and using human-like reasoning mechanisms is addressed with the design of a new LCS for supervised learning that combines the online evaluation capabilities of LCSs, the search robustness over complex spaces of GAs, and the legible knowledge representation and principled reasoning mechanisms of fuzzy logic. The system resulting from this crossbreeding of ideas, referred to as Fuzzy-UCS, is studied in detail and compared with several highly competent learning systems, demonstrating the competitiveness of the new architecture in terms of the accuracy and the interpretability of the evolved models. In addition, the benefits provided by the online architecture are exemplified by extracting accurate classification models from large data sets.Overall, the advances and key insights provided in this thesis help advance our understanding of how LCSs work and prepare these types of systems to face increasingly difficult problems, which abound in current industrial and scientific applications. Furthermore, experimental results highlight the robustness and competitiveness of LCSs with respect to other machine learning techniques, which encourages their use to face new challenging real-world applications.
105

Consensus and analia: new challenges in detection and management of security vulnerabilities in data networks

Corral Torruella, Guiomar 10 September 2009 (has links)
A mesura que les xarxes passen a ser un element integral de les corporacions, les tecnologies de seguretat de xarxa es desenvolupen per protegir dades i preservar la privacitat. El test de seguretat en una xarxa permet identificar vulnerabilitats i assegurar els requisits de seguretat de qualsevol empresa. L'anàlisi de la seguretat permet reconèixer informació maliciosa, tràfic no autoritzat, vulnerabilitats de dispositius o de la xarxa, patrons d'intrusió, i extreure conclusions de la informació recopilada en el test. Llavors, on està el problema? No existeix un estàndard de codi obert ni un marc integral que segueixi una metodologia de codi obert per a tests de seguretat, la informació recopilada després d'un test inclou moltes dades, no existeix un patró exacte i objectiu sobre el comportament dels dispositius de xarxa ni sobre les xarxes i, finalment, el nombre de vulnerabilitats potencials és molt extens. El desafiament d'aquest domini resideix a tenir un gran volum de dades complexes, on poden aparèixer diagnòstics inconsistents. A més, és un domini no supervisat on no s'han aplicat tècniques d'aprenentatge automàtic anteriorment. Per això cal una completa caracterització del domini. Consensus és l'aportació principal d'aquesta tesi: un marc integrat que inclou un sistema automatitzat per millorar la realització de tests en una xarxa i l'anàlisi de la informació recollida. El sistema automatitza els mecanismes associats a un test de seguretat i minimitza la durada de l'esmentat test, seguint la metodologia OSSTMM. Pot ser usat en xarxes cablejades i sense fils. La seguretat es pot avaluar des d'una perspectiva interna, o bé externa a la pròpia xarxa. Es recopilen dades d'ordinadors, routers, firewalls i detectors d'intrusions. Consensus gestionarà les dades a processar per analistes de seguretat. Informació general i específica sobre els seus serveis, sistema operatiu, la detecció de vulnerabilitats, regles d'encaminament i de filtrat, la resposta dels detectors d'intrusions, la debilitat de les contrasenyes, i la resposta a codi maliciós o a atacs de denegació de servei són un exemple de les dades a emmagatzemar per cada dispositiu. Aquestes dades són recopilades per les eines de test incloses a Consensus.La gran quantitat de dades per cada dispositiu i el diferent número i tipus d'atributs que els caracteritzen, compliquen l'extracció manual d'un patró de comportament. Les eines de test automatitzades poden obtenir diferents resultats sobre el mateix dispositiu i la informació recopilada pot arribar a ser incompleta o inconsistent. En aquest entorn sorgeix la segona principal aportació d'aquesta tesi: Analia, el mòdul d'anàlisi de Consensus. Mentre que Consensus s'encarrega de recopilar dades sobre la seguretat dels dispositius, Analia inclou tècniques d'Intel·ligència Artificial per ajudar als analistes després d'un test de seguretat. Diferents mètodes d 'aprenentatge no supervisat s'han analitzat per ser adaptats a aquest domini. Analia troba semblances dins dels dispositius analitzats i l'agrupació dels esmentats dispositius ajuda als analistes en l'extracció de conclusions. Les millors agrupacions són seleccionades mitjançant l'aplicació d'índexs de validació. A continuació, el sistema genera explicacions sobre cada agrupació per donar una resposta més detallada als analistes de seguretat.La combinació de tècniques d'aprenentatge automàtic en el domini de la seguretat de xarxes proporciona beneficis i millores en la realització de tests de seguretat mitjançant la utilització del marc integrat Consensus i el seu sistema d'anàlisi de resultats Analia. / A medida que las redes pasan a ser un elemento integral de las corporaciones, las tecnologías de seguridad de red se desarrollan para proteger datos y preservar la privacidad. El test de seguridad en una red permite identificar vulnerabilidades y asegurar los requisitos de seguridad de cualquier empresa. El análisis de la seguridad permite reconocer información maliciosa, tráfico no autorizado, vulnerabilidades de dispositivos o de la red, patrones de intrusión, y extraer conclusiones de la información recopilada en el test. Entonces, ¿dónde está el problema? No existe un estándar de código abierto ni un marco integral que siga una metodología de código abierto para tests de seguridad, la información recopilada después de un test incluye muchos datos, no existe un patrón exacto y objetivo sobre el comportamiento de los dispositivos de red ni sobre las redes y, finalmente, el número de vulnerabilidades potenciales es muy extenso. El desafío de este dominio reside en tener un gran volumen de datos complejos, donde pueden aparecer diagnósticos inconsistentes. Además, es un dominio no supervisado donde no se han aplicado técnicas de aprendizaje automático anteriormente. Por ello es necesaria una completa caracterización del dominio.Consensus es la aportación principal de esta tesis: un marco integrado que incluye un sistema automatizado para mejorar la realización de tests en una red y el análisis de la información recogida. El sistema automatiza los mecanismos asociados a un test de seguridad y minimiza la duración de dicho test, siguiendo la metodología OSSTMM. Puede ser usado en redes cableadas e inalámbricas. La seguridad se puede evaluar desde una perspectiva interna, o bien externa a la propia red. Se recopilan datos de ordenadores, routers, firewalls y detectores de intrusiones. Consensus gestionará los datos a procesar por analistas de seguridad. Información general y específica sobre sus servicios, sistema operativo, la detección de vulnerabilidades, reglas de encaminamiento y de filtrado, la respuesta de los detectores de intrusiones, la debilidad de las contraseñas, y la respuesta a código malicioso o a ataques de denegación de servicio son un ejemplo de los datos a almacenar por cada dispositivo. Estos datos son recopilados por las herramientas de test incluidas en Consensus. La gran cantidad de datos por cada dispositivo y el diferente número y tipo de atributos que les caracterizan, complican la extracción manual de un patrón de comportamiento. Las herramientas de test automatizadas pueden obtener diferentes resultados sobre el mismo dispositivo y la información recopilada puede llegar a ser incompleta o inconsistente. En este entorno surge la segunda principal aportación de esta tesis: Analia, el módulo de análisis de Consensus. Mientras que Consensus se encarga de recopilar datos sobre la seguridad de los dispositivos, Analia incluye técnicas de Inteligencia Artificial para ayudar a los analistas después de un test de seguridad. Distintos métodos de aprendizaje no supervisado se han analizado para ser adaptados a este dominio. Analia encuentra semejanzas dentro de los dispositivos analizados y la agrupación de dichos dispositivos ayuda a los analistas en la extracción de conclusiones. Las mejores agrupaciones son seleccionadas mediante la aplicación de índices de validación. A continuación, el sistema genera explicaciones sobre cada agrupación para dar una respuesta más detallada a los analistas de seguridad.La combinación de técnicas de aprendizaje automático en el dominio de la seguridad de redes proporciona beneficios y mejoras en la realización de tests de seguridad mediante la utilización del marco integrado Consensus y su sistema de análisis de resultados Analia. / As networks become an integral part of corporations and everyone's lives, advanced network security technologies are being developed to protect data and preserve privacy. Network security testing is necessary to identify and report vulnerabilities, and also to assure enterprise security requirements. Security analysis is necessary to recognize malicious data, unauthorized traffic, detected vulnerabilities, intrusion data patterns, and also to extract conclusions from the information gathered in the security test. Then, where is the problem? There is no open-source standard for security testing, there is no integral framework that follows an open-source methodology for security testing, information gathered after a security test includes large data sets, there is not an exact and objective pattern of behavior among network devices or, furthermore, among data networks and, finally, there are too many potentially vulnerabilities. The challenge of this domain resides in having a great volume of data; data are complex and can appear inconsistent diagnostics. It is also an unsupervised domain where no machine learning techniques have been applied before. Thus a complete characterization of the domain is needed.Consensus is the main contribution of this thesis. Consensus is an integrated framework that includes a computer-aided system developed to help security experts during network testing and analysis. The system automates mechanisms related to a security assessment in order to minimize the time needed to perform an OSSTMM security test. This framework can be used in wired and wireless networks. Network security can be evaluated from inside or from outside the system. It gathers data of different network devices, not only computers but also routers, firewalls and Intrusion Detection Systems (IDS). Consensus manages many data to be processed by security analysts after an exhaustive test. General information, port scanning data, operating system fingerprinting, vulnerability scanning data, routing and filtering rules, IDS response, answer to malicious code, weak passwords reporting, and response to denial of service attacks can be stored for each tested device. This data is gathered by the automated testing tools that have been included in Consensus.The great amount of data for every device and the different number and type of attributes complicates a manually traffic pattern finding. The automated testing tools can obtain different results, incomplete or inconsistent information. Then data obtained from a security test can be uncertain, approximate, complex and partial true. In this environment arises the second main contribution of this thesis: Analia, the data analysis module of Consensus. Whereas Consensus gathers security data, Analia includes Artificial Intelligence to help analysts after a vulnerability assessment. Unsupervised learning has been analyzed to be adapted to this domain. Analia finds resemblances within tested devices and clustering aids analysts in the extraction of conclusions. Afterwards, the best results are selected by applying cluster validity indices. Then explanations of clustering results are included to give a more comprehensive response to security analysts.The combination of machine learning techniques in the network security domain provides benefits and improvements when performing security assessments with the Consensus framework and processing its results with Analia.
106

Diseño de una metodología cibermétrica de cálculo del éxito para la optimización de contenidos web

Yeste Moreno, Víctor Manuel 04 November 2021 (has links)
[EN] The object of this study is the design of a cybermetric methodology whose objectives are to measure the success of the content published in an online media and the possible prediction of the selected success variables. Framed in the field of digital journalism, it responds to the need to analyze the success of web content so that it can help in the decision-making of the editorial team of a digital medium. A line of research focused on the content itself, providing an innovative vision to that of previous research, and a methodology that serves as a basis for future scientific advances. It is about the contribution of valuable information, either from the statistical analysis of the data or from the possible prediction of the success indicators of greatest interest to the environment. In this way, it could be integrated as a feedback into the content strategy and thus favor its iterative optimization. The main objective, therefore, is the design of a cybermetric methodology for calculating the success of an online publication, having as specific objectives: to research the concept of success in digital journalism, the social network Twitter, web analytics and web advertising; design the methodology and determine what tools and reports are needed; extract and process data for statistical analysis; perform regressions that allow to obtain prediction equations of the selected success variables; and validate the prediction equations with test data and obtain their precision, serving this as a degree of confidence in the prediction. The design of the methodology has served to observe a significant over-dispersion in the data, as well as to demonstrate that the success of a web content has a strongly multifactorial nature, which causes a decrease in the variability calculated using the indicators proposed by previous research. This thesis serves, then, as the basis for a very interesting research framework both at an academic and business level: the prediction of the success of digital content. / [ES] El objetivo de estudio es el diseño de una metodología cibermétrica para medir el éxito de los contenidos publicados en un medio de comunicación online y su posible predicción, de manera que se pueda orientar la optimización de los futuros contenidos publicados por el medio. Enmarcada en el ámbito del periodismo digital, responde a la necesidad de analizar el éxito de los contenidos web de manera que se pueda ayudar en la toma de decisiones del equipo editorial. Para ello, se ha realizado un extenso estudio de las publicaciones académicas versadas en las diferentes disciplinas que tienen lugar en esta tesis: la comunicación de contenidos digitales, Twitter, la difusión de las noticias en Twitter, la analítica web, la cibermetría, la analítica en Twitter, el análisis de tendencias en Twitter y la publicidad web. Con dicho marco, se ha obtenido información valiosa para la optimización futura de los contenidos digitales, ya sea procedente del análisis estadístico de los datos o de la posible predicción de los indicadores de éxito de mayor interés para el medio. De esta manera, se podría integrar de manera retroalimentada en la estrategia de contenidos y favorecer así su optimización iterativamente. Para ello, se han tenido en cuenta los siguientes objetivos específicos: investigar el concepto de éxito en el periodismo digital, la red social Twitter, la analítica web y la publicidad en la web; diseñar la metodología y determinar qué herramientas y reportes son necesarios; extraer y procesar los datos para su análisis estadístico; realizar regresiones que permitan obtener ecuaciones de predicción de las variables de éxito seleccionadas; y validar las ecuaciones de predicción con datos de test y obtener su precisión, sirviendo esta como grado de confianza en la predicción. El diseño de la metodología ha servido para observar una sobre dispersión significativa en los datos, así como demostrar que el éxito de un contenido web tiene un carácter fuertemente multifactorial, lo cual provoca una disminución en la variabilidad calculada mediante los indicadores propuestos por investigaciones previas. Esta tesis sirve, entonces, como base para una línea de investigación sobre la optimización de contenido digital basándose en la predicción estadística de su éxito. / [CAT] L'objectiu d'estudi és el disseny d'una metodologia cibermètrica per a mesurar l'èxit dels continguts publicats en un mitjà de comunicació en línia i la seua possible predicció, de manera que es puga orientar l'optimització dels futurs continguts publicats pel mitjà. Emmarcada en l'àmbit del periodisme digital, respon a la necessitat d'analitzar l'èxit dels continguts web de manera que es puga ajudar en la presa de decisions de l'equip editorial. Per a això, s'ha realitzat un extens estudi de les publicacions acadèmiques versades en les diferents disciplines que tenen lloc en aquesta tesi: la comunicació de continguts digitals, Twitter, la difusió de les notícies en Twitter, l'analítica web, la cibermetría, l'analítica en Twitter, l'anàlisi de tendències en Twitter i la publicitat web. Amb aquest marc, s'ha obtingut informació valuosa per a l'optimització futura dels continguts digitals, ja siga procedent de l'anàlisi estadística de les dades o de la possible predicció dels indicadors d'èxit de major interés per al mitjà. D'aquesta manera, es podria integrar de manera retroalimentada en l'estratègia de continguts i afavorir així la seua optimització iterativament. Per a això, s'han tingut en compte els següents objectius específics: investigar el concepte d'èxit en el periodisme digital, la xarxa social Twitter, l'analítica web i la publicitat en la web; dissenyar la metodologia i determinar quines eines i reportes són necessaris; extraure i processar les dades per a la seua anàlisi estadística; realitzar regressions que permeten obtindre equacions de predicció de les variables d'èxit seleccionades; i validar les equacions de predicció amb dades de test i obtindre la seua precisió, servint aquesta com a grau de confiança en la predicció. El disseny de la metodologia ha servit per a observar una sobre dispersió significativa en les dades, així com demostrar que l'èxit d'un contingut web té un caràcter fortament multifactorial, la qual cosa provoca una disminució en la variabilitat calculada mitjançant els indicadors proposats per investigacions prèvies. Aquesta tesi serveix, llavors, com a base per a una línia d'investigació sobre l'optimització de contingut digital basant-se en la predicció estadística del seu èxit. / Yeste Moreno, VM. (2021). Diseño de una metodología cibermétrica de cálculo del éxito para la optimización de contenidos web [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/176009 / TESIS
107

Infrared Thermography for the Assessment of Lumbar Sympathetic Blocks in Patients with Complex Regional Pain Syndrome

Cañada Soriano, Mar 21 March 2022 (has links)
[ES] El síndrome de dolor regional complejo (SDRC) es un trastorno de dolor crónico debilitante que suele afectar a una extremidad, y se caracteriza por su compleja e incomprendida fisiopatología subyacente, lo que supone un reto para su diagnóstico y tratamiento. Para evitar el deterioro de la calidad de vida de los pacientes, la consecución de un diagnóstico y tratamiento tempranos marca un punto de inflexión. Entre los diferentes tratamientos, los bloqueos simpáticos lumbares (BSLs) tienen como objetivo aliviar el dolor y reducir algunos signos simpáticos de la afección. Este procedimiento intervencionista se lleva a cabo inyectando anestesia local alrededor de los ganglios simpáticos y, hasta ahora, se realiza frecuentemente bajo el control de diferentes técnicas de imagen, como los ultrasonidos o la fluoroscopia. Dado que la termografía infrarroja (TIR) ha demostrado ser una herramienta eficaz para evaluar la temperatura de la piel, y teniendo en cuenta el efecto vasodilatador que presentan los anestésicos locales inyectados, se ha considerado el uso de la IRT para la evaluación de los BSLs. El objetivo de esta tesis es, estudiar la capacidad de la TIR como una técnica complementaria para la evaluación de la eficacia en la ejecución de los BSLs. Para cumplir este objetivo, se han realizado tres estudios implementando la TIR en pacientes diagnosticados de SDRC de miembros inferiores sometidos a BSLs. El primer estudio se centra en la viabilidad de la TIR como herramienta complementaria para la evaluación de la eficacia ejecución de los BSLs. Cuando se realizan los BSLs, la colocación correcta de la aguja es crítica para llevar realizar el procedimiento técnicamente correcto y, en consecuencia, para lograr los resultados clínicos deseados. Para verificar la posición de la aguja, tradicionalmente se han utilizado técnicas de imagen, sin embargo, los BSLs bajo control fluoroscópico no siempre aseguran su exacta ejecución. Por este motivo, se han aprovechado las alteraciones térmicas inducidas por los anestésicos locales y se han evaluado mediante la TIR. Así, cuando en las imágenes infrarrojas se observaron cambios térmicos en la planta del pie afectado tras la inyección de lidocaína, se consideró que el BSL era exitoso. El segundo estudio trata del análisis cuantitativo de los datos térmicos recogidos en el entorno clínico a partir de diferentes parámetros basados en las temperaturas extraídas de ambos pies. Según los resultados, para predecir adecuadamente los BSLs exitosos, se deberían analizar las temperaturas de las plantas de los pies durante los primeros cuatro minutos tras la inyección del anestésico local. Así, la aplicación de la TIR en el entorno clínico podría ser de gran ayuda para evaluar la eficacia de ejecución de los BSLs mediante la evaluación de las temperaturas de los pies en tiempo real. Por último, el tercer estudio aborda el análisis cuantitativo mediante la implementación de herramientas de machine learning (ML) para evaluar su capacidad de clasificar automáticamente los BSLs. En este estudio se han utilizado una serie de características térmicas extraídas de las imágenes infrarrojas para evaluar cuatro algoritmos de ML para tres momentos diferentes después del instante de referencia (inyección de lidocaína). Los resultados indican que los cuatro modelos evaluados presentan buenos rendimientos para clasificar automáticamente los BSLs entre exitosos y fallidos. Por lo tanto, la combinación de parámetros térmicos junto con de clasificación ML muestra ser eficaz para la clasificación automática de los procedimientos de BSLs. En conclusión, el uso de la TIR como técnica complementaria en la práctica clínica diaria para la evaluación de los BSLs ha demostrado ser totalmente eficaz. Dado que es un método objetivo y relativamente sencillo de implementar, puede permitir que los médicos especialistas en dolor identifiquen los bloqueos realizados fallidos y, en consecuencia, puedan revertir esta situación. / [CA] La síndrome de dolor regional complex (SDRC) és un trastorn de dolor crònic debilitant que sol afectar una extremitat, i es caracteritza per la seua complexa i incompresa fisiopatologia subjacent, la qual cosa suposa un repte per al seu diagnòstic i tractament. Per a evitar la deterioració de la qualitat de vida dels pacients, la consecució d'un diagnòstic i tractament primerencs marca un punt d'inflexió. Entre els diferents tractaments , els bloquejos simpàtics lumbars (BSLs) tenen com a objectiu alleujar el dolor i reduir alguns signes simpàtics de l'afecció. Aquest procediment intervencionista es duu a terme injectant anestèsia local al voltant dels ganglis simpàtics i, fins ara, es realitza freqüentment sota el control de diferents tècniques d'imatge, com els ultrasons o la fluoroscopia. Atés que la termografia infraroja (TIR) ha demostrat ser una eina eficaç per a avaluar la temperatura de la pell, i tenint en compte l'efecte vasodilatador que presenten els anestèsics locals injectats, s'ha considerat l'ús de la TIR per a l'avaluació dels BSLs. L'objectiu d'aquesta tesi és, estudiar la capacitat de la TIR com una tècnica complementària per a l'avaluació de l'eficàcia en l'execució dels BSLs. Per a complir aquest objectiu, s'han realitzat tres estudis implementant la TIR en pacients diagnosticats de SDRC de membres inferiors sotmesos a BSLs. El primer estudi avalua la viabilitat de la TIR com a eina complementària per a l'analisi de l'eficàcia en l'execució dels BSLs. Quan es realitzen els BSLs, la col·locació correcta de l'agulla és crítica per a dur a terme el procediment tècnicament correcte i, en conseqüència, per a aconseguir els resultats clínics desitjats. Per a verificar la posició de l'agulla, tradicionalment s'han utilitzat tècniques d'imatge, no obstant això, els BSLs baix control fluoroscòpic no sempre asseguren la seua exacta execució. Per aquest motiu, s'han aprofitat les alteracions tèrmiques induïdes pels anestèsics locals i s'han avaluat mitjançant la TIR. Així, quan en les imatges infraroges es van observar canvis tèrmics en la planta del peu afectat després de la injecció de lidocaIna, es va considerar que el BSL era exitós. El segon estudi tracta de l'anàlisi quantitativa de les dades tèrmiques recollides en l'entorn clínic a partir de diferents paràmetres basats en les temperatures extretes d'ambdós peus. Segons els resultats, per a predir adequadament l'execució exitosa d'un BSL, s'haurien d'analitzar les temperatures de les plantes dels peus durant els primers quatre minuts després de la injecció de l'anestèsic local. Així, l'implementació de la TIR en l'entorn clínic podria ser de gran ajuda per a avaluar l'eficàcia d'execució dels BSLs mitjançant l'avaluació de les temperatures dels peus en temps real. El tercer estudi aborda l'anàlisi quantitativa mitjançant la implementació d'eines machine learning (ML) per a avaluar la seua capacitat de classificar automàticament els BSLs. En aquest estudi s'han utilitzat una sèrie de característiques tèrmiques extretes de les imatges infraroges per a avaluar quatre algorismes de ML per a tres moments diferents després de l'instant de referència (injecció de lidocaïna). Els resultats indiquen que els quatre models avaluats presenten bons rendiments per a classificar automàticament els BSLs en exitosos i fallits. Per tant, la combinació de paràmetres tèrmics juntament amb models de classificació ML mostra ser eficaç per a la classificació automàtica dels procediments de BSLs. En conclusió, l'ús de la TIR com a tècnica complementària en la pràctica clínica diària per a l'avaluació dels BSLs ha demostrat ser totalment eficaç. Atés que és un mètode objectiu i relativament senzill d'implementar, pot ajudar els metges especialistes en dolor a identificar els bloquejos realitzats fallits i, en conseqüència, puguen revertir aquesta situació. / [EN] Complex regional pain syndrome (CRPS) is a debilitating chronic pain condition that usually affects one limb, and it is characterized by its misunderstood underlying pathophysiology, resulting in both challenging diagnosis and treatment. To avoid the patients' impairment quality of life, the achievement of both an early diagnosis and treatment marks a turning point. Among the different treatment approaches, lumbar sympathetic blocks (LSBs) are addressed to alleviate the pain and reduce some sympathetic signs of the condition. This interventional procedure is performed by injecting local anaesthetic around the sympathetic ganglia and, until now, it has been performed under different imaging techniques, including the ultrasound or the fluoroscopy approaches. Since infrared thermography (IRT) has proven to be a powerful tool to evaluate skin temperatures and taking into account the vasodilatory effects of the local anaesthetics injected in the LSB, the use of IRT has been considered for the LSBs assessment. Therefore, the purpose of this thesis is to evaluate the capability of IRT as a complementary assessment technique for the LSBs procedures performance. To fulfil this aim, three studies have been conducted implementing the IRT in patients diagnosed with lower limbs CRPS undergoing LSBs. The first study focuses on the feasibility of IRT as a complementary assessment tool for LSBs performance, that is, for the confirmation of the proper needle position. When LSBs are performed, the correct needle placement is critical to carry out the procedure technically correct and, consequently, to achieve the desired clinical outcomes. To verify the needle placement position, imaging techniques have traditionally been used, however, LSBs under radioscopic guidance do not always ensure an exact performance. For this reason, the thermal alterations induced by the local anaesthetics, have been exploited and assessed by means of IRT. Thus, the LSB procedure was considered successfully performed when thermal changes within the affected plantar foot were observed in the infrared images after the lidocaine injection. The second study deals with the quantitative analysis of the thermal data collected in the clinical setting through the evaluation of different temperature-based parameters extracted from both feet. According to the results, the proper LSB success prediction could be achieved in the first four minutes after the block through the evaluation of the feet skin temperatures. Therefore, the implementation of IRT in the clinical setting might be of great help in assessing the LSBs performance by evaluating the plantar feet temperatures in real time. Finally, the third study addresses the quantitative analysis by implementing machine learning (ML) tools to assess their capability to automatically classify LSBs. In this study, a set of thermal features retrieved from the infrared images have been used to evaluate four ML algorithms for three different moments after the baseline time (lidocaine injection). The results indicate that all four models evaluated present good performance metrics to automatically classify LSBs into successful and failed. Therefore, combining infrared features with ML classification models shows to be effective for the LSBs procedures automatic classification. In conclusion, the use of IRT as a complementary technique in daily clinical practice for LSBs assessment has been evidenced entirely effective. Since IRT is an objective method and it is not very demanding to perform, it is of great help for pain physicians to identify failed procedures, and consequently, it allow them to reverse this situation. / Cañada Soriano, M. (2022). Infrared Thermography for the Assessment of Lumbar Sympathetic Blocks in Patients with Complex Regional Pain Syndrome [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181699 / TESIS
108

Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach

Quirós Díaz, Lorenzo 21 March 2022 (has links)
[ES] El Análisis de la Estructura de Documentos (Document Layout Analysis), aplicado a documentos manuscritos, tiene como objetivo obtener automáticamente la estructura intrínseca de dichos documentos. Su desarrollo como campo de investigación se extiende desde los sistemas de segmentación de caracteres desarrollados a principios de la década de 1960 hasta los sistemas complejos desarrollados en la actualidad, donde el objetivo es analizar estructuras de alto nivel (líneas de texto, párrafos, tablas, etc.) y la relación que existe entre ellas. Esta tesis, en primer lugar, define el objetivo del Análisis de la Estructura de Documentos desde una perspectiva probabilística. A continuación, la complejidad del problema se reduce a un conjunto de subproblemas complementarios bien conocidos, de manera que pueda ser gestionado por medio de recursos informáticos modernos. Concretamente se abordan tres de los principales problemas del Análisis de la Estructura de Documentos siguiendo una formulación probabilística. Específicamente se aborda la Detección de Línea Base (Baseline Detection), la Segmentación de Regiones (Region Segmentation) y la Determinación del Orden de Lectura (Reading Order Determination). Uno de los principales aportes de esta tesis es la formalización de los problemas de Detección de Línea Base y Segmentación de Regiones bajo un marco probabilístico, donde ambos problemas pueden ser abordados por separado o de forma integrada por los modelos propuestos. Este último enfoque ha demostrado ser muy útil para procesar grandes colecciones de documentos con recursos informáticos limitados. Posteriormente se aborda el subproblema de la Determinación del Orden de Lectura, que es uno de los subproblemas más importantes, aunque subestimados, del Análisis de la Extructura de Documentos, ya que es el nexo que permite convertir los datos extraídos de los sistemas de Reconocimiento Automático de Texto (Automatic Text Recognition Systems) en información útil. Por lo tanto, en esta tesis abordamos y formalizamos la Determinación del Orden de Lectura como un problema de clasificación probabilística por pares. Además, se proponen dos diferentes algoritmos de decodificación que reducen la complejidad computacional del problema. Por otra parte, se utilizan diferentes modelos estadísticos para representar la distribución de probabilidad sobre la estructura de los documentos. Estos modelos, basados en Redes Neuronales Artificiales (desde un simple Perceptrón Multicapa hasta complejas Redes Convolucionales y Redes de Propuesta de Regiones), se estiman a partir de datos de entrenamiento utilizando algoritmos de aprendizaje automático supervisados. Finalmente, todas las contribuciones se evalúan experimentalmente, no solo en referencias académicas estándar, sino también en colecciones de miles de imágenes. Se han considerado documentos de texto manuascritos y documentos musicales manuscritos, ya que en conjunto representan la mayoría de los documentos presentes en bibliotecas y archivos. Los resultados muestran que los métodos propuestos son muy precisos y versátiles en una amplia gama de documentos manuscritos. / [CA] L'Anàlisi de l'Estructura de Documents (Document Layout Analysis), aplicada a documents manuscrits, pretén automatitzar l'obtenció de l'estructura intrínseca d'un document. El seu desenvolupament com a camp d'investigació comprén des dels sistemes de segmentació de caràcters creats al principi dels anys 60 fins als complexos sistemes de hui dia que busquen analitzar estructures d'alt nivell (línies de text, paràgrafs, taules, etc) i les relacions entre elles. Aquesta tesi busca, primer de tot, definir el propòsit de l'anàlisi de l'estructura de documents des d'una perspectiva probabilística. Llavors, una vegada reduïda la complexitat del problema, es processa utilitzant recursos computacionals moderns, per a dividir-ho en un conjunt de subproblemes complementaris més coneguts. Concretament, tres dels principals subproblemes de l'Anàlisi de l'Estructura de Documents s'adrecen seguint una formulació probabilística: Detecció de la Línia Base Baseline Detection), Segmentació de Regions (Region Segmentation) i Determinació de l'Ordre de Lectura (Reading Order Determination). Una de les principals contribucions d'aquesta tesi és la formalització dels problemes de la Detecció de les Línies Base i dels de Segmentació de Regions en un entorn probabilístic, sent els dos problemes tractats per separat o integrats en conjunt pels models proposats. Aquesta última aproximació ha demostrat ser de molta utilitat per a la gestió de grans col·leccions de documents amb uns recursos computacionals limitats. Posteriorment s'ha adreçat el subproblema de la Determinació de l'Ordre de Lectura, sent un dels subproblemes més importants de l'Anàlisi d'Estructures de Documents, encara així subestimat, perquè és el nexe que permet transformar en informació d'utilitat l'extracció de dades dels sistemes de reconeixement automàtic de text. És per això que el fet de determinar l'ordre de lectura s'adreça i formalitza com un problema d'ordenació probabilística per parells. A més, es proposen dos algoritmes descodificadors diferents que reducix la complexitat computacional del problema. Per altra banda s'utilitzen diferents models estadístics per representar la distribució probabilística sobre l'estructura dels documents. Aquests models, basats en xarxes neuronals artificials (des d'un simple perceptron multicapa fins a complexes xarxes convolucionals i de propostes de regió), s'estimen a partir de dades d'entrenament mitjançant algoritmes d'aprenentatge automàtic supervisats. Finalment, totes les contribucions s'avaluen experimentalment, no només en referents acadèmics estàndard, sinó també en col·leccions de milers d'imatges. S'han considerat documents de text manuscrit i documents musicals manuscrits, ja que representen la majoria de documents presents a biblioteques i arxius. Els resultats mostren que els mètodes proposats són molt precisos i versàtils en una àmplia gamma de documents manuscrits. / [EN] Document Layout Analysis, applied to handwritten documents, aims to automatically obtain the intrinsic structure of a document. Its development as a research field spans from the character segmentation systems developed in the early 1960s to the complex systems designed nowadays, where the goal is to analyze high-level structures (lines of text, paragraphs, tables, etc) and the relationship between them. This thesis first defines the goal of Document Layout Analysis from a probabilistic perspective. Then, the complexity of the problem is reduced, to be handled by modern computing resources, into a set of well-known complementary subproblems. More precisely, three of the main subproblems of Document Layout Analysis are addressed following a probabilistic formulation, namely Baseline Detection, Region Segmentation and Reading Order Determination. One of the main contributions of this thesis is the formalization of Baseline Detection and Region Segmentation problems under a probabilistic framework, where both problems can be handled separately or in an integrated way by the proposed models. The latter approach is proven to be very useful to handle large document collections under restricted computing resources. Later, the Reading Order Determination subproblem is addressed. It is one of the most important, yet underestimated, subproblem of Document Layout Analysis, since it is the bridge that allows us to convert the data extracted from Automatic Text Recognition systems into useful information. Therefore, Reading Order Determination is addressed and formalized as a pairwise probabilistic sorting problem. Moreover, we propose two different decoding algorithms that reduce the computational complexity of the problem. Furthermore, different statistical models are used to represent the probability distribution over the structure of the documents. These models, based on Artificial Neural Networks (from a simple Multilayer Perceptron to complex Convolutional and Region Proposal Networks), are estimated from training data using supervised Machine Learning algorithms. Finally, all the contributions are experimentally evaluated, not only on standard academic benchmarks but also in collections of thousands of images. We consider handwritten text documents and handwritten musical documents as they represent the majority of documents in libraries and archives. The results show that the proposed methods are very accurate and versatile in a very wide range of handwritten documents. / Quirós Díaz, L. (2022). Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181483 / TESIS
109

Deep Neural Networks for Automatic Speech-To-Speech Translation of Open Educational Resources

Pérez González de Martos, Alejandro Manuel 12 July 2022 (has links)
[ES] En los últimos años, el aprendizaje profundo ha cambiado significativamente el panorama en diversas áreas del campo de la inteligencia artificial, entre las que se incluyen la visión por computador, el procesamiento del lenguaje natural, robótica o teoría de juegos. En particular, el sorprendente éxito del aprendizaje profundo en múltiples aplicaciones del campo del procesamiento del lenguaje natural tales como el reconocimiento automático del habla (ASR), la traducción automática (MT) o la síntesis de voz (TTS), ha supuesto una mejora drástica en la precisión de estos sistemas, extendiendo así su implantación a un mayor rango de aplicaciones en la vida real. En este momento, es evidente que las tecnologías de reconocimiento automático del habla y traducción automática pueden ser empleadas para producir, de forma efectiva, subtítulos multilingües de alta calidad de contenidos audiovisuales. Esto es particularmente cierto en el contexto de los vídeos educativos, donde las condiciones acústicas son normalmente favorables para los sistemas de ASR y el discurso está gramaticalmente bien formado. Sin embargo, en el caso de TTS, aunque los sistemas basados en redes neuronales han demostrado ser capaces de sintetizar voz de un realismo y calidad sin precedentes, todavía debe comprobarse si esta tecnología está lo suficientemente madura como para mejorar la accesibilidad y la participación en el aprendizaje en línea. Además, existen diversas tareas en el campo de la síntesis de voz que todavía suponen un reto, como la clonación de voz inter-lingüe, la síntesis incremental o la adaptación zero-shot a nuevos locutores. Esta tesis aborda la mejora de las prestaciones de los sistemas actuales de síntesis de voz basados en redes neuronales, así como la extensión de su aplicación en diversos escenarios, en el contexto de mejorar la accesibilidad en el aprendizaje en línea. En este sentido, este trabajo presta especial atención a la adaptación a nuevos locutores y a la clonación de voz inter-lingüe, ya que los textos a sintetizar se corresponden, en este caso, a traducciones de intervenciones originalmente en otro idioma. / [CA] Durant aquests darrers anys, l'aprenentatge profund ha canviat significativament el panorama en diverses àrees del camp de la intel·ligència artificial, entre les quals s'inclouen la visió per computador, el processament del llenguatge natural, robòtica o la teoria de jocs. En particular, el sorprenent èxit de l'aprenentatge profund en múltiples aplicacions del camp del processament del llenguatge natural, com ara el reconeixement automàtic de la parla (ASR), la traducció automàtica (MT) o la síntesi de veu (TTS), ha suposat una millora dràstica en la precisió i qualitat d'aquests sistemes, estenent així la seva implantació a un ventall més ampli a la vida real. En aquest moment, és evident que les tecnologies de reconeixement automàtic de la parla i traducció automàtica poden ser emprades per a produir, de forma efectiva, subtítols multilingües d'alta qualitat de continguts audiovisuals. Això és particularment cert en el context dels vídeos educatius, on les condicions acústiques són normalment favorables per als sistemes d'ASR i el discurs està gramaticalment ben format. No obstant això, al cas de TTS, encara que els sistemes basats en xarxes neuronals han demostrat ser capaços de sintetitzar veu d'un realisme i qualitat sense precedents, encara s'ha de comprovar si aquesta tecnologia és ja prou madura com per millorar l'accessibilitat i la participació en l'aprenentatge en línia. A més, hi ha diverses tasques al camp de la síntesi de veu que encara suposen un repte, com ara la clonació de veu inter-lingüe, la síntesi incremental o l'adaptació zero-shot a nous locutors. Aquesta tesi aborda la millora de les prestacions dels sistemes actuals de síntesi de veu basats en xarxes neuronals, així com l'extensió de la seva aplicació en diversos escenaris, en el context de millorar l'accessibilitat en l'aprenentatge en línia. En aquest sentit, aquest treball presta especial atenció a l'adaptació a nous locutors i a la clonació de veu interlingüe, ja que els textos a sintetitzar es corresponen, en aquest cas, a traduccions d'intervencions originalment en un altre idioma. / [EN] In recent years, deep learning has fundamentally changed the landscapes of a number of areas in artificial intelligence, including computer vision, natural language processing, robotics, and game theory. In particular, the striking success of deep learning in a large variety of natural language processing (NLP) applications, including automatic speech recognition (ASR), machine translation (MT), and text-to-speech (TTS), has resulted in major accuracy improvements, thus widening the applicability of these technologies in real-life settings. At this point, it is clear that ASR and MT technologies can be utilized to produce cost-effective, high-quality multilingual subtitles of video contents of different kinds. This is particularly true in the case of transcription and translation of video lectures and other kinds of educational materials, in which the audio recording conditions are usually favorable for the ASR task, and there is a grammatically well-formed speech. However, although state-of-the-art neural approaches to TTS have shown to drastically improve the naturalness and quality of synthetic speech over conventional concatenative and parametric systems, it is still unclear whether this technology is already mature enough to improve accessibility and engagement in online learning, and particularly in the context of higher education. Furthermore, advanced topics in TTS such as cross-lingual voice cloning, incremental TTS or zero-shot speaker adaptation remain an open challenge in the field. This thesis is about enhancing the performance and widening the applicability of modern neural TTS technologies in real-life settings, both in offline and streaming conditions, in the context of improving accessibility and engagement in online learning. Thus, particular emphasis is placed on speaker adaptation and cross-lingual voice cloning, as the input text corresponds to a translated utterance in this context. / Pérez González De Martos, AM. (2022). Deep Neural Networks for Automatic Speech-To-Speech Translation of Open Educational Resources [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/184019 / TESIS / Premios Extraordinarios de tesis doctorales
110

Economía de la innovación y la digitalización del turismo: un estudio del mercado de Airbnb aplicando técnicas econométricas y redes neuronales

Más-Ferrando, Adrián 20 January 2023 (has links)
Esta tesis doctoral tiene como fin realizar una revisión de los principios económicos del turismo desde una perspectiva de la economía de la innovación, analizar el potencial impacto de la aplicación de IA en la industria turística a todos los niveles, y el estudio del mercado turístico más disruptivo de las últimas décadas: la economía de plataforma, ejemplificada en el caso de estudio de Airbnb. En este Capítulo I se establece el hilo conductor de los apartados de los que consta esta tesis en formato compendio, inspirada en diversos trabajos, entre los que se incluyen los publicados por el doctorando en esta etapa predoctoral. Para ello se presenta el diseño de la investigación, explicando detalladamente todo el proceso realizado para lograr el planteamiento de la tesis y la consecución de los objetivos y se dedica un breve apartado para presentar las principales conclusiones de la tesis. El Capítulo II de esta investigación está dedicado a la revisión de la evolución del concepto de innovación y su importancia en la teoría económica. Para ello nos basaremos en referentes teóricos que han estudiado el papel de la tecnología y la innovación en el crecimiento económico, como Schumpeter, Solow, Romer o Lucas. Con ello se pretende comprender el impacto que están teniendo los cambios disruptivos que vivimos en la economía, para posteriormente aplicarlos a la transformación de la estructura de la industria turística. En el Capítulo III se realiza un análisis aplicado de la innovación y del impacto de las nuevas tecnologías en el sector turístico. En él se estudiará el estado de la innovación del sector, realizando importantes aclaraciones sobre la capacidad que tiene la industria para adaptar o desarrollar tecnologías disruptivas. Además, se explicarán los principios digitales que están transformando la industria turística y el nuevo ciclo de investigación derivado de la aparición del Big Data y que está protagonizado por técnicas basadas en algoritmos de Machine Learning, justificando así la elección del sector turístico como caso de estudio. En el Capítulo IV se realiza una revisión completa del proceso transformador que está viviendo la estructura de la industria turística debido al cambio de paradigma tecnológico. Así, se estudia cómo estos procesos innovadores están desarrollando una nueva demanda turística basada en los datos, cómo se está reinventando la cadena de valor turística, cómo se fijan los precios turísticos en un mercado con información casi perfecta, qué retos supone para el mercado laboral y formativo del sector, y qué papel juegan en el surgimiento de nuevos competidores de base tecnológica en el sector. En los Capítulos V y VI se escoge como caso de estudio aplicado el mercado alojativo, utilizando la información de Airbnb. Sin duda, esta empresa representa muchos de los desafíos a los que se enfrenta el sector en cuestiones tecnológicas, de regulación política, intervención de mercado, reinterpretación de la cadena de valor turística, aparición de shocks económicos o pandémicos a los que se deben enfrentar los investigadores. El Capítulo V tiene como objeto de análisis la ciudad de Madrid, cuarto destino por número de anuncios de Airbnb en Europa. Para este caso aplicado se estudia si la pandemia de la COVID-19 tuvo un impacto significativo en la estructura de la oferta y de la demanda de Airbnb. Para ello, el estudio parte de un modelo logit de datos de panel hedónicos, se aplican diferentes métodos alternativos de selección de variables y pruebas de verosimilitud para confirmar la existencia del cambio estructural que afecte a la toma de decisiones a la hora de alquilar un apartamento de la Plataforma. El Capítulo VI centra el estudio en la Comunidad Valenciana, uno de los principales destinos turísticos de sol y playa, para realizar un análisis sobre la fijación de precios del alojamiento turístico en la plataforma. Este caso de estudio tiene por objetivo analizar si la aplicación de algoritmos de ML permite a las empresas optimizar precios de una manera más eficiente que modelos tradicionales. Para ello, se enfrenta el rendimiento de un modelo de precios hedónicos tradicional frente a un modelo de estimación basado en redes neuronales, comprobándose el mejor ajuste en la capacidad predictiva de las técnicas basadas en machine learning a la hora de fijar precios. De este modo la tesis doctoral constituye una valiosa y novedosa aportación al nuevo ciclo de investigación del sector. Propone una exhaustiva revisión de todas las implicaciones y las aplicaciones que tienen las nuevas tecnologías en el turismo y de las ventajas del uso de técnicas de análisis basadas machine learning para los investigadores en su estudio.

Page generated in 0.096 seconds