• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 17
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 149
  • 94
  • 89
  • 37
  • 27
  • 26
  • 23
  • 23
  • 21
  • 18
  • 18
  • 18
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Geometric modeling and characterization of the circle of willis

Bogunovic, Hrvoje 28 September 2012 (has links)
Los derrames cerebrales son una de las causas principales de morbilidad y mortalidad en los países desarrollados. Esto ha motivado una búsqueda de configuraciones del sistema vascular que se cree que están asociadas con el desarrollo de enfermedades vasculares. En la primera contribución se ha mejorado un método de segmentación vascular para lograr robustez en la segmentación de imágenes procedentes de diferentes modalidades y centros clínicos, con una validación exhaustiva. Una vez que el sistema vascular está correctamente segmentado, en la segunda contribución se ha propuesto una metodología para caracterizar ampliamente la geometría de la arteria carótida interna (ACI). Esto ha incluido el desarrollo de un método para identificar automáticamente la ACI a partir del árbol vascular segmentado. Finalmente, en la tercera contribución, esta identificación automática se ha generalizado a una colección de arterias incluyendo su conectividad y sus relaciones topológicas. Finalmente, la identificación de las arterias en un conjunto de individuos puede permitir la comparación geométrica de sus árboles arteriales utilizando la metodología introducida para la caracterización de la ACI. / Stroke is among the leading causes of morbidity and mortality in the developed countries. This motivated a search for the configurations of vasculature that is assumed to be associated with the development of vascular diseases. In the first contribution we improve a vascular segmentation method to achieve robustness in segmenting images coming from different imaging modalities and clinical centers and we provide exhaustive segmentation validation. Once the vasculature is successfully segmented, in the second contribution we propose a methodology to extensively characterize the geometry of the internal carotid artery (ICA). This includes the development of a method to automatically identify the ICA from the segmented vascular tree. Finally in the third contribution, this automatic identification is generalized to a collection of vessels including their connectivity and topological relationships. Identifying the corresponding vessels in a population enables comparison of their geometry using the methodology introduced for the characterization of the ICA.
142

L'emploi des jeunes : vecteur de recomposition des économies salariales de services : étude sur la précarisation et la segmentation des relations salariales en Rhône-Alpes / Young employement as a recomposition vector of wage economies of services : study about precarisation and segmentation of wage relations in Rhône-Alpes

Zubiri-Rey, Jon Bernat 30 November 2016 (has links)
En Rhône-Alpes l’économie se spécialise de plus en plus dans différentes activités de services – notamment de consultance et d'assistance, santé-action sociale, commerce, hôtellerie-restauration et services opérationnels– et dans la construction. La précarisation de l’emploi – comprise comme la combinaison persistante des bas salaires et de l'instabilité du poste– touche, aussi bien en France qu'en Rhône-Alpes, spécialement les jeunes salarié-e-s. Loin de se limiter à une période transitoire, cette précarisation se développe dans la vie sociale et professionnelle de segments importants de la population laborieuse. À partir des Déclarations Annuelles de Données Sociales (DADS), nous avons analysé la recomposition des rapports entre les groupes d’âge et de sexe, ce qui évidence les tendances générales de la région et les particularités sectorielles de la segmentation des relations salariales. Trois éléments – l’âge, le sexe et le secteur économique– sont les éléments structurants de cette thèse sur la précarisation de l’emploi des jeunes et le renforcement de la segmentation par l’âge et par le sexe. Ces éléments opèrent comme vecteur de recomposition intégrale des économies salariales de services, en combinant le renouvellement sectoriel et la substitution générationnelle des relations d’emploi. Dans une période de stagnation d'une partie importante des rémunérations salariales, l'emploi des jeunes se précarise par la multiplication des bas salaires, l'instabilité des postes et la faible perspective de carrière interne au secteur. Cette précarisation de l'emploi des jeunes est aussi bien conséquence que moteur de la recomposition sectorielle de l'emploi. La concentration des jeunes dans les activités émergentes reproduit la segmentation sexuée des emplois. Cette recomposition sectorielle et générationnelle de l'emploi renforce les processus de segmentation par l'âge : des secteurs traditionnels vieillissants – aux conditions plus décentes–, des zones de précarisation – concernant notamment des jeunes– en expansion, et des secteurs stratégiques un peu moins jeunes et fortement inégalitaires. Enfin, certain-e-s salarié-e-s – bien souvent des femmes– restent après la jeunesse durablement enfermé-e-s dans des bas salaires et l'instabilité de l'emploi. C'est la précarité-horizon tout au long de leur (absence de) carrière. / The Rhône-Alpes economy is increasingly specializing in diverse service activities, such as consulting and assistance services, health and social action, commerce sector, hotels and restaurants, and operational services, along with the building sector. Employment precarization – defined as the persistent combination of low wages and job insecurity– especially affects young employees, both in Rhône-Alpes and France. Far from being limited to a transition period, this precarization persists throughout the social and professional lives of important segments of the working class. Relying on the Déclarations Annuelles de Données Sociales (DADS), we have underlined the restructuring by age and sex groups and showed regional trends as well as the distinctive sector features of employment relationship precarization. These three elements – age, sex and economic sector– are the key elements of this thesis on the precarization of youth employment and its increasing segmentation. In such a process, the sectoral and generational renewal of employment relationships combine to drive a full recomposition of service-sector wage-economies. In a period of near-general wage stagnation, youth employment is becoming increasingly precarious due to the rise of low wages, job insecurity and low career prospects in the same sector. This precarization of youth employment is both a consequence and a driving factor of the sector recomposition of employment. The concentration of young people in emerging branches reproduces the sexual segmentation of employment. This sector and generational recomposition of employment reinforces age segmentation : traditional sectors, with more decent conditions, dominated by an ageing labour force ; expanding areas of precarization, notably concerning young people; whereas strategic sectors, where employees are not so young, showing high internal inequalities. Finally, some employees – mostly women– remain locked up in low wages and job insecurity even after ageing out of the younger period cohorts. It is the precariousness as horizon throughout their (absence of) career. / La economía de Rhône-Alpes tiende a especializarse en la construcción y en diversas actividades de servicios – consultoría y asesoría, salud y la acción social, comercio, hoteles y restaurantes, y servicios operativos o auxiliares, principalmente. Además, la precarización del empleo – entendida como combinación persistente de bajos salarios e inestabilidad de los puestos– afecta, tanto en Francia como en Rhône-Alpes, sobre todo a los y las jóvenes empleadas. Lejos de limitarse a un período transitorio, esta precarización se expande en la vida social y profesional de partes importantes de la población trabajadora. Mediante la observación de las Déclarations Annuelles de Données Sociales (DADS) hemos analizado la recomposición de las relaciones entres los grupos de edad y los sexos, evidenciando las tendencias generales de la región y las particularidades sectoriales de las relaciones salariales segmentadas. Estos tres elementos – edad, sexo y sector económico– estructuran esta tesis sobre la precarización del empleo juvenil y la creciente segmentación por edad y por sexo. En este proceso se combinan la renovación sectorial y la substitución generacional de las relaciones de empleo, que operan como vector de recomposición integral de las economías salariales de servicios.En un periodo de estancamiento de una parte importante de las remuneraciones salariales, el empleo juvenil se precariza por la proliferación de bajos salarios, puestos inestables y de baja perspectiva de trayectoria laboral ascendente interna al sector. Esta precarización del empleo juvenil es a la vez consecuencia y motor de la reestructuración sectorial del empleo. La concentración de jóvenes en actividades emergentes reproduce opciones de empleo altamente segmentadas por sexo. La recomposición sectorial y generacional del empleo fortalece el proceso de segmentación por la edad : por un lado se observan sectores tradicionales – con condiciones más decentes– en proceso de envejecimiento; por otro, se consolidan zonas de precarización, especialmente juveniles, en expansión; y, así mismo, constatamos la existencia de una serie de sectores estratégicos, con empleados y empleadas no tan jóvenes, y con desigualdades internas fuertes. Por último, señalar que algunos empleados – y, sobre todo, empleadas– permanecen tras el periodo juvenil atrapadas en bajos salarios e inestabilidad contractual. Es la precariedad-horizonte a lo largo de su (ausencia de) carrera. / Rhône-Alpeetako ekonomiak eraikuntzan eta zenbait zerbitzu jardueratan espezializatzeko joera hartu du azken hamarkadetan – aholkularitza eta laguntza zerbitzuak, osasun eta gizarte ekintza, merkataritza, ostatuak eta jatetxeak, eta zerbitzu osagarriak dira nagusiak. Era berean, enpleguaren prekarizazioak – soldata baxuen eta lanpostu ezegonkorren luzaroko egoeren konbinazioa – gazte langileei eragiten die bereziki, bai Frantzian, eta bai Rhône-Alpeetan ere. Enpleguaren prekarizazioa behin-behineko trantsizio egoera izan beharrean, langileriaren adar anitzen bizi baldintzetan hedatzen da. Déclarations Annuelles de Données Sociales (DADS) datu basearen bidez, adin eta sexu taldeen arteko berrosaketa aztertu dugu, eskualdeko joera orokorrak eta soldatapeko hainbat sektoreren lan harreman segmentatuen berezitasunak nabarmentzeko. Hiru elementu hauek dira – adina, sexua eta sektore ekonomikoa– gazte enpleguaren prekarizazioa eta handitzen doan adin eta sexuaren araberako lan harremanen segmentazioari buruzko tesi honen egiturazko osagaiak , soldatapeko zerbitzu ekonomien berrosaketa integralaren ardatz direnak, sektoreen berrikuntza eta belaunaldien arteko ordezkapenaren bidez gauzatzen dena.Soldatapeko langileentzako errenta igoera nabarmenik egon ez den epean, gazteen enpleguak prekarizatu dira, soldata baxuko lanpostu ezegonkorren ugaltzearen bidez eta sektore barruko ibilbidea egiteko aukerak murriztuta. Gazteen enpleguaren prekarizazioa sektore berrosaketaren abiapuntua zein motorra da. Gazteen kontzentrazioak jarduera nagusi berrietan sexuaren araberako segmentatutako enplegu aukerak birsortzen ditu. Era berean, enpleguaren sektore eta belaunaldien arteko berrosaketak adinaren araberako segmentazioa indartzen du : baldintza hobeak dituzten sektore tradizionalen zaharkitzea, prekarizazio guneen hedapena – bereziki gazteentzat–, eta, azkenik, ez hain gazteek osatutako sektore estrategikoak, non barne desorekak diren nagusi. Bukatzeko, zenbait langile, batez ere emakumeak, gazte garaiaren ondoren soldata baxuko enplegu ezegonkorretan gatibu geratzen direla egiaztatu da, eta prekarizazio-etorkizuna duen karrera (eza) sortzen du.
143

Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach

Quirós Díaz, Lorenzo 21 March 2022 (has links)
[ES] El Análisis de la Estructura de Documentos (Document Layout Analysis), aplicado a documentos manuscritos, tiene como objetivo obtener automáticamente la estructura intrínseca de dichos documentos. Su desarrollo como campo de investigación se extiende desde los sistemas de segmentación de caracteres desarrollados a principios de la década de 1960 hasta los sistemas complejos desarrollados en la actualidad, donde el objetivo es analizar estructuras de alto nivel (líneas de texto, párrafos, tablas, etc.) y la relación que existe entre ellas. Esta tesis, en primer lugar, define el objetivo del Análisis de la Estructura de Documentos desde una perspectiva probabilística. A continuación, la complejidad del problema se reduce a un conjunto de subproblemas complementarios bien conocidos, de manera que pueda ser gestionado por medio de recursos informáticos modernos. Concretamente se abordan tres de los principales problemas del Análisis de la Estructura de Documentos siguiendo una formulación probabilística. Específicamente se aborda la Detección de Línea Base (Baseline Detection), la Segmentación de Regiones (Region Segmentation) y la Determinación del Orden de Lectura (Reading Order Determination). Uno de los principales aportes de esta tesis es la formalización de los problemas de Detección de Línea Base y Segmentación de Regiones bajo un marco probabilístico, donde ambos problemas pueden ser abordados por separado o de forma integrada por los modelos propuestos. Este último enfoque ha demostrado ser muy útil para procesar grandes colecciones de documentos con recursos informáticos limitados. Posteriormente se aborda el subproblema de la Determinación del Orden de Lectura, que es uno de los subproblemas más importantes, aunque subestimados, del Análisis de la Extructura de Documentos, ya que es el nexo que permite convertir los datos extraídos de los sistemas de Reconocimiento Automático de Texto (Automatic Text Recognition Systems) en información útil. Por lo tanto, en esta tesis abordamos y formalizamos la Determinación del Orden de Lectura como un problema de clasificación probabilística por pares. Además, se proponen dos diferentes algoritmos de decodificación que reducen la complejidad computacional del problema. Por otra parte, se utilizan diferentes modelos estadísticos para representar la distribución de probabilidad sobre la estructura de los documentos. Estos modelos, basados en Redes Neuronales Artificiales (desde un simple Perceptrón Multicapa hasta complejas Redes Convolucionales y Redes de Propuesta de Regiones), se estiman a partir de datos de entrenamiento utilizando algoritmos de aprendizaje automático supervisados. Finalmente, todas las contribuciones se evalúan experimentalmente, no solo en referencias académicas estándar, sino también en colecciones de miles de imágenes. Se han considerado documentos de texto manuascritos y documentos musicales manuscritos, ya que en conjunto representan la mayoría de los documentos presentes en bibliotecas y archivos. Los resultados muestran que los métodos propuestos son muy precisos y versátiles en una amplia gama de documentos manuscritos. / [CA] L'Anàlisi de l'Estructura de Documents (Document Layout Analysis), aplicada a documents manuscrits, pretén automatitzar l'obtenció de l'estructura intrínseca d'un document. El seu desenvolupament com a camp d'investigació comprén des dels sistemes de segmentació de caràcters creats al principi dels anys 60 fins als complexos sistemes de hui dia que busquen analitzar estructures d'alt nivell (línies de text, paràgrafs, taules, etc) i les relacions entre elles. Aquesta tesi busca, primer de tot, definir el propòsit de l'anàlisi de l'estructura de documents des d'una perspectiva probabilística. Llavors, una vegada reduïda la complexitat del problema, es processa utilitzant recursos computacionals moderns, per a dividir-ho en un conjunt de subproblemes complementaris més coneguts. Concretament, tres dels principals subproblemes de l'Anàlisi de l'Estructura de Documents s'adrecen seguint una formulació probabilística: Detecció de la Línia Base Baseline Detection), Segmentació de Regions (Region Segmentation) i Determinació de l'Ordre de Lectura (Reading Order Determination). Una de les principals contribucions d'aquesta tesi és la formalització dels problemes de la Detecció de les Línies Base i dels de Segmentació de Regions en un entorn probabilístic, sent els dos problemes tractats per separat o integrats en conjunt pels models proposats. Aquesta última aproximació ha demostrat ser de molta utilitat per a la gestió de grans col·leccions de documents amb uns recursos computacionals limitats. Posteriorment s'ha adreçat el subproblema de la Determinació de l'Ordre de Lectura, sent un dels subproblemes més importants de l'Anàlisi d'Estructures de Documents, encara així subestimat, perquè és el nexe que permet transformar en informació d'utilitat l'extracció de dades dels sistemes de reconeixement automàtic de text. És per això que el fet de determinar l'ordre de lectura s'adreça i formalitza com un problema d'ordenació probabilística per parells. A més, es proposen dos algoritmes descodificadors diferents que reducix la complexitat computacional del problema. Per altra banda s'utilitzen diferents models estadístics per representar la distribució probabilística sobre l'estructura dels documents. Aquests models, basats en xarxes neuronals artificials (des d'un simple perceptron multicapa fins a complexes xarxes convolucionals i de propostes de regió), s'estimen a partir de dades d'entrenament mitjançant algoritmes d'aprenentatge automàtic supervisats. Finalment, totes les contribucions s'avaluen experimentalment, no només en referents acadèmics estàndard, sinó també en col·leccions de milers d'imatges. S'han considerat documents de text manuscrit i documents musicals manuscrits, ja que representen la majoria de documents presents a biblioteques i arxius. Els resultats mostren que els mètodes proposats són molt precisos i versàtils en una àmplia gamma de documents manuscrits. / [EN] Document Layout Analysis, applied to handwritten documents, aims to automatically obtain the intrinsic structure of a document. Its development as a research field spans from the character segmentation systems developed in the early 1960s to the complex systems designed nowadays, where the goal is to analyze high-level structures (lines of text, paragraphs, tables, etc) and the relationship between them. This thesis first defines the goal of Document Layout Analysis from a probabilistic perspective. Then, the complexity of the problem is reduced, to be handled by modern computing resources, into a set of well-known complementary subproblems. More precisely, three of the main subproblems of Document Layout Analysis are addressed following a probabilistic formulation, namely Baseline Detection, Region Segmentation and Reading Order Determination. One of the main contributions of this thesis is the formalization of Baseline Detection and Region Segmentation problems under a probabilistic framework, where both problems can be handled separately or in an integrated way by the proposed models. The latter approach is proven to be very useful to handle large document collections under restricted computing resources. Later, the Reading Order Determination subproblem is addressed. It is one of the most important, yet underestimated, subproblem of Document Layout Analysis, since it is the bridge that allows us to convert the data extracted from Automatic Text Recognition systems into useful information. Therefore, Reading Order Determination is addressed and formalized as a pairwise probabilistic sorting problem. Moreover, we propose two different decoding algorithms that reduce the computational complexity of the problem. Furthermore, different statistical models are used to represent the probability distribution over the structure of the documents. These models, based on Artificial Neural Networks (from a simple Multilayer Perceptron to complex Convolutional and Region Proposal Networks), are estimated from training data using supervised Machine Learning algorithms. Finally, all the contributions are experimentally evaluated, not only on standard academic benchmarks but also in collections of thousands of images. We consider handwritten text documents and handwritten musical documents as they represent the majority of documents in libraries and archives. The results show that the proposed methods are very accurate and versatile in a very wide range of handwritten documents. / Quirós Díaz, L. (2022). Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181483 / TESIS
144

Applications of Deep Leaning on Cardiac MRI: Design Approaches for a Computer Aided Diagnosis

Pérez Pelegrí, Manuel 27 April 2023 (has links)
[ES] Las enfermedades cardiovasculares son una de las causas más predominantes de muerte y comorbilidad en los países desarrollados, por ello se han realizado grandes inversiones en las últimas décadas para producir herramientas de diagnóstico y aplicaciones de tratamiento de enfermedades cardíacas de alta calidad. Una de las mejores herramientas de diagnóstico para caracterizar el corazón ha sido la imagen por resonancia magnética (IRM) gracias a sus capacidades de alta resolución tanto en la dimensión espacial como temporal, lo que permite generar imágenes dinámicas del corazón para un diagnóstico preciso. Las dimensiones del ventrículo izquierdo y la fracción de eyección derivada de ellos son los predictores más potentes de morbilidad y mortalidad cardiaca y su cuantificación tiene connotaciones importantes para el manejo y tratamiento de los pacientes. De esta forma, la IRM cardiaca es la técnica de imagen más exacta para la valoración del ventrículo izquierdo. Para obtener un diagnóstico preciso y rápido, se necesita un cálculo fiable de biomarcadores basados en imágenes a través de software de procesamiento de imágenes. Hoy en día la mayoría de las herramientas empleadas se basan en sistemas semiautomáticos de Diagnóstico Asistido por Computador (CAD) que requieren que el experto clínico interactúe con él, consumiendo un tiempo valioso de los profesionales cuyo objetivo debería ser únicamente interpretar los resultados. Un cambio de paradigma está comenzando a entrar en el sector médico donde los sistemas CAD completamente automáticos no requieren ningún tipo de interacción con el usuario. Estos sistemas están diseñados para calcular los biomarcadores necesarios para un diagnóstico correcto sin afectar el flujo de trabajo natural del médico y pueden iniciar sus cálculos en el momento en que se guarda una imagen en el sistema de archivo informático del hospital. Los sistemas CAD automáticos, aunque se consideran uno de los grandes avances en el mundo de la radiología, son extremadamente difíciles de desarrollar y dependen de tecnologías basadas en inteligencia artificial (IA) para alcanzar estándares médicos. En este contexto, el aprendizaje profundo (DL) ha surgido en la última década como la tecnología más exitosa para abordar este problema. Más específicamente, las redes neuronales convolucionales (CNN) han sido una de las técnicas más exitosas y estudiadas para el análisis de imágenes, incluidas las imágenes médicas. En este trabajo describimos las principales aplicaciones de CNN para sistemas CAD completamente automáticos para ayudar en la rutina de diagnóstico clínico mediante resonancia magnética cardíaca. El trabajo cubre los puntos principales a tener en cuenta para desarrollar tales sistemas y presenta diferentes resultados de alto impacto dentro del uso de CNN para resonancia magnética cardíaca, separados en tres proyectos diferentes que cubren su aplicación en la rutina clínica de diagnóstico, cubriendo los problemas de la segmentación, estimación automática de biomarcadores con explicabilidad y la detección de eventos. El trabajo completo presentado describe enfoques novedosos y de alto impacto para aplicar CNN al análisis de resonancia magnética cardíaca. El trabajo proporciona varios hallazgos clave, permitiendo varias formas de integración de esta reciente y creciente tecnología en sistemas CAD completamente automáticos que pueden producir resultados altamente precisos, rápidos y confiables. Los resultados descritos mejorarán e impactarán positivamente el flujo de trabajo de los expertos clínicos en un futuro próximo. / [CA] Les malalties cardiovasculars són una de les causes de mort i comorbiditat més predominants als països desenvolupats, s'han fet grans inversions en les últimes dècades per tal de produir eines de diagnòstic d'alta qualitat i aplicacions de tractament de malalties cardíaques. Una de les tècniques millor provades per caracteritzar el cor ha estat la imatge per ressonància magnètica (IRM), gràcies a les seves capacitats d'alta resolució tant en dimensions espacials com temporals, que permeten generar imatges dinàmiques del cor per a un diagnòstic precís. Les dimensions del ventricle esquerre i la fracció d'ejecció que se'n deriva són els predictors més potents de morbiditat i mortalitat cardíaca i la seva quantificació té connotacions importants per al maneig i tractament dels pacients. D'aquesta manera, la IRM cardíaca és la tècnica d'imatge més exacta per a la valoració del ventricle esquerre. Per obtenir un diagnòstic precís i ràpid, es necessita un càlcul fiable de biomarcadors basat en imatges mitjançant un programa de processament d'imatges. Actualment, la majoria de les ferramentes emprades es basen en sistemes semiautomàtics de Diagnòstic Assistit per ordinador (CAD) que requereixen que l'expert clínic interaccioni amb ell, consumint un temps valuós dels professionals, l'objectiu dels quals només hauria de ser la interpretació dels resultats. S'està començant a introduir un canvi de paradigma al sector mèdic on els sistemes CAD totalment automàtics no requereixen cap tipus d'interacció amb l'usuari. Aquests sistemes estan dissenyats per calcular els biomarcadors necessaris per a un diagnòstic correcte sense afectar el flux de treball natural del metge i poden iniciar els seus càlculs en el moment en què es deixa la imatge dins del sistema d'arxius hospitalari. Els sistemes CAD automàtics, tot i ser molt considerats com un dels propers grans avanços en el món de la radiologia, són extremadament difícils de desenvolupar i depenen de les tecnologies d'Intel·ligència Artificial (IA) per assolir els estàndards mèdics. En aquest context, l'aprenentatge profund (DL) ha sorgit durant l'última dècada com la tecnologia amb més èxit per abordar aquest problema. Més concretament, les xarxes neuronals convolucionals (CNN) han estat una de les tècniques més utilitzades i estudiades per a l'anàlisi d'imatges, inclosa la imatge mèdica. En aquest treball es descriuen les principals aplicacions de CNN per a sistemes CAD totalment automàtics per ajudar en la rutina de diagnòstic clínic mitjançant ressonància magnètica cardíaca. El treball recull els principals punts a tenir en compte per desenvolupar aquest tipus de sistemes i presenta diferents resultats d'impacte en l'ús de CNN a la ressonància magnètica cardíaca, tots separats en tres projectes principals diferents, cobrint els problemes de la segmentació, estimació automàtica de *biomarcadores amb *explicabilidad i la detecció d'esdeveniments. El treball complet presentat descriu enfocaments nous i potents per aplicar CNN a l'anàlisi de ressonància magnètica cardíaca. El treball proporciona diversos descobriments clau, que permeten la integració de diverses maneres d'aquesta tecnologia nova però en constant creixement en sistemes CAD totalment automàtics que podrien produir resultats altament precisos, ràpids i fiables. Els resultats descrits milloraran i afectaran considerablement el flux de treball dels experts clínics en un futur proper. / [EN] Cardiovascular diseases are one of the most predominant causes of death and comorbidity in developed countries, as such heavy investments have been done in recent decades in order to produce high quality diagnosis tools and treatment applications for cardiac diseases. One of the best proven tools to characterize the heart has been magnetic resonance imaging (MRI), thanks to its high-resolution capabilities in both spatial and temporal dimensions, allowing to generate dynamic imaging of the heart that enable accurate diagnosis. The dimensions of the left ventricle and the ejection fraction derived from them are the most powerful predictors of cardiac morbidity and mortality, and their quantification has important connotations for the management and treatment of patients. Thus, cardiac MRI is the most accurate imaging technique for left ventricular assessment. In order to get an accurate and fast diagnosis, reliable image-based biomarker computation through image processing software is needed. Nowadays most of the employed tools rely in semi-automatic Computer-Aided Diagnosis (CAD) systems that require the clinical expert to interact with it, consuming valuable time from the professionals whose aim should only be at interpreting results. A paradigm shift is starting to get into the medical sector where fully automatic CAD systems do not require any kind of user interaction. These systems are designed to compute any required biomarkers for a correct diagnosis without impacting the physician natural workflow and can start their computations the moment an image is saved within a hospital archive system. Automatic CAD systems, although being highly regarded as one of next big advances in the radiology world, are extremely difficult to develop and rely on Artificial Intelligence (AI) technologies in order to reach medical standards. In this context, Deep learning (DL) has emerged in the past decade as the most successful technology to address this problem. More specifically, convolutional neural networks (CNN) have been one of the most successful and studied techniques for image analysis, including medical imaging. In this work we describe the main applications of CNN for fully automatic CAD systems to help in the clinical diagnostics routine by means of cardiac MRI. The work covers the main points to take into account in order to develop such systems and presents different impactful results within the use of CNN to cardiac MRI, all separated in three different main projects covering the segmentation, automatic biomarker estimation with explainability and event detection problems. The full work presented describes novel and powerful approaches to apply CNN to cardiac MRI analysis. The work provides several key findings, enabling the integration in several ways of this novel but non-stop growing technology into fully automatic CAD systems that could produce highly accurate, fast and reliable results. The results described will greatly improve and impact the workflow of the clinical experts in the near future. / Pérez Pelegrí, M. (2023). Applications of Deep Leaning on Cardiac MRI: Design Approaches for a Computer Aided Diagnosis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/192988
145

Multicriteria Techniques for Sustainable Supply Chain Management

Barrera Jimenez, Ivan Felipe 30 January 2025 (has links)
Tesis por compendio / [ES] Los métodos multicriterio proporcionan un enfoque analítico y estructurado para la toma de decisiones en la gestión de la cadena de suministro, que permiten evaluaciones basadas en múltiples criterios, esenciales para gestionar socios comerciales sostenibles. El objetivo de esta tesis es contribuir a la gestión sostenible de la cadena de suministro desarrollando nuevos modelos y técnicas multicriterio para evaluar proveedores y clientes. Se han diseñado modelos que incorporan las preferencias empresariales para tomar decisiones colaborativas en la selección y clasificación transparente de alternativas basadas en criterios sostenibles. También se han desarrollado métodos para clasificar las alternativas en grupos ordenados y evaluar su calidad. Tanto los modelos como los métodos se han validado mediante casos empíricos y comparado con enfoques alternativos. La metodología se basa en una profunda revisión bibliográfica y en el conocimiento experto de profesionales en la cadena de suministro. Los modelos multicriterio propuestos emplean técnicas como el Analytic Hierarchy Process (AHP), la Multi-Attribute Utility Theory (MAUT) y PROMETHEE. También se han desarrollado tres algoritmos para la clasificación de alternativas (nominal y ordenada). En primer lugar, se ha propuesto un modelo multicriterio híbrido y se ha validado con datos reales para homologar y seleccionar proveedores de tecnología, así como para su priorización y clasificación. Este modelo integra métodos compensatorios (AHP, MAUT) y no compensatorios (PROMETHEE, FlowSort) en una jerarquía con criterios de sostenibilidad. La validación del modelo en un contexto real y su comparación con un modelo alternativo ha demostrado su capacidad para proporcionar información relevante y transparente en la toma de decisiones para la evaluación sostenible de proveedores de tecnología en el sector bancario. En segundo lugar, se ha diseñado un nuevo algoritmo, denominado Global Local Net Flow sorting (GLNF sorting), que clasifica alternativas en grupos ordenados a partir de los flujos netos generados en búsquedas globales y locales con PROMETHEE. Adicionalmente, se ha diseñado el algoritmo SILhouette for Sorting (SILS) para calcular un índice de calidad en las clasificaciones. Ambos algoritmos se han validado empíricamente en la segmentación de proveedores y sus resultados se han comparado con otros métodos publicados. Por una parte, GLNF sorting destaca al mejorar la discriminación entre proveedores cercanos a los perfiles limitantes de los grupos, aprovechando el nivel de similitud preferencial entre alternativas. Por otra, SILS mejora la calidad de las asignaciones y permite un análisis detallado que facilita la toma de decisiones. En tercer lugar, se ha propuesto un sistema de segmentación de clientes B2B basado en transacciones y colaboración, aplicando AHP y GLNF sorting. Validado con 8,157 clientes de una multinacional, se ha evaluado con SILS y estadística descriptiva. Comparado con K-means, el modelo genera clasificaciones más homogéneas y robustas. Esta herramienta permite a las empresas automatizar decisiones y llevar a cabo análisis detallados para mejorar las relaciones con los clientes, alineándose con sus estrategias de colaboración y enfoques de mercado. En cuarto lugar, las búsquedas globales y locales se han utilizado para proponer un algoritmo de clasificación nominal basado dos dimensiones, que proporciona una matriz estratégica muy útil para los gestores de cadena de suministro. Por último, se ha desarrollado el paquete de software PrometheeTools en R, que automatiza la aplicación de PROMETHEE, GLNF sorting y SILS para resolver problemas multicriterio de priorización y clasificación de alternativas. Este paquete se ha validado con éxito y destaca por su eficiencia en PROMETHEE con miles de alternativas. Está disponible en acceso abierto en el repositorio CRAN para su utilización por investigadores y profesionales interesados en toma de decisiones multicriterio. / [CA] Els mètodes multicriteri proporcionen un enfocament analític i estructurat per a la presa de decisions en la gestió de la cadena de subministrament, que permeten avaluacions basades en múltiples criteris, essencials per a gestionar socis comercials sostenibles. L'objectiu d'aquesta tesi és contribuir a la gestió sostenible de la cadena de subministrament desenvolupant nous models i tècniques multicriteri per a avaluar proveïdors i clients. S'han dissenyat models que incorporen les preferències empresarials per a prendre decisions col·laboratives en la selecció i classificació transparent d'alternatives basades en criteris sostenibles. També s'han desenvolupat mètodes per a classificar les alternatives en grups ordenats i avaluar-ne la qualitat. Tant els models com els mètodes s'han validat mitjançant casos empírics i comparat amb enfocaments alternatius. La metodologia es basa en una profunda revisió bibliogràfica i en el coneixement expert de professionals en la cadena de subministrament. Els models multicriteri proposats empren tècniques com ara el procés analític jeràrquic (AHP), la teoria d'utilitat multiatribut (MAUT) i PROMETHEE. També s'han desenvolupat tres algoritmes per a la classificació d'alternatives (nominal i ordenada). En primer lloc, s'ha proposat un model multicriteri híbrid i s'ha validat amb dades reals per a homologar i seleccionar proveïdors de tecnologia, així com per a la seua priorització i classificació. Aquest model integra mètodes compensatoris (AHP, MAUT) i no compensatoris (PROMETHEE, FlowSort) en una jerarquia amb criteris de sostenibilitat. La validació del model en un context real i la seua comparació amb un model alternatiu n'ha demostrat la capacitat per a proporcionar informació rellevant i transparent en la presa de decisions per a l'avaluació sostenible de proveïdors de tecnologia en el sector bancari. En segon lloc, s'ha dissenyat un nou algoritme, denominat Global Local Net Flow sorting (GLNF sorting), que classifica alternatives en grups ordenats a partir dels fluxos nets generats en cerques globals i locals amb PROMETHEE. Addicionalment, s'ha dissenyat l'algoritme SILhouette for Sorting (SILS) per a calcular un índex de qualitat en les classificacions. Ambdós algoritmes s'han validat empíricament en la segmentació de proveïdors i els seus resultats s'han comparat amb altres mètodes publicats. D'una banda, GLNF sorting destaca en millorar la discriminació entre proveïdors pròxims als perfils limitants dels grups, que aprofita el nivell de similitud preferencial entre alternatives. De l'altra, SILS millora la qualitat de les assignacions i permet una anàlisi detallada que facilita la presa de decisions. En tercer lloc, s'ha proposat un sistema de segmentació de clients B2B basat en transaccions i col·laboració, aplicant AHP i GLNF sorting. Validat amb 8,157 clients d'una multinacional, s'ha avaluat amb SILS i estadística descriptiva. Comparat amb K-means, el model genera classificacions més homogènies i robustes. Aquesta eina permet a les empreses automatitzar decisions i portar a cap anàlisis detallades per a millorar les relacions amb els clients, que s'alineen amb les seues estratègies de col·laboració i enfocaments de mercat. En quart lloc, les cerques globals i locals s'han utilitzat per a proposar un algoritme de classificació nominal basat en dues dimensions, que proporciona una matriu estratègica molt útil per als gestors de la cadena de subministrament. Finalment, s'ha desenvolupat el paquet de programari PrometheeTools en R, que automatitza l'aplicació de PROMETHEE, GLNF sorting i SILS per a resoldre problemes multicriteri de priorització i classificació d'alternatives. Aquest paquet s'ha validat amb èxit i destaca per la seua eficiència en PROMETHEE amb milers d'alternatives. Està disponible en accés obert en el repositori CRAN per a la utilització per investigadors i professionals interessats en la presa de decisions multicriteri. / [EN] Multicriteria methods provide an analytical and structured approach to decision making in supply chain management. These techniques allow multicriteria evaluations, which are essential for choosing and managing sustainable business partners. The aim of this thesis is to contribute to sustainable supply chain management by developing new multicriteria models and techniques to assess suppliers and customers. Models have been designed in order to incorporate business preferences to make collaborative decisions in the transparent selection and ranking of alternatives based on sustainable criteria. New methods have also been developed to classify alternatives into ordered groups and to assess their quality. Both models and methods have been validated using empirical cases and compared with alternative approaches. The methodology is based on an in-depth literature review, as well as the expertise of supply chain professionals. The proposed multicriteria models integrate techniques such as the Analytical Hierarchical Process (AHP), Multi-Attribute Utility Theory (MAUT) and the PROMETHEE method. Three new algorithms have also been developed for classifying alternatives into nominal and ordered groups (sorting problem). Firstly, a hybrid multicriteria model has been proposed and validated with real data for technology supplier qualifying, selection and ranking. This model integrates compensatory (AHP, MAUT) and non-compensatory (PROMETHEE, FlowSort) methods in a hierarchy with sustainability criteria to evaluate products, suppliers and manufacturers. Validation of the model in a real context and its comparison with an alternative model has demonstrated its ability to provide relevant and transparent information for decision making in the sustainable evaluation of technology suppliers in the banking sector. Secondly, a new algorithm has been designed, called Global Local Net Flow sorting (GLNF sorting), which classifies alternatives into ordered groups based on the net flows generated in global and local searches with PROMETHEE. In addition, the SILhouette for Sorting (SILS) algorithm has been designed to calculate a quality index in the classifications. Both algorithms have been empirically validated in supplier segmentation and their results compared with other published methods. On the one hand, the GLNF sorting algorithm excels in improving the discrimination between suppliers close to the limiting profiles by exploiting the level of preference similarity between alternatives. On the other, SILS improves the quality of alternative assignments to groups, allows for a detailed analysis of suppliers and facilitates decision making. Thirdly, a customer segmentation model based on transactions and collaboration has been proposed in the Business to Business context, applying AHP and GLNF sorting. Validated with 8,157 customers of a multinational company, it has been assessed by SILS and descriptive statistics. This model generates more homogeneous and robust groups than the K-means cluster method. This tool enables companies to automate decisions and perform detailed analysis to improve customer relationships, aligning with their collaboration strategies and market approaches. Fourthly, global and local searches have been used to propose an algorithm for nominal classification based on two dimensions, which provides a very useful strategic matrix for supply chain managers. Finally, the PrometheeTools software package has been developed in R, which automates the implementation of PROMETHEE, GLNF sorting and SILS to solve multicriteria problems of alternatives ranking and classification. This package has been successfully validated and stands out for the efficiency in PROMETHEE and especially when solving problems with thousands of alternatives. It is available by open access in the CRAN repository for use by researchers and practitioners interested in multicriteria decision making. / Barrera Jimenez, IF. (2024). Multicriteria Techniques for Sustainable Supply Chain Management [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202879 / Compendio
146

Aprendizaje profundo y biomarcadores de imagen en el estudio de enfermedades metabólicas y hepáticas a partir de resonancia magnética y tomografía computarizada

Jimenez Pastor, Ana Maria 05 February 2024 (has links)
[ES] El síndrome metabólico se define como un conjunto de trastornos (e.g., niveles elevados de presión arterial, niveles elevados de glucosa en sangre, exceso de grasa abdominal o niveles elevados de colesterol o triglicéridos) que afectan a un individuo al mismo tiempo. La presencia de uno de estos factores no implica un riesgo elevado para la salud, sin embargo, presentar varios de ellos aumenta la probabilidad de sufrir enfermedades secundarias como la enfermedad cardiovascular o la diabetes tipo II. Las enfermedades difusas hepáticas son todas aquellas enfermedades que afectan a las células funcionales del hígado, los hepatocitos, alterando, de este modo, la función hepática. En estos procesos, los hepatocitos se ven sustituidos por adipocitos y tejido fibroso. La enfermedad de hígado graso no alcohólico es una afección reversible originada por la acumulación de triglicéridos en los hepatocitos. El alcoholismo, la obesidad, y la diabetes son las causas más comunes de esta enfermedad. Este estado del hígado es reversible si se cambia la dieta del paciente, sin embargo, si este no se cuida, la enfermedad puede ir avanzando hacia estadios más severos, desencadenando fibrosis, cirrosis e incluso carcinoma hepatocelular (CHC). La temprana detección de todos estos procesos es de gran importancia en la mejora del pronóstico de los pacientes. Así, las técnicas de imagen en combinación con modelos computacionales permiten caracterizar el tejido mediante la extracción de parámetros objetivos, conocidos como biomarcadores de imagen, relacionados con estos procesos fisiológicos y patológicos, permitiendo una estadificación más precisa de las enfermedades. Además, gracias a las técnicas de inteligencia artificial, se pueden desarrollar algoritmos de segmentación automática que permitan realizar dicha caracterización de manera completamente automática y acelerar, de este modo, el flujo radiológico. Por todo esto, en la presente tesis doctoral, se presenta una metodología para el desarrollo de modelos de segmentación y cuantificación automática, siendo aplicada a tres casos de uso. Para el estudio del síndrome metabólico se propone un método de segmentación automática de la grasa visceral y subcutánea en imágenes de tomografía computarizada (TC), para el estudio de la enfermedad hepática difusa se propone un método de segmentación hepática y cuantificación de la grasa y hierro hepáticos en imágenes de resonancia magnética (RM), y, finalmente, para el estudio del CHC, se propone un método de segmentación hepática y cuantificación de los descriptores de la curva de perfusión en imágenes de RM. Todo esto se ha integrado en una plataforma que permite su integración en la práctica clínica. Así, se han adaptado los algoritmos desarrollados para ser ejecutados en contenedores Docker de forma que, dada una imagen de entrada, generen los parámetros cuantitativos de salida junto con un informe que resuma dichos resultados; se han implementado herramientas para que los usuarios puedan interactuar con las segmentaciones generadas por los algoritmos de segmentación automática desarrollados; finalmente, éstos se han implementado de forma que generen dichas segmentaciones en formatos estándar como DICOM RT Struct o DICOM Seg, para garantizar la interoperabilidad con el resto de sistemas sanitarios. / [CA] La síndrome metabòlica es defineix com un conjunt de trastorns (e.g., nivells elevats de pressió arterial, nivells elevats de glucosa en sang, excés de greix abdominal o nivells elevats de colesterol o triglicèrids) que afecten un individu al mateix temps. La presència d'un d'aquests factors no implica un risc elevat per a la salut, no obstant això, presentar diversos d'ells augmenta la probabilitat de patir malalties secundàries com la malaltia cardiovascular o la diabetis tipus II. Les malalties difuses hepàtiques són totes aquelles malalties que afecten les cèl·lules funcionals del fetge, els hepatòcits, alterant, d'aquesta manera, la funció hepàtica. En aquests processos, els hepatòcits es veuen substituïts per adipòcits i teixit fibrós. La malaltia de fetge gras no alcohòlic és una afecció reversible originada per l'acumulació de triglicèrids en els hepatòcits. L'alcoholisme, l'obesitat, i la diabetis són les causes més comunes d'aquesta malaltia. Aquest estat del fetge és reversible si es canvia la dieta del pacient, no obstant això, si aquest no es cuida, la malaltia pot anar avançant cap a estadis més severs, desencadenant fibrosis, cirrosis i fins i tot carcinoma hepatocel·lular (CHC). La primerenca detecció de tots aquests processos és de gran importància en la millora del pronòstic dels pacients. Així, les tècniques d'imatge en combinació amb models computacionals permeten caracteritzar el teixit mitjançant l'extracció paràmetres objectius, coneguts com biomarcadores d'imatge, relacionats amb aquests processos fisiològics i patològics, permetent una estratificació més precisa de les malalties. A més, gràcies a les tècniques d'intel·ligència artificial, es poden desenvolupar algorismes de segmentació automàtica que permeten realitzar aquesta caracterització de manera completament automàtica i accelerar, d'aquesta manera, el flux radiològic. Per tot això, en la present tesi doctoral, es presenta una metodologia per al desenvolupament de models de segmentació i quantificació automàtica, sent aplicada a tres casos d'ús. Per a l'estudi de la síndrome metabòlica es proposa un mètode de segmentació automàtica del greix visceral i subcutani en imatges de tomografia computada (TC), per a l'estudi de la malaltia hepàtica difusa es proposa un mètode segmentació hepàtica i quantificació del greix i ferro hepàtics en imatges de ressonància magnètica (RM), i, finalment, per a l'estudi del CHC, es proposa un mètode de segmentació hepàtica i quantificació dels descriptors de la corba de perfusió en imatges de RM. Tot això s'ha integrat en una plataforma que permet la seua integració en la pràctica clínica. Així, s'han adaptat els algorismes desenvolupats per a ser executats en contenidors Docker de manera que, donada una imatge d'entrada, generen els paràmetres quantitatius d'eixida juntament amb un informe que resumisca aquests resultats; s'han implementat eines perquè els usuaris puguen interactuar amb les segmentacions generades pels algorismes de segmentació automàtica desenvolupats; finalment, aquests s'han implementat de manera que generen aquestes segmentacions en formats estàndard com DICOM RT Struct o DICOM Seg, per a garantir la interoperabilitat amb la resta de sistemes sanitaris. / [EN] Metabolic syndrome is defined as a group of disorders (e.g., high blood pressure, high blood glucose levels, excess abdominal fat, or high cholesterol or triglyceride levels) that affect an individual at the same time. The presence of one of these factors does not imply an elevated health risk; however, having several of them increases the probability of secondary diseases such as cardiovascular disease or type II diabetes. Diffuse liver diseases are all those diseases that affect the functional cells of the liver, the hepatocytes, thus altering liver function. In these processes, the hepatocytes are replaced by adipocytes and fibrous tissue. Non-alcoholic fatty liver disease is a reversible condition caused by the accumulation of triglycerides in hepatocytes. Alcoholism, obesity, and diabetes are the most common causes of this disease. This liver condition is reversible if the patient's diet is changed; however, if the patient is not cared for, the disease can progress to more severe stages, triggering fibrosis, cirrhosis and even hepatocellular carcinoma (HCC). Early detection of all these processes is of great importance in improving patient prognosis. Thus, imaging techniques in combination with computational models allow tissue characterization by extracting objective parameters, known as imaging biomarkers, related to these physiological and pathological processes, allowing a more accurate statification of diseases. Moreover, thanks to artificial intelligence techniques, it is possible to develop automatic segmentation algorithms that allow to perform such characterization in a fully automatic way and thus accelerate the radiological workflow. Therefore, in this PhD, a methodology for the development of automatic segmentation and quantification models is presented and applied to three use cases. For the study of metabolic syndrome, a method of automatic segmentation of visceral and subcutaneous fat in computed tomography (CT) images is proposed; for the study of diffuse liver disease, a method of liver segmentation and quantification of hepatic fat and iron in magnetic resonance imaging (MRI) is proposed; and, finally, for the study of HCC, a method of liver segmentation and quantification of perfusion curve descriptors in MRI is proposed. All this has been integrated into a platform that allows its integration into clinical practice. Thus, the developed algorithms have been adapted to be executed in Docker containers so that, given an input image, they generate the quantitative output parameters together with a report summarizing these results; tools have been implemented so that users can interact with the segmentations generated by the automatic segmentation algorithms developed; finally, these have been implemented so that they generate these segmentations in standard formats such as DICOM RT Struct or DICOM Seg, to ensure interoperability with other health systems. / Jimenez Pastor, AM. (2023). Aprendizaje profundo y biomarcadores de imagen en el estudio de enfermedades metabólicas y hepáticas a partir de resonancia magnética y tomografía computarizada [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202602
147

Análisis microeconometrico de las decisiones de participación y gasto turístico de los hogares

Mateo Erroz, Sara 22 June 2012 (has links)
La tesis se enmarca en el análisis microeconométrico de la demanda turística de los hogares españoles. Su objetivo general es estudiar los determinantes que influyen en la decisión de consumo turístico, frecuencia de consumo y gasto de los hogares en servicios turísticos. En el análisis de todas las decisiones intervienen variables no estrictamente económicas específicas de cada hogar (número de miembros, existencia de niños y otras variable ligadas al ciclo de vida del hogar) y de sus miembros (edad, nivel educativo, y otras variable ligadas al momento vital por el que atraviesan). Además, se incorporan variables económicas o ligadas a la situación económica del hogar. De esta manera se puede realizar un análisis sobre las diferentes decisiones de consumo turístico de los hogares y vincularlas a sus preferencias, restricciones temporales, restricciones monetarias o diferentes circunstancias condicionadas a su momento vital. Se hace especial referencia a los efectos de la crisis económica mundial y el desempleo de los miembros del hogar sobre su gasto turístico efectivo. Este trabajo está estructurado en cuatro capítulos. En el primer capítulo se aborda el estudio de las restricciones a las que hacen frente los hogares españoles a la hora de viajar. Para ello, se estudia la importancia que tiene la situación económica del hogar como barrera al consumo turístico. Los hogares analizados provienen de la muestra española del año 2000 de la encuesta del Panel de Hogares de la Comunidad Europea (PHOGUE). En el segundo capítulo se examina la frecuencia de participación turística mediante la explotación de los microdatos de la Encuesta de Presupuestos Familiares (EPF) durante el periodo 1999-2005. Además de la renta disponible y las variables del hogar asociadas a su situación económica, el tiempo libre, marcado por la situación laboral del sustentador familiar, y otros factores del hogar y sus miembros se incluye una variable temporal que permita describir la evolución de la frecuencia en el periodo considerado. En el tercer capítulo se examinan las decisiones de participación y gasto turístico de los hogares españoles en un periodo caracterizado por un cambio en el ciclo económico. Se emplean microdatos de la Encuesta de Presupuestos Familiares (EPF) de los años 2006 a 2010, lo que permite analizar las consecuencias que la crisis económica y el desempleo tienen sobre las decisiones de consumo turístico de los hogares. Finalmente, el cuarto capítulo tiene como principal objetivo la clasificación de los hogares en función de sus preferencias de consumo, distinguiendo entre demandantes de baja intensidad (nulo o muy escaso gasto turístico), intensidad media (gasto turístico intermedio) y alta intensidad (gasto turístico elevado). Así, se pretende ofrecer una alternativa a la modelización del gasto turístico teniendo en cuenta, de manera explícita, las preferencias personales ya que estas juegan un papel fundamental en la demanda turística como respuesta a un conjunto de características sociodemográficas y económicas. Los microdatos empleados pertenecen a la Encuesta de Presupuestos Familiares (EPF) de los años 2006 a 2010. Los ingresos son la variable que mayor poder explicativo tiene sobre la demanda turística. Aún así, las variaciones en el nivel de renta no presentan efectos uniformes en la variación del consumo turístico de los diferentes hogares. Los resultados obtenidos ponen de manifiesto la existencia de otros factores sociodemográficos que pueden compensar o restringir el consumo turístico efectivo. Las variaciones de los ingresos en los hogares, debidos a factores externos como la crisis o el desempleo, o a otros factores específicos del hogar y de sus miembros, no tienen el mismo efecto en las variaciones de la demanda turística final. Para el análisis de la demanda turística es necesario utilizar herramientas de estimación que permitan recoger la heterogeneidad de los consumidores. De esta manera, el efecto de los ingresos o de la situación económica de un hogar puede verse compensado por la presencia de otras variables ya sean preferencias o determinantes sociodemográficos. En cuanto a la novedad de introducir el efecto de la crisis, los resultados obtenidos ponen de manifiesto que ante ésta, los hogares modifican parcialmente sus criterios de decisión. En un entorno social de crisis económica los hogares otorgan a los ingresos un papel más conservador en la decisión de participación; no obstante, una vez tomada esa decisión, el gasto efectivo es más sensible al nivel de ingresos del hogar. Los resultados obtenidos revelan la conveniencia de incluir información sobre la situación laboral del sustentador principal, y si cabe, del resto de miembros en las decisiones de participación, frecuencia de viaje y gasto turístico. En España, dónde su economía se caracteriza por las elevadas tasas de desempleo y donde el ciclo económico afecta a la permanencia de empleo de los individuos, esta consideración ayuda a obtener una imagen más real sobre el comportamiento del hogar. Como se observa en los resultados el desempleo tiene un efecto negativo en las decisiones de consumo turístico que es coherente con la literatura revisada. El seguimiento y análisis de la demanda turística debe realizarse en un entorno de constantes cambios y, en la actualidad, con perspectivas de estancamiento. La tesis contribuye al análisis de la demanda turística señalando la heterogeneidad de comportamiento y preferencias de los consumidores, para los que el nivel de ingresos es sólo un factor en el conjunto de determinantes económicos y sociodemográficos que afectan a sus decisiones de consumo.
148

Singing-driven interfaces for sound synthesizers

Janer Mestres, Jordi 14 March 2008 (has links)
Els instruments musicals digitals es descomponen usualment en dues parts: la interfície d'usuari i el motor de síntesi. Tradicionalment la interfície d'usuari pren el nom de controlador musical. L'objectiu d'aquesta tesi és el disseny d'un interfície que permeti el control de la síntesi de sons instrumentals a partir de la veu cantada.Amb la present recerca, intentem relacionar la veu amb el so dels instruments musicals, tenint en compte tan la descripció del senyal de veu, com les corresponents estratègies de mapeig per un control adequat del sintetitzador.Proposem dos enfocaments diferents, d'una banda el control d'un sintetitzador de veu cantada, i d'altra banda el control de la síntesi de sons instrumentals. Per aquest últim, suggerim una representació del senyal de veu com a gests vocals, que inclou una sèrie d'algoritmes d'anàlisis de veu. A la vegada, per demostrar els resultats obtinguts, hem desenvolupat dos prototips a temps real. / Los instrumentos musicales digitales se pueden separar en dos componentes: el interfaz de usuario y el motor de sintesis. El interfaz de usuario se ha denominado tradicionalmente controlador musical. El objectivo de esta tesis es el diseño de un interfaz que permita el control de la sintesis de sonidos instrumentales a partir de la voz cantada.La presente investigación pretende relacionar las caracteristicas de la voz con el sonido de los instrumentos musicales, teniendo en cuenta la descripción de la señal de voz, como las correspondientes estrategias de mapeo para un control apropiado del sintetizador. Se proponen dos enfoques distintos, el control de un sintetizador de voz cantada, y el control de la sintesis de sonidos insturmentales. Para este último, se sugiere una representación de la señal de voz como gestos vocales, incluyendo varios algoritmos de analisis de voz. Los resultados obtenidos se demuestran con dos prototipos a tiempo real. / Digital musical instruments are usually decomposed in two main constituent parts: a user interface and a sound synthesis engine. The user interface is popularly referred as a musical controller, and its design is the primary objective of this dissertation. Under the title of singing-driven interfaces, we aim to design systems that allow controlling the synthesis of musical instruments sounds with the singing voice. This dissertation searches for the relationships between the voice and the sound of musical instruments by addressing both, the voice signal description, as well as the mapping strategies for a meaningful control of the synthesized sound. We propose two different approaches, one for controlling a singing voice synthesizer, and another for controlling the synthesis of instrumental sounds. For the latter, we suggest to represent voice signal as vocal gestures, contributing with several voice analysis methods.To demonstrate the obtained results, we developed two real-time prototypes.
149

Analysis Design and Implementation of Artificial Intelligence Techniques in Edge Computing Environments

Hernández Vicente, Daniel 27 March 2023 (has links)
Tesis por compendio / [ES] Edge Computing es un modelo de computación emergente basado en acercar el procesamiento a los dispositivos de captura de datos en las infraestructuras Internet of things (IoT). Edge computing mejora, entre otras cosas, los tiempos de respuesta, ahorra anchos de banda, incrementa la seguridad de los servicios y oculta las caídas transitorias de la red. Este paradigma actúa en contraposición a la ejecución de servicios en entornos cloud y es muy útil cuando se desea desarrollar soluciones de inteligencia artificial (AI) que aborden problemas en entornos de desastres naturales, como pueden ser inundaciones, incendios u otros eventos derivados del cambio climático. La cobertura de estos escenarios puede resultar especialmente difícil debido a la escasez de infraestructuras disponibles, lo que a menudo impide un análisis de los datos basado en la nube en tiempo real. Por lo tanto, es fundamental habilitar técnicas de IA que no dependan de sistemas de cómputo externos y que puedan ser embebidas en dispositivos de móviles como vehículos aéreos no tripulados (VANT), para que puedan captar y procesar información que permita inferir posibles situaciones de emergencia y determinar así el curso de acción más adecuado de manera autónoma. Históricamente, se hacía frente a este tipo de problemas utilizando los VANT como dispositivos de recogida de datos con el fin de, posteriormente, enviar esta información a la nube donde se dispone de servidores capacitados para analizar esta ingente cantidad de información. Este nuevo enfoque pretende realizar todo el procesamiento y la obtención de resultados en el VANT o en un dispositivo local complementario. Esta aproximación permite eliminar la dependencia de un centro de cómputo remoto que añade complejidad a la infraestructura y que no es una opción en escenarios específicos, donde las conexiones inalámbricas no cumplen los requisitos de transferencia de datos o son entornos en los que la información tiene que obtenerse en ese preciso momento, por requisitos de seguridad o inmediatez. Esta tesis doctoral está compuesta de tres propuestas principales. En primer lugar se plantea un sistema de despegue de enjambres de VANTs basado en el algoritmo de Kuhn Munkres que resuelve el problema de asignación en tiempo polinómico. Nuestra evaluación estudia la complejidad de despegue de grandes enjambres y analiza el coste computacional y de calidad de nuestra propuesta. La segunda propuesta es la definición de una secuencia de procesamiento de imágenes de catástrofes naturales tomadas desde drones basada en Deep learning (DL). El objetivo es reducir el número de imágenes que deben procesar los servicios de emergencias en la catástrofe natural para poder tomar acciones sobre el terreno de una manera más rápida. Por último, se utiliza un conjunto de datos de imágenes obtenidas con VANTs y relativas a diferentes inundaciones, en concreto, de la DANA de 2019, cedidas por el Ayuntamiento de San Javier, ejecutando un modelo DL de segmentación semántica que determina automáticamente las regiones más afectadas por las lluvias (zonas inundadas). Entre los resultados obtenidos se destacan los siguientes: 1- la mejora drástica del rendimiento del despegue vertical coordinado de una red de VANTs. 2- La propuesta de un modelo no supervisado para la vigilancia de zonas desconocidas representa un avance para la exploración autónoma mediante VANTs. Esto permite una visión global de una zona concreta sin realizar un estudio detallado de la misma. 3- Por último, un modelo de segmentación semántica de las zonas inundadas, desplegado para el procesamiento de imágenes en el VANTs, permite la obtención de datos de inundaciones en tiempo real (respetando la privacidad) para una reconstrucción virtual fidedigna del evento. Esta tesis ofrece una propuesta para mejorar el despegue coordinado de drones y dotar de capacidad de procesamiento de algoritmos de deep learning a dispositivos edge, más concretamente UAVs autónomos. / [CA] Edge Computing és un model de computació emergent basat a acostar el processament als dispositius de captura de dades en les infraestructures Internet of things (IoT). Edge computing millora, entre altres coses, els temps de resposta, estalvia amplades de banda, incrementa la seguretat dels serveis i oculta les caigudes transitòries de la xarxa. Aquest paradigma actua en contraposició a l'execució de serveis en entorns cloud i és molt útil quan es desitja desenvolupar solucions d'intel·ligència artificial (AI) que aborden problemes en entorns de desastres naturals, com poden ser inundacions, incendis o altres esdeveniments derivats del canvi climàtic. La cobertura d'aquests escenaris pot resultar especialment difícil a causa de l'escassetat d'infraestructures disponibles, la qual cosa sovint impedeix una anàlisi de les dades basat en el núvol en temps real. Per tant, és fonamental habilitar tècniques de IA que no depenguen de sistemes de còmput externs i que puguen ser embegudes en dispositius de mòbils com a vehicles aeris no tripulats (VANT), perquè puguen captar i processar informació per a inferir possibles situacions d'emergència i determinar així el curs d'acció més adequat de manera autònoma. Històricament, es feia front a aquesta mena de problemes utilitzant els VANT com a dispositius de recollida de dades amb la finalitat de, posteriorment, enviar aquesta informació al núvol on es disposa de servidors capacitats per a analitzar aquesta ingent quantitat d'informació. Aquest nou enfocament pretén realitzar tot el processament i l'obtenció de resultats en el VANT o en un dispositiu local complementari. Aquesta aproximació permet eliminar la dependència d'un centre de còmput remot que afig complexitat a la infraestructura i que no és una opció en escenaris específics, on les connexions sense fils no compleixen els requisits de transferència de dades o són entorns en els quals la informació ha d'obtindre's en aqueix precís moment, per requisits de seguretat o immediatesa. Aquesta tesi doctoral està composta de tres propostes principals. En primer lloc es planteja un sistema d'enlairament d'eixams de VANTs basat en l'algorisme de Kuhn Munkres que resol el problema d'assignació en temps polinòmic. La nostra avaluació estudia la complexitat d'enlairament de grans eixams i analitza el cost computacional i de qualitat de la nostra proposta. La segona proposta és la definició d'una seqüència de processament d'imatges de catàstrofes naturals preses des de drons basada en Deep learning (DL).L'objectiu és reduir el nombre d'imatges que han de processar els serveis d'emergències en la catàstrofe natural per a poder prendre accions sobre el terreny d'una manera més ràpida. Finalment, s'utilitza un conjunt de dades d'imatges obtingudes amb VANTs i relatives a diferents inundacions, en concret, de la DANA de 2019, cedides per l'Ajuntament de San Javier, executant un model DL de segmentació semàntica que determina automàticament les regions més afectades per les pluges (zones inundades). Entre els resultats obtinguts es destaquen els següents: 1- la millora dràstica del rendiment de l'enlairament vertical coordinat d'una xarxa de VANTs. 2- La proposta d'un model no supervisat per a la vigilància de zones desconegudes representa un avanç per a l'exploració autònoma mitjançant VANTs. Això permet una visió global d'una zona concreta sense realitzar un estudi detallat d'aquesta. 3- Finalment, un model de segmentació semàntica de les zones inundades, desplegat per al processament d'imatges en el VANTs, permet l'obtenció de dades d'inundacions en temps real (respectant la privacitat) per a una reconstrucció virtual fidedigna de l'esdeveniment. / [EN] Edge Computing is an emerging computing model based on bringing data processing and storage closer to the location needed to improve response times and save bandwidth. This new paradigm acts as opposed to running services in cloud environments and is very useful in developing artificial intelligence (AI) solutions that address problems in natural disaster environments, such as floods, fires, or other events of an adverse nature. Coverage of these scenarios can be particularly challenging due to the lack of available infrastructure, which often precludes real-time cloud-based data analysis. Therefore, it is critical to enable AI techniques that do not rely on external computing systems and can be embedded in mobile devices such as unmanned aerial vehicles (UAVs) so that they can capture and process information to understand their context and determine the appropriate course of action independently. Historically, this problem was addressed by using UAVs as data collection devices to send this information to the cloud, where servers can process it. This new approach aims to do all the processing and get the results on the UAV or a complementary local device. This approach eliminates the dependency on a remote computing center that adds complexity to the infrastructure and is not an option in specific scenarios where wireless connections do not meet the data transfer requirements. It is also an option in environments where the information has to be obtained at that precise moment due to security or immediacy requirements. This study consists of three main proposals. First, we propose a UAV swarm takeoff system based on the Kuhn Munkres algorithm that solves the assignment problem in polynomial time. Our evaluation studies the takeoff complexity of large swarms and analyzes our proposal's computational and quality cost. The second proposal is the definition of a Deep learning (DL) based image processing sequence for natural disaster images taken from drones to reduce the number of images processed by the first responders in the natural disaster. Finally, a dataset of images obtained with UAVs and related to different floods is used to run a semantic segmentation DL model that automatically determines the regions most affected by the rains (flooded areas). The results are 1- The drastic improvement of the performance of the coordinated vertical take-off of a network of UAVs. 2- The proposal of an unsupervised model for the surveillance of unknown areas represents a breakthrough for autonomous exploration by UAVs. This allows a global view of a specific area without performing a detailed study. 3- Finally, a semantic segmentation model of flooded areas, deployed for image processing in the UAV, allows obtaining real-time flood data (respecting privacy) for a reliable virtual reconstruction of the event. This thesis offers a proposal to improve the coordinated take-off of drones, to provide edge devices with deep learning algorithms processing capacity, more specifically autonomous UAVs, in order to develop services for the surveillance of areas affected by natural disasters such as fire detection, segmentation of flooded areas or detection of people in danger. Thanks to this research, services can be developed that enable the coordination of large arrays of drones and allow image processing without needing additional devices. This flexibility makes our approach a bet for the future and thus provides a development path for anyone interested in deploying an autonomous drone-based surveillance and actuation system. / I would like to acknowledge the project Development of High-Performance IoT Infrastructures against Climate Change based on Artificial Intelligence (GLOBALoT). Funded by Ministerio de Ciencia e Innovación (RTC2019-007159-5), of which this thesis is part. / Hernández Vicente, D. (2023). Analysis Design and Implementation of Artificial Intelligence Techniques in Edge Computing Environments [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/192605 / Compendio

Page generated in 0.1232 seconds