Spelling suggestions: "subject:"segmentación"" "subject:"segmentació""
141 |
Geometric modeling and characterization of the circle of willisBogunovic, Hrvoje 28 September 2012 (has links)
Los derrames cerebrales son una de las causas principales de morbilidad y mortalidad en los países desarrollados. Esto ha motivado una búsqueda de configuraciones del sistema vascular que se cree que están asociadas con el desarrollo de enfermedades vasculares. En la primera contribución se ha mejorado un método de segmentación vascular para lograr robustez en la segmentación de imágenes procedentes de diferentes modalidades y centros clínicos, con una validación exhaustiva. Una vez que el sistema vascular está correctamente segmentado, en la segunda contribución se ha propuesto una metodología para caracterizar ampliamente la geometría de la arteria carótida interna (ACI). Esto ha incluido el desarrollo de un método para identificar automáticamente la ACI a partir del árbol vascular segmentado. Finalmente, en la tercera contribución, esta identificación automática se ha generalizado a una colección de arterias incluyendo su conectividad y sus relaciones topológicas. Finalmente, la identificación de las arterias en un conjunto de individuos puede permitir la comparación geométrica de sus árboles arteriales utilizando la metodología introducida para la caracterización de la ACI. / Stroke is among the leading causes of morbidity and mortality in the developed countries. This motivated a search for the configurations of vasculature that is assumed to be associated with the development of vascular diseases. In the first contribution we improve a vascular segmentation method to achieve robustness in segmenting images coming from different imaging modalities and clinical centers and we provide exhaustive segmentation validation. Once the vasculature is successfully segmented, in the second contribution we propose a methodology to extensively characterize the geometry of the internal carotid artery (ICA). This includes the development of a method to automatically identify the ICA from the segmented vascular tree. Finally in the third contribution, this automatic identification is generalized to a collection of vessels including their connectivity and topological relationships. Identifying the corresponding vessels in a population enables comparison of their geometry using the methodology introduced for the characterization of the ICA.
|
142 |
L'emploi des jeunes : vecteur de recomposition des économies salariales de services : étude sur la précarisation et la segmentation des relations salariales en Rhône-Alpes / Young employement as a recomposition vector of wage economies of services : study about precarisation and segmentation of wage relations in Rhône-AlpesZubiri-Rey, Jon Bernat 30 November 2016 (has links)
En Rhône-Alpes l’économie se spécialise de plus en plus dans différentes activités de services – notamment de consultance et d'assistance, santé-action sociale, commerce, hôtellerie-restauration et services opérationnels– et dans la construction. La précarisation de l’emploi – comprise comme la combinaison persistante des bas salaires et de l'instabilité du poste– touche, aussi bien en France qu'en Rhône-Alpes, spécialement les jeunes salarié-e-s. Loin de se limiter à une période transitoire, cette précarisation se développe dans la vie sociale et professionnelle de segments importants de la population laborieuse. À partir des Déclarations Annuelles de Données Sociales (DADS), nous avons analysé la recomposition des rapports entre les groupes d’âge et de sexe, ce qui évidence les tendances générales de la région et les particularités sectorielles de la segmentation des relations salariales. Trois éléments – l’âge, le sexe et le secteur économique– sont les éléments structurants de cette thèse sur la précarisation de l’emploi des jeunes et le renforcement de la segmentation par l’âge et par le sexe. Ces éléments opèrent comme vecteur de recomposition intégrale des économies salariales de services, en combinant le renouvellement sectoriel et la substitution générationnelle des relations d’emploi. Dans une période de stagnation d'une partie importante des rémunérations salariales, l'emploi des jeunes se précarise par la multiplication des bas salaires, l'instabilité des postes et la faible perspective de carrière interne au secteur. Cette précarisation de l'emploi des jeunes est aussi bien conséquence que moteur de la recomposition sectorielle de l'emploi. La concentration des jeunes dans les activités émergentes reproduit la segmentation sexuée des emplois. Cette recomposition sectorielle et générationnelle de l'emploi renforce les processus de segmentation par l'âge : des secteurs traditionnels vieillissants – aux conditions plus décentes–, des zones de précarisation – concernant notamment des jeunes– en expansion, et des secteurs stratégiques un peu moins jeunes et fortement inégalitaires. Enfin, certain-e-s salarié-e-s – bien souvent des femmes– restent après la jeunesse durablement enfermé-e-s dans des bas salaires et l'instabilité de l'emploi. C'est la précarité-horizon tout au long de leur (absence de) carrière. / The Rhône-Alpes economy is increasingly specializing in diverse service activities, such as consulting and assistance services, health and social action, commerce sector, hotels and restaurants, and operational services, along with the building sector. Employment precarization – defined as the persistent combination of low wages and job insecurity– especially affects young employees, both in Rhône-Alpes and France. Far from being limited to a transition period, this precarization persists throughout the social and professional lives of important segments of the working class. Relying on the Déclarations Annuelles de Données Sociales (DADS), we have underlined the restructuring by age and sex groups and showed regional trends as well as the distinctive sector features of employment relationship precarization. These three elements – age, sex and economic sector– are the key elements of this thesis on the precarization of youth employment and its increasing segmentation. In such a process, the sectoral and generational renewal of employment relationships combine to drive a full recomposition of service-sector wage-economies. In a period of near-general wage stagnation, youth employment is becoming increasingly precarious due to the rise of low wages, job insecurity and low career prospects in the same sector. This precarization of youth employment is both a consequence and a driving factor of the sector recomposition of employment. The concentration of young people in emerging branches reproduces the sexual segmentation of employment. This sector and generational recomposition of employment reinforces age segmentation : traditional sectors, with more decent conditions, dominated by an ageing labour force ; expanding areas of precarization, notably concerning young people; whereas strategic sectors, where employees are not so young, showing high internal inequalities. Finally, some employees – mostly women– remain locked up in low wages and job insecurity even after ageing out of the younger period cohorts. It is the precariousness as horizon throughout their (absence of) career. / La economía de Rhône-Alpes tiende a especializarse en la construcción y en diversas actividades de servicios – consultoría y asesoría, salud y la acción social, comercio, hoteles y restaurantes, y servicios operativos o auxiliares, principalmente. Además, la precarización del empleo – entendida como combinación persistente de bajos salarios e inestabilidad de los puestos– afecta, tanto en Francia como en Rhône-Alpes, sobre todo a los y las jóvenes empleadas. Lejos de limitarse a un período transitorio, esta precarización se expande en la vida social y profesional de partes importantes de la población trabajadora. Mediante la observación de las Déclarations Annuelles de Données Sociales (DADS) hemos analizado la recomposición de las relaciones entres los grupos de edad y los sexos, evidenciando las tendencias generales de la región y las particularidades sectoriales de las relaciones salariales segmentadas. Estos tres elementos – edad, sexo y sector económico– estructuran esta tesis sobre la precarización del empleo juvenil y la creciente segmentación por edad y por sexo. En este proceso se combinan la renovación sectorial y la substitución generacional de las relaciones de empleo, que operan como vector de recomposición integral de las economías salariales de servicios.En un periodo de estancamiento de una parte importante de las remuneraciones salariales, el empleo juvenil se precariza por la proliferación de bajos salarios, puestos inestables y de baja perspectiva de trayectoria laboral ascendente interna al sector. Esta precarización del empleo juvenil es a la vez consecuencia y motor de la reestructuración sectorial del empleo. La concentración de jóvenes en actividades emergentes reproduce opciones de empleo altamente segmentadas por sexo. La recomposición sectorial y generacional del empleo fortalece el proceso de segmentación por la edad : por un lado se observan sectores tradicionales – con condiciones más decentes– en proceso de envejecimiento; por otro, se consolidan zonas de precarización, especialmente juveniles, en expansión; y, así mismo, constatamos la existencia de una serie de sectores estratégicos, con empleados y empleadas no tan jóvenes, y con desigualdades internas fuertes. Por último, señalar que algunos empleados – y, sobre todo, empleadas– permanecen tras el periodo juvenil atrapadas en bajos salarios e inestabilidad contractual. Es la precariedad-horizonte a lo largo de su (ausencia de) carrera. / Rhône-Alpeetako ekonomiak eraikuntzan eta zenbait zerbitzu jardueratan espezializatzeko joera hartu du azken hamarkadetan – aholkularitza eta laguntza zerbitzuak, osasun eta gizarte ekintza, merkataritza, ostatuak eta jatetxeak, eta zerbitzu osagarriak dira nagusiak. Era berean, enpleguaren prekarizazioak – soldata baxuen eta lanpostu ezegonkorren luzaroko egoeren konbinazioa – gazte langileei eragiten die bereziki, bai Frantzian, eta bai Rhône-Alpeetan ere. Enpleguaren prekarizazioa behin-behineko trantsizio egoera izan beharrean, langileriaren adar anitzen bizi baldintzetan hedatzen da. Déclarations Annuelles de Données Sociales (DADS) datu basearen bidez, adin eta sexu taldeen arteko berrosaketa aztertu dugu, eskualdeko joera orokorrak eta soldatapeko hainbat sektoreren lan harreman segmentatuen berezitasunak nabarmentzeko. Hiru elementu hauek dira – adina, sexua eta sektore ekonomikoa– gazte enpleguaren prekarizazioa eta handitzen doan adin eta sexuaren araberako lan harremanen segmentazioari buruzko tesi honen egiturazko osagaiak , soldatapeko zerbitzu ekonomien berrosaketa integralaren ardatz direnak, sektoreen berrikuntza eta belaunaldien arteko ordezkapenaren bidez gauzatzen dena.Soldatapeko langileentzako errenta igoera nabarmenik egon ez den epean, gazteen enpleguak prekarizatu dira, soldata baxuko lanpostu ezegonkorren ugaltzearen bidez eta sektore barruko ibilbidea egiteko aukerak murriztuta. Gazteen enpleguaren prekarizazioa sektore berrosaketaren abiapuntua zein motorra da. Gazteen kontzentrazioak jarduera nagusi berrietan sexuaren araberako segmentatutako enplegu aukerak birsortzen ditu. Era berean, enpleguaren sektore eta belaunaldien arteko berrosaketak adinaren araberako segmentazioa indartzen du : baldintza hobeak dituzten sektore tradizionalen zaharkitzea, prekarizazio guneen hedapena – bereziki gazteentzat–, eta, azkenik, ez hain gazteek osatutako sektore estrategikoak, non barne desorekak diren nagusi. Bukatzeko, zenbait langile, batez ere emakumeak, gazte garaiaren ondoren soldata baxuko enplegu ezegonkorretan gatibu geratzen direla egiaztatu da, eta prekarizazio-etorkizuna duen karrera (eza) sortzen du.
|
143 |
Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning ApproachQuirós Díaz, Lorenzo 21 March 2022 (has links)
[ES] El Análisis de la Estructura de Documentos (Document Layout Analysis), aplicado a documentos manuscritos, tiene como objetivo obtener automáticamente la estructura intrínseca de dichos documentos. Su desarrollo como campo de investigación se extiende desde los sistemas de segmentación de caracteres desarrollados a principios de la década de 1960 hasta los sistemas complejos desarrollados en la actualidad, donde el objetivo es analizar estructuras de alto nivel (líneas de texto, párrafos, tablas, etc.) y la relación que existe entre ellas.
Esta tesis, en primer lugar, define el objetivo del Análisis de la Estructura de Documentos desde una perspectiva probabilística. A continuación, la complejidad del problema se reduce a un conjunto de subproblemas complementarios bien conocidos, de manera que pueda ser gestionado por medio de recursos informáticos modernos. Concretamente se abordan tres de los principales problemas del Análisis de la Estructura de Documentos siguiendo una formulación probabilística. Específicamente se aborda la Detección de Línea Base (Baseline Detection), la Segmentación de Regiones (Region Segmentation) y la Determinación del Orden de Lectura (Reading Order Determination).
Uno de los principales aportes de esta tesis es la formalización de los problemas de Detección de Línea Base y Segmentación de Regiones bajo un marco probabilístico, donde ambos problemas pueden ser abordados por separado o de forma integrada por los modelos propuestos. Este último enfoque ha demostrado ser muy útil para procesar grandes colecciones de documentos con recursos informáticos limitados.
Posteriormente se aborda el subproblema de la Determinación del Orden de Lectura, que es uno de los subproblemas más importantes, aunque subestimados, del Análisis de la Extructura de Documentos, ya que es el nexo que permite convertir los datos extraídos de los sistemas de Reconocimiento Automático de Texto (Automatic Text Recognition Systems) en información útil. Por lo tanto, en esta tesis abordamos y formalizamos la Determinación del Orden de Lectura como un problema de clasificación probabilística por pares. Además, se proponen dos diferentes algoritmos de decodificación que reducen la complejidad computacional del problema.
Por otra parte, se utilizan diferentes modelos estadísticos para representar la distribución de probabilidad sobre la estructura de los documentos. Estos modelos, basados en Redes Neuronales Artificiales (desde un simple Perceptrón Multicapa hasta complejas Redes Convolucionales y Redes de Propuesta de Regiones), se estiman a partir de datos de entrenamiento utilizando algoritmos de aprendizaje automático supervisados.
Finalmente, todas las contribuciones se evalúan experimentalmente, no solo en referencias académicas estándar, sino también en colecciones de miles de imágenes. Se han considerado documentos de texto manuascritos y documentos musicales manuscritos, ya que en conjunto representan la mayoría de los documentos presentes en bibliotecas y archivos. Los resultados muestran que los métodos propuestos son muy precisos y versátiles en una amplia gama de documentos manuscritos. / [CA] L'Anàlisi de l'Estructura de Documents (Document Layout Analysis), aplicada a documents manuscrits, pretén automatitzar l'obtenció de l'estructura intrínseca d'un document. El seu desenvolupament com a camp d'investigació comprén des dels sistemes de segmentació de caràcters creats al principi dels anys 60 fins als complexos sistemes de hui dia que busquen analitzar estructures d'alt nivell (línies de text, paràgrafs, taules, etc) i les relacions entre elles.
Aquesta tesi busca, primer de tot, definir el propòsit de l'anàlisi de l'estructura de documents des d'una perspectiva probabilística. Llavors, una vegada reduïda la complexitat del problema, es processa utilitzant recursos computacionals moderns, per a dividir-ho en un conjunt de subproblemes complementaris més coneguts. Concretament, tres dels principals subproblemes de l'Anàlisi de l'Estructura de Documents s'adrecen seguint una formulació probabilística: Detecció de la Línia Base Baseline Detection), Segmentació de Regions (Region Segmentation) i Determinació de l'Ordre de Lectura (Reading Order Determination).
Una de les principals contribucions d'aquesta tesi és la formalització dels problemes de la Detecció de les Línies Base i dels de Segmentació de Regions en un entorn probabilístic, sent els dos problemes tractats per separat o integrats en conjunt pels models proposats. Aquesta última aproximació ha demostrat ser de molta utilitat per a la gestió de grans col·leccions de documents amb uns recursos computacionals limitats.
Posteriorment s'ha adreçat el subproblema de la Determinació de l'Ordre de Lectura, sent un dels subproblemes més importants de l'Anàlisi d'Estructures de Documents, encara així subestimat, perquè és el nexe que permet transformar en informació d'utilitat l'extracció de dades dels sistemes de reconeixement automàtic de text. És per això que el fet de determinar l'ordre de lectura s'adreça i formalitza com un problema d'ordenació probabilística per parells. A més, es proposen dos algoritmes descodificadors diferents que reducix la complexitat computacional del
problema.
Per altra banda s'utilitzen diferents models estadístics per representar la distribució probabilística sobre l'estructura dels documents. Aquests models, basats en xarxes neuronals artificials (des d'un simple perceptron multicapa fins a complexes xarxes convolucionals i de propostes de regió), s'estimen a partir de dades d'entrenament mitjançant algoritmes d'aprenentatge automàtic supervisats.
Finalment, totes les contribucions s'avaluen experimentalment, no només en referents acadèmics estàndard, sinó també en col·leccions de milers d'imatges. S'han considerat documents de text manuscrit i documents musicals manuscrits, ja que representen la majoria de documents presents a biblioteques i arxius. Els resultats mostren que els mètodes proposats són molt precisos i versàtils en una àmplia gamma de documents manuscrits. / [EN] Document Layout Analysis, applied to handwritten documents, aims to automatically obtain the intrinsic structure of a document. Its development as a research field spans from the character segmentation systems developed in the early 1960s to the complex systems designed nowadays, where the goal is to analyze high-level structures (lines of text, paragraphs, tables, etc) and the relationship between them.
This thesis first defines the goal of Document Layout Analysis from a probabilistic perspective. Then, the complexity of the problem is reduced, to be handled by modern computing resources, into a set of well-known complementary subproblems. More precisely, three of the main subproblems of Document Layout Analysis are addressed following a probabilistic formulation, namely Baseline Detection, Region Segmentation and Reading Order Determination.
One of the main contributions of this thesis is the formalization of Baseline Detection and Region Segmentation problems under a probabilistic framework, where both problems can be handled separately or in an integrated way by the proposed models. The latter approach is proven to be very useful to handle large document collections under restricted computing resources.
Later, the Reading Order Determination subproblem is addressed. It is one of the most important, yet underestimated, subproblem of Document Layout Analysis, since it is the bridge that allows us to convert the data extracted from Automatic Text Recognition systems into useful information. Therefore, Reading Order Determination is addressed and formalized as a pairwise probabilistic sorting problem. Moreover, we propose two different decoding algorithms that reduce the computational complexity of the problem.
Furthermore, different statistical models are used to represent the probability distribution over the structure of the documents. These models, based on Artificial Neural Networks (from a simple Multilayer Perceptron to complex Convolutional and Region Proposal Networks), are estimated from training data using supervised Machine Learning algorithms.
Finally, all the contributions are experimentally evaluated, not only on standard academic benchmarks but also in collections of thousands of images. We consider handwritten text documents and handwritten musical documents as they represent the majority of documents in libraries and archives. The results show that the proposed methods are very accurate and versatile in a very wide range of handwritten documents. / Quirós Díaz, L. (2022). Layout Analysis for Handwritten Documents. A Probabilistic Machine Learning Approach [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181483
|
144 |
Applications of Deep Leaning on Cardiac MRI: Design Approaches for a Computer Aided DiagnosisPérez Pelegrí, Manuel 27 April 2023 (has links)
[ES] Las enfermedades cardiovasculares son una de las causas más predominantes de muerte y comorbilidad en los países desarrollados, por ello se han realizado grandes inversiones en las últimas décadas para producir herramientas de diagnóstico y aplicaciones de tratamiento de enfermedades cardíacas de alta calidad. Una de las mejores herramientas de diagnóstico para caracterizar el corazón ha sido la imagen por resonancia magnética (IRM) gracias a sus capacidades de alta resolución tanto en la dimensión espacial como temporal, lo que permite generar imágenes dinámicas del corazón para un diagnóstico preciso. Las dimensiones del ventrículo izquierdo y la fracción de eyección derivada de ellos son los predictores más potentes de morbilidad y mortalidad cardiaca y su cuantificación tiene connotaciones importantes para el manejo y tratamiento de los pacientes. De esta forma, la IRM cardiaca es la técnica de imagen más exacta para la valoración del ventrículo izquierdo. Para obtener un diagnóstico preciso y rápido, se necesita un cálculo fiable de biomarcadores basados en imágenes a través de software de procesamiento de imágenes. Hoy en día la mayoría de las herramientas empleadas se basan en sistemas semiautomáticos de Diagnóstico Asistido por Computador (CAD) que requieren que el experto clínico interactúe con él, consumiendo un tiempo valioso de los profesionales cuyo objetivo debería ser únicamente interpretar los resultados. Un cambio de paradigma está comenzando a entrar en el sector médico donde los sistemas CAD completamente automáticos no requieren ningún tipo de interacción con el usuario. Estos sistemas están diseñados para calcular los biomarcadores necesarios para un diagnóstico correcto sin afectar el flujo de trabajo natural del médico y pueden iniciar sus cálculos en el momento en que se guarda una imagen en el sistema de archivo informático del hospital.
Los sistemas CAD automáticos, aunque se consideran uno de los grandes avances en el mundo de la radiología, son extremadamente difíciles de desarrollar y dependen de tecnologías basadas en inteligencia artificial (IA) para alcanzar estándares médicos. En este contexto, el aprendizaje profundo (DL) ha surgido en la última década como la tecnología más exitosa para abordar este problema. Más específicamente, las redes neuronales convolucionales (CNN) han sido una de las técnicas más exitosas y estudiadas para el análisis de imágenes, incluidas las imágenes médicas. En este trabajo describimos las principales aplicaciones de CNN para sistemas CAD completamente automáticos para ayudar en la rutina de diagnóstico clínico mediante resonancia magnética cardíaca. El trabajo cubre los puntos principales a tener en cuenta para desarrollar tales sistemas y presenta diferentes resultados de alto impacto dentro del uso de CNN para resonancia magnética cardíaca, separados en tres proyectos diferentes que cubren su aplicación en la rutina clínica de diagnóstico, cubriendo los problemas de la segmentación, estimación automática de biomarcadores con explicabilidad y la detección de eventos.
El trabajo completo presentado describe enfoques novedosos y de alto impacto para aplicar CNN al análisis de resonancia magnética cardíaca. El trabajo proporciona varios hallazgos clave, permitiendo varias formas de integración de esta reciente y creciente tecnología en sistemas CAD completamente automáticos que pueden producir resultados altamente precisos, rápidos y confiables. Los resultados descritos mejorarán e impactarán positivamente el flujo de trabajo de los expertos clínicos en un futuro próximo. / [CA] Les malalties cardiovasculars són una de les causes de mort i comorbiditat més predominants als països desenvolupats, s'han fet grans inversions en les últimes dècades per tal de produir eines de diagnòstic d'alta qualitat i aplicacions de tractament de malalties cardíaques. Una de les tècniques millor provades per caracteritzar el cor ha estat la imatge per ressonància magnètica (IRM), gràcies a les seves capacitats d'alta resolució tant en dimensions espacials com temporals, que permeten generar imatges dinàmiques del cor per a un diagnòstic precís. Les dimensions del ventricle esquerre i la fracció d'ejecció que se'n deriva són els predictors més potents de morbiditat i mortalitat cardíaca i la seva quantificació té connotacions importants per al maneig i tractament dels pacients. D'aquesta manera, la IRM cardíaca és la tècnica d'imatge més exacta per a la valoració del ventricle esquerre. Per obtenir un diagnòstic precís i ràpid, es necessita un càlcul fiable de biomarcadors basat en imatges mitjançant un programa de processament d'imatges. Actualment, la majoria de les ferramentes emprades es basen en sistemes semiautomàtics de Diagnòstic Assistit per ordinador (CAD) que requereixen que l'expert clínic interaccioni amb ell, consumint un temps valuós dels professionals, l'objectiu dels quals només hauria de ser la interpretació dels resultats. S'està començant a introduir un canvi de paradigma al sector mèdic on els sistemes CAD totalment automàtics no requereixen cap tipus d'interacció amb l'usuari. Aquests sistemes estan dissenyats per calcular els biomarcadors necessaris per a un diagnòstic correcte sense afectar el flux de treball natural del metge i poden iniciar els seus càlculs en el moment en què es deixa la imatge dins del sistema d'arxius hospitalari.
Els sistemes CAD automàtics, tot i ser molt considerats com un dels propers grans avanços en el món de la radiologia, són extremadament difícils de desenvolupar i depenen de les tecnologies d'Intel·ligència Artificial (IA) per assolir els estàndards mèdics. En aquest context, l'aprenentatge profund (DL) ha sorgit durant l'última dècada com la tecnologia amb més èxit per abordar aquest problema. Més concretament, les xarxes neuronals convolucionals (CNN) han estat una de les tècniques més utilitzades i estudiades per a l'anàlisi d'imatges, inclosa la imatge mèdica. En aquest treball es descriuen les principals aplicacions de CNN per a sistemes CAD totalment automàtics per ajudar en la rutina de diagnòstic clínic mitjançant ressonància magnètica cardíaca. El treball recull els principals punts a tenir en compte per desenvolupar aquest tipus de sistemes i presenta diferents resultats d'impacte en l'ús de CNN a la ressonància magnètica cardíaca, tots separats en tres projectes principals diferents, cobrint els problemes de la segmentació, estimació automàtica de *biomarcadores amb *explicabilidad i la detecció d'esdeveniments.
El treball complet presentat descriu enfocaments nous i potents per aplicar CNN a l'anàlisi de ressonància magnètica cardíaca. El treball proporciona diversos descobriments clau, que permeten la integració de diverses maneres d'aquesta tecnologia nova però en constant creixement en sistemes CAD totalment automàtics que podrien produir resultats altament precisos, ràpids i fiables. Els resultats descrits milloraran i afectaran considerablement el flux de treball dels experts clínics en un futur proper. / [EN] Cardiovascular diseases are one of the most predominant causes of death and comorbidity in developed countries, as such heavy investments have been done in recent decades in order to produce high quality diagnosis tools and treatment applications for cardiac diseases. One of the best proven tools to characterize the heart has been magnetic resonance imaging (MRI), thanks to its high-resolution capabilities in both spatial and temporal dimensions, allowing to generate dynamic imaging of the heart that enable accurate diagnosis. The dimensions of the left ventricle and the ejection fraction derived from them are the most powerful predictors of cardiac morbidity and mortality, and their quantification has important connotations for the management and treatment of patients. Thus, cardiac MRI is the most accurate imaging technique for left ventricular assessment. In order to get an accurate and fast diagnosis, reliable image-based biomarker computation through image processing software is needed. Nowadays most of the employed tools rely in semi-automatic Computer-Aided Diagnosis (CAD) systems that require the clinical expert to interact with it, consuming valuable time from the professionals whose aim should only be at interpreting results. A paradigm shift is starting to get into the medical sector where fully automatic CAD systems do not require any kind of user interaction. These systems are designed to compute any required biomarkers for a correct diagnosis without impacting the physician natural workflow and can start their computations the moment an image is saved within a hospital archive system.
Automatic CAD systems, although being highly regarded as one of next big advances in the radiology world, are extremely difficult to develop and rely on Artificial Intelligence (AI) technologies in order to reach medical standards. In this context, Deep learning (DL) has emerged in the past decade as the most successful technology to address this problem. More specifically, convolutional neural networks (CNN) have been one of the most successful and studied techniques for image analysis, including medical imaging. In this work we describe the main applications of CNN for fully automatic CAD systems to help in the clinical diagnostics routine by means of cardiac MRI. The work covers the main points to take into account in order to develop such systems and presents different impactful results within the use of CNN to cardiac MRI, all separated in three different main projects covering the segmentation, automatic biomarker estimation with explainability and event detection problems.
The full work presented describes novel and powerful approaches to apply CNN to cardiac MRI analysis. The work provides several key findings, enabling the integration in several ways of this novel but non-stop growing technology into fully automatic CAD systems that could produce highly accurate, fast and reliable results. The results described will greatly improve and impact the workflow of the clinical experts in the near future. / Pérez Pelegrí, M. (2023). Applications of Deep Leaning on Cardiac MRI: Design Approaches for a Computer Aided Diagnosis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/192988
|
145 |
Aprendizaje profundo y biomarcadores de imagen en el estudio de enfermedades metabólicas y hepáticas a partir de resonancia magnética y tomografía computarizadaJimenez Pastor, Ana Maria 05 February 2024 (has links)
[ES] El síndrome metabólico se define como un conjunto de trastornos (e.g., niveles elevados de presión arterial, niveles elevados de glucosa en sangre, exceso de grasa abdominal o niveles elevados de colesterol o triglicéridos) que afectan a un individuo al mismo tiempo. La presencia de uno de estos factores no implica un riesgo elevado para la salud, sin embargo, presentar varios de ellos aumenta la probabilidad de sufrir enfermedades secundarias como la enfermedad cardiovascular o la diabetes tipo II. Las enfermedades difusas hepáticas son todas aquellas enfermedades que afectan a las células funcionales del hígado, los hepatocitos, alterando, de este modo, la función hepática. En estos procesos, los hepatocitos se ven sustituidos por adipocitos y tejido fibroso. La enfermedad de hígado graso no alcohólico es una afección reversible originada por la acumulación de triglicéridos en los hepatocitos. El alcoholismo, la obesidad, y la diabetes son las causas más comunes de esta enfermedad. Este estado del hígado es reversible si se cambia la dieta del paciente, sin embargo, si este no se cuida, la enfermedad puede ir avanzando hacia estadios más severos, desencadenando fibrosis, cirrosis e incluso carcinoma hepatocelular (CHC).
La temprana detección de todos estos procesos es de gran importancia en la mejora del pronóstico de los pacientes. Así, las técnicas de imagen en combinación con modelos computacionales permiten caracterizar el tejido mediante la extracción de parámetros objetivos, conocidos como biomarcadores de imagen, relacionados con estos procesos fisiológicos y patológicos, permitiendo una estadificación más precisa de las enfermedades. Además, gracias a las técnicas de inteligencia artificial, se pueden desarrollar algoritmos de segmentación automática que permitan realizar dicha caracterización de manera completamente automática y acelerar, de este modo, el flujo radiológico.
Por todo esto, en la presente tesis doctoral, se presenta una metodología para el desarrollo de modelos de segmentación y cuantificación automática, siendo aplicada a tres casos de uso. Para el estudio del síndrome metabólico se propone un método de segmentación automática de la grasa visceral y subcutánea en imágenes de tomografía computarizada (TC), para el estudio de la enfermedad hepática difusa se propone un método de segmentación hepática y cuantificación de la grasa y hierro hepáticos en imágenes de resonancia magnética (RM), y, finalmente, para el estudio del CHC, se propone un método de segmentación hepática y cuantificación de los descriptores de la curva de perfusión en imágenes de RM.
Todo esto se ha integrado en una plataforma que permite su integración en la práctica clínica. Así, se han adaptado los algoritmos desarrollados para ser ejecutados en contenedores Docker de forma que, dada una imagen de entrada, generen los parámetros cuantitativos de salida junto con un informe que resuma dichos resultados; se han implementado herramientas para que los usuarios puedan interactuar con las segmentaciones generadas por los algoritmos de segmentación automática desarrollados; finalmente, éstos se han implementado de forma que generen dichas segmentaciones en formatos estándar como DICOM RT Struct o DICOM Seg, para garantizar la interoperabilidad con el resto de sistemas sanitarios. / [CA] La síndrome metabòlica es defineix com un conjunt de trastorns (e.g., nivells elevats de pressió arterial, nivells elevats de glucosa en sang, excés de greix abdominal o nivells elevats de colesterol o triglicèrids) que afecten un individu al mateix temps. La presència d'un d'aquests factors no implica un risc elevat per a la salut, no obstant això, presentar diversos d'ells augmenta la probabilitat de patir malalties secundàries com la malaltia cardiovascular o la diabetis tipus II. Les malalties difuses hepàtiques són totes aquelles malalties que afecten les cèl·lules funcionals del fetge, els hepatòcits, alterant, d'aquesta manera, la funció hepàtica. En aquests processos, els hepatòcits es veuen substituïts per adipòcits i teixit fibrós. La malaltia de fetge gras no alcohòlic és una afecció reversible originada per l'acumulació de triglicèrids en els hepatòcits. L'alcoholisme, l'obesitat, i la diabetis són les causes més comunes d'aquesta malaltia. Aquest estat del fetge és reversible si es canvia la dieta del pacient, no obstant això, si aquest no es cuida, la malaltia pot anar avançant cap a estadis més severs, desencadenant fibrosis, cirrosis i fins i tot carcinoma hepatocel·lular (CHC).
La primerenca detecció de tots aquests processos és de gran importància en la millora del pronòstic dels pacients. Així, les tècniques d'imatge en combinació amb models computacionals permeten caracteritzar el teixit mitjançant l'extracció paràmetres objectius, coneguts com biomarcadores d'imatge, relacionats amb aquests processos fisiològics i patològics, permetent una estratificació més precisa de les malalties. A més, gràcies a les tècniques d'intel·ligència artificial, es poden desenvolupar algorismes de segmentació automàtica que permeten realitzar aquesta caracterització de manera completament automàtica i accelerar, d'aquesta manera, el flux radiològic.
Per tot això, en la present tesi doctoral, es presenta una metodologia per al desenvolupament de models de segmentació i quantificació automàtica, sent aplicada a tres casos d'ús. Per a l'estudi de la síndrome metabòlica es proposa un mètode de segmentació automàtica del greix visceral i subcutani en imatges de tomografia computada (TC), per a l'estudi de la malaltia hepàtica difusa es proposa un mètode segmentació hepàtica i quantificació del greix i ferro hepàtics en imatges de ressonància magnètica (RM), i, finalment, per a l'estudi del CHC, es proposa un mètode de segmentació hepàtica i quantificació dels descriptors de la corba de perfusió en imatges de RM.
Tot això s'ha integrat en una plataforma que permet la seua integració en la pràctica clínica. Així, s'han adaptat els algorismes desenvolupats per a ser executats en contenidors Docker de manera que, donada una imatge d'entrada, generen els paràmetres quantitatius d'eixida juntament amb un informe que resumisca aquests resultats; s'han implementat eines perquè els usuaris puguen interactuar amb les segmentacions generades pels algorismes de segmentació automàtica desenvolupats; finalment, aquests s'han implementat de manera que generen aquestes segmentacions en formats estàndard com DICOM RT Struct o DICOM Seg, per a garantir la interoperabilitat amb la resta de sistemes sanitaris. / [EN] Metabolic syndrome is defined as a group of disorders (e.g., high blood pressure, high blood glucose levels, excess abdominal fat, or high cholesterol or triglyceride levels) that affect an individual at the same time. The presence of one of these factors does not imply an elevated health risk; however, having several of them increases the probability of secondary diseases such as cardiovascular disease or type II diabetes. Diffuse liver diseases are all those diseases that affect the functional cells of the liver, the hepatocytes, thus altering liver function. In these processes, the hepatocytes are replaced by adipocytes and fibrous tissue. Non-alcoholic fatty liver disease is a reversible condition caused by the accumulation of triglycerides in hepatocytes. Alcoholism, obesity, and diabetes are the most common causes of this disease. This liver condition is reversible if the patient's diet is changed; however, if the patient is not cared for, the disease can progress to more severe stages, triggering fibrosis, cirrhosis and even hepatocellular carcinoma (HCC).
Early detection of all these processes is of great importance in improving patient prognosis. Thus, imaging techniques in combination with computational models allow tissue characterization by extracting objective parameters, known as imaging biomarkers, related to these physiological and pathological processes, allowing a more accurate statification of diseases. Moreover, thanks to artificial intelligence techniques, it is possible to develop automatic segmentation algorithms that allow to perform such characterization in a fully automatic way and thus accelerate the radiological workflow.
Therefore, in this PhD, a methodology for the development of automatic segmentation and quantification models is presented and applied to three use cases. For the study of metabolic syndrome, a method of automatic segmentation of visceral and subcutaneous fat in computed tomography (CT) images is proposed; for the study of diffuse liver disease, a method of liver segmentation and quantification of hepatic fat and iron in magnetic resonance imaging (MRI) is proposed; and, finally, for the study of HCC, a method of liver segmentation and quantification of perfusion curve descriptors in MRI is proposed.
All this has been integrated into a platform that allows its integration into clinical practice. Thus, the developed algorithms have been adapted to be executed in Docker containers so that, given an input image, they generate the quantitative output parameters together with a report summarizing these results; tools have been implemented so that users can interact with the segmentations generated by the automatic segmentation algorithms developed; finally, these have been implemented so that they generate these segmentations in standard formats such as DICOM RT Struct or DICOM Seg, to ensure interoperability with other health systems. / Jimenez Pastor, AM. (2023). Aprendizaje profundo y biomarcadores de imagen en el estudio de enfermedades metabólicas y hepáticas a partir de resonancia magnética y tomografía computarizada [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202602
|
146 |
Multicriteria Techniques for Sustainable Supply Chain ManagementBarrera Jimenez, Ivan Felipe 30 January 2025 (has links)
Tesis por compendio / [ES] Los métodos multicriterio proporcionan un enfoque analítico y estructurado para la toma de decisiones en la gestión de la cadena de suministro, que permiten evaluaciones basadas en múltiples criterios, esenciales para gestionar socios comerciales sostenibles. El objetivo de esta tesis es contribuir a la gestión sostenible de la cadena de suministro desarrollando nuevos modelos y técnicas multicriterio para evaluar proveedores y clientes. Se han diseñado modelos que incorporan las preferencias empresariales para tomar decisiones colaborativas en la selección y clasificación transparente de alternativas basadas en criterios sostenibles. También se han desarrollado métodos para clasificar las alternativas en grupos ordenados y evaluar su calidad. Tanto los modelos como los métodos se han validado mediante casos empíricos y comparado con enfoques alternativos.
La metodología se basa en una profunda revisión bibliográfica y en el conocimiento experto de profesionales en la cadena de suministro. Los modelos multicriterio propuestos emplean técnicas como el Analytic Hierarchy Process (AHP), la Multi-Attribute Utility Theory (MAUT) y PROMETHEE. También se han desarrollado tres algoritmos para la clasificación de alternativas (nominal y ordenada).
En primer lugar, se ha propuesto un modelo multicriterio híbrido y se ha validado con datos reales para homologar y seleccionar proveedores de tecnología, así como para su priorización y clasificación. Este modelo integra métodos compensatorios (AHP, MAUT) y no compensatorios (PROMETHEE, FlowSort) en una jerarquía con criterios de sostenibilidad. La validación del modelo en un contexto real y su comparación con un modelo alternativo ha demostrado su capacidad para proporcionar información relevante y transparente en la toma de decisiones para la evaluación sostenible de proveedores de tecnología en el sector bancario.
En segundo lugar, se ha diseñado un nuevo algoritmo, denominado Global Local Net Flow sorting (GLNF sorting), que clasifica alternativas en grupos ordenados a partir de los flujos netos generados en búsquedas globales y locales con PROMETHEE. Adicionalmente, se ha diseñado el algoritmo SILhouette for Sorting (SILS) para calcular un índice de calidad en las clasificaciones. Ambos algoritmos se han validado empíricamente en la segmentación de proveedores y sus resultados se han comparado con otros métodos publicados. Por una parte, GLNF sorting destaca al mejorar la discriminación entre proveedores cercanos a los perfiles limitantes de los grupos, aprovechando el nivel de similitud preferencial entre alternativas. Por otra, SILS mejora la calidad de las asignaciones y permite un análisis detallado que facilita la toma de decisiones.
En tercer lugar, se ha propuesto un sistema de segmentación de clientes B2B basado en transacciones y colaboración, aplicando AHP y GLNF sorting. Validado con 8,157 clientes de una multinacional, se ha evaluado con SILS y estadística descriptiva. Comparado con K-means, el modelo genera clasificaciones más homogéneas y robustas. Esta herramienta permite a las empresas automatizar decisiones y llevar a cabo análisis detallados para mejorar las relaciones con los clientes, alineándose con sus estrategias de colaboración y enfoques de mercado.
En cuarto lugar, las búsquedas globales y locales se han utilizado para proponer un algoritmo de clasificación nominal basado dos dimensiones, que proporciona una matriz estratégica muy útil para los gestores de cadena de suministro.
Por último, se ha desarrollado el paquete de software PrometheeTools en R, que automatiza la aplicación de PROMETHEE, GLNF sorting y SILS para resolver problemas multicriterio de priorización y clasificación de alternativas. Este paquete se ha validado con éxito y destaca por su eficiencia en PROMETHEE con miles de alternativas. Está disponible en acceso abierto en el repositorio CRAN para su utilización por investigadores y profesionales interesados en toma de decisiones multicriterio. / [CA] Els mètodes multicriteri proporcionen un enfocament analític i estructurat per a la presa de decisions en la gestió de la cadena de subministrament, que permeten avaluacions basades en múltiples criteris, essencials per a gestionar socis comercials sostenibles. L'objectiu d'aquesta tesi és contribuir a la gestió sostenible de la cadena de subministrament desenvolupant nous models i tècniques multicriteri per a avaluar proveïdors i clients. S'han dissenyat models que incorporen les preferències empresarials per a prendre decisions col·laboratives en la selecció i classificació transparent d'alternatives basades en criteris sostenibles. També s'han desenvolupat mètodes per a classificar les alternatives en grups ordenats i avaluar-ne la qualitat. Tant els models com els mètodes s'han validat mitjançant casos empírics i comparat amb enfocaments alternatius.
La metodologia es basa en una profunda revisió bibliogràfica i en el coneixement expert de professionals en la cadena de subministrament. Els models multicriteri proposats empren tècniques com ara el procés analític jeràrquic (AHP), la teoria d'utilitat multiatribut (MAUT) i PROMETHEE. També s'han desenvolupat tres algoritmes per a la classificació d'alternatives (nominal i ordenada).
En primer lloc, s'ha proposat un model multicriteri híbrid i s'ha validat amb dades reals per a homologar i seleccionar proveïdors de tecnologia, així com per a la seua priorització i classificació. Aquest model integra mètodes compensatoris (AHP, MAUT) i no compensatoris (PROMETHEE, FlowSort) en una jerarquia amb criteris de sostenibilitat. La validació del model en un context real i la seua comparació amb un model alternatiu n'ha demostrat la capacitat per a proporcionar informació rellevant i transparent en la presa de decisions per a l'avaluació sostenible de proveïdors de tecnologia en el sector bancari.
En segon lloc, s'ha dissenyat un nou algoritme, denominat Global Local Net Flow sorting (GLNF sorting), que classifica alternatives en grups ordenats a partir dels fluxos nets generats en cerques globals i locals amb PROMETHEE. Addicionalment, s'ha dissenyat l'algoritme SILhouette for Sorting (SILS) per a calcular un índex de qualitat en les classificacions. Ambdós algoritmes s'han validat empíricament en la segmentació de proveïdors i els seus resultats s'han comparat amb altres mètodes publicats. D'una banda, GLNF sorting destaca en millorar la discriminació entre proveïdors pròxims als perfils limitants dels grups, que aprofita el nivell de similitud preferencial entre alternatives. De l'altra, SILS millora la qualitat de les assignacions i permet una anàlisi detallada que facilita la presa de decisions.
En tercer lloc, s'ha proposat un sistema de segmentació de clients B2B basat en transaccions i col·laboració, aplicant AHP i GLNF sorting. Validat amb 8,157 clients d'una multinacional, s'ha avaluat amb SILS i estadística descriptiva. Comparat amb K-means, el model genera classificacions més homogènies i robustes. Aquesta eina permet a les empreses automatitzar decisions i portar a cap anàlisis detallades per a millorar les relacions amb els clients, que s'alineen amb les seues estratègies de col·laboració i enfocaments de mercat.
En quart lloc, les cerques globals i locals s'han utilitzat per a proposar un algoritme de classificació nominal basat en dues dimensions, que proporciona una matriu estratègica molt útil per als gestors de la cadena de subministrament.
Finalment, s'ha desenvolupat el paquet de programari PrometheeTools en R, que automatitza l'aplicació de PROMETHEE, GLNF sorting i SILS per a resoldre problemes multicriteri de priorització i classificació d'alternatives. Aquest paquet s'ha validat amb èxit i destaca per la seua eficiència en PROMETHEE amb milers d'alternatives. Està disponible en accés obert en el repositori CRAN per a la utilització per investigadors i professionals interessats en la presa de decisions multicriteri. / [EN] Multicriteria methods provide an analytical and structured approach to decision making in supply chain management. These techniques allow multicriteria evaluations, which are essential for choosing and managing sustainable business partners. The aim of this thesis is to contribute to sustainable supply chain management by developing new multicriteria models and techniques to assess suppliers and customers. Models have been designed in order to incorporate business preferences to make collaborative decisions in the transparent selection and ranking of alternatives based on sustainable criteria. New methods have also been developed to classify alternatives into ordered groups and to assess their quality. Both models and methods have been validated using empirical cases and compared with alternative approaches.
The methodology is based on an in-depth literature review, as well as the expertise of supply chain professionals. The proposed multicriteria models integrate techniques such as the Analytical Hierarchical Process (AHP), Multi-Attribute Utility Theory (MAUT) and the PROMETHEE method. Three new algorithms have also been developed for classifying alternatives into nominal and ordered groups (sorting problem).
Firstly, a hybrid multicriteria model has been proposed and validated with real data for technology supplier qualifying, selection and ranking. This model integrates compensatory (AHP, MAUT) and non-compensatory (PROMETHEE, FlowSort) methods in a hierarchy with sustainability criteria to evaluate products, suppliers and manufacturers. Validation of the model in a real context and its comparison with an alternative model has demonstrated its ability to provide relevant and transparent information for decision making in the sustainable evaluation of technology suppliers in the banking sector.
Secondly, a new algorithm has been designed, called Global Local Net Flow sorting (GLNF sorting), which classifies alternatives into ordered groups based on the net flows generated in global and local searches with PROMETHEE. In addition, the SILhouette for Sorting (SILS) algorithm has been designed to calculate a quality index in the classifications. Both algorithms have been empirically validated in supplier segmentation and their results compared with other published methods. On the one hand, the GLNF sorting algorithm excels in improving the discrimination between suppliers close to the limiting profiles by exploiting the level of preference similarity between alternatives. On the other, SILS improves the quality of alternative assignments to groups, allows for a detailed analysis of suppliers and facilitates decision making.
Thirdly, a customer segmentation model based on transactions and collaboration has been proposed in the Business to Business context, applying AHP and GLNF sorting. Validated with 8,157 customers of a multinational company, it has been assessed by SILS and descriptive statistics. This model generates more homogeneous and robust groups than the K-means cluster method. This tool enables companies to automate decisions and perform detailed analysis to improve customer relationships, aligning with their collaboration strategies and market approaches.
Fourthly, global and local searches have been used to propose an algorithm for nominal classification based on two dimensions, which provides a very useful strategic matrix for supply chain managers.
Finally, the PrometheeTools software package has been developed in R, which automates the implementation of PROMETHEE, GLNF sorting and SILS to solve multicriteria problems of alternatives ranking and classification. This package has been successfully validated and stands out for the efficiency in PROMETHEE and especially when solving problems with thousands of alternatives. It is available by open access in the CRAN repository for use by researchers and practitioners interested in multicriteria decision making. / Barrera Jimenez, IF. (2024). Multicriteria Techniques for Sustainable Supply Chain Management [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202879 / Compendio
|
147 |
Investigación y desarrollo de metodología avanzada de segmentación de la médula espinal cervical a partir de imágenes RM para la ayuda al diagnóstico y seguimiento de pacientes de esclerosis múltipleBueno Gómez, América 01 July 2024 (has links)
[ES] La Esclerosis Múltiple (EM) es una enfermedad inflamatoria y autoinmune del sistema nervioso central (SNC) con rasgos de desmielinización y degeneración axonal en el tiempo, y caracterizada por ser muy heterogénea en los síntomas y en el curso de la enfermedad. La Imagen de Resonancia Magnética (RM) es una de las herramientas clínicas más sensibles para la evaluación de los procesos inflamatorios y neurodegenerativos. En los últimos años, la evaluación de la médula espinal ha tenido un creciente interés clínico para mejorar el diagnóstico y el fenotipado de la enfermedad, aunque, a diferencia del cerebro, en médula espinal cervical no existen algoritmos de inteligencia artificial (IA) desarrollados y certificados para práctica clínica. Es por ello, que nuestro objetivo se centra en investigar y desarrollar un método automático de segmentación de médula cervical en RM, facilitando así una evaluación automática y mejorada de la atrofia de la médula espinal, pues esta puede proporcionar información valiosa sobre la progresión de la enfermedad y sus consecuencias clínicas.
El algoritmo se desarrolló mediante datos del mundo real (real-world data) recogidos de manera retrospectiva en 121 pacientes de EM. Se utilizaron 96 de ellos para el entrenamiento del modelo, 25 para test y 13 para la validación del modelo. Durante la tesis se trabajaron secuencias de RM adquiridas en un equipo de 3T (SignaHD, GEHC), de tipo 3D axiales potenciadas en T1, dada su mejor resolución y contraste para identificar pequeñas estructuras anatómicas como la médula espinal. El etiquetado manual de los datos fue realizado bajo el consejo y supervisión de dos radiólogos experimentados, obteniendo finalmente el ground-truth.
Varias fueron las arquitecturas, hiperparámetros y formas de preprocesado aplicados al dataset en busca de la solución óptima. Dada su conocida importancia en la segmentación de imagen médica, la arquitectura U-Net fue el punto de partida. Tras la ausencia de buenos resultados y una mayor investigación en el campo, se dio con la problemática del desbalanceo de datos. Finalmente, para obtener la segmentación deseada, se implementó y entrenó una red neuronal convolucional 2D compuesta por un mecanismo de atención residual y conexiones basadas en la arquitectura U-Net. El mecanismo de atención permitió que el modelo se centrara en aquellas localizaciones de la imagen que son importantes para la tarea de clasificación de los vóxeles correspondientes a la médula cervical, a la vez que retenía la información del resto de estructuras anatómicas, mientras que los bloques residuales nos permitieron solventar problemas de desvanecimiento de gradiente comunes en redes neuronales profundas. El entrenamiento se diseñó con una función de pérdidas local, basada en el índice de Tversky con el fin de controlar el problema de desbalanceo de datos de imagen médica, y un buscador automático de tasa de aprendizaje óptima que nos permitió mejorar la convergencia y rendimiento del modelo.
Finalmente, nuestro método proporcionó una segmentación con una elevada tasa de acierto, obteniendo un valor de 0.95 como MCC en la métrica de entrenamiento y consiguiendo en validación un coeficiente DICE de 0.904±0.101 tomando como referencia la segmentación manual.
Además de obtener una herramienta para la segmentación automática de la médula, también creamos un módulo para el cálculo de sus dimensiones, actuando como biomarcador de imagen, lo que será útil y eficaz para la valoración de la atrofia. De esta forma, los clínicos pueden evaluar el grado de daño neurológico y seguir su evolución a lo largo del tiempo. Como biomarcadores de imagen, calculamos las dimensiones de las médulas de nuestros pacientes en forma de volumen (mm3) y sección media (mm2) y estudiamos la relación entre sección media de la médula espinal cervical con la distribución de las distintas formas clínicas y los niveles en Escala de Discapacidad Extendida de Kurtzke (EDSS) de los pacientes. / [CA] L'Esclerosi Múltiple (EM), és una malaltia inflamatòria i autoimmune del sistema nerviós central (SNC) amb trets de desmielinització i degeneració axonal en el el temps. Es caracteritza per ser molt heterogènia amb els símptomes i curs de la malaltia. La Imatge de Ressonància Magnètica (RM) és una de les eines més sensibles per a l'avaluació dels processos inflamatoris i neurodegeneratius. Als darrers anys, l'evolució de la medul·la espinal ha tingut un creixent interés clínic per tal de millorar el diagnòstic i el fenotipatge de la malaltia, encara que, a diferència del cervell, en medul·la espinal cervical no existeixen algoritmes d'intel·ligència artificial (IA) desenvolupats i certificats. Aquest fet motiva el present estudi, que se centra en la recerca i desenvolupament d'un mètode automàtic de segmentació de medul·la cervical en RM. L'automatització i millora del procés d'avaluació de l'atròfia de la medul·la espinal podrà proporcionar valuosa informació sobre la progressió de la malaltia i les seves conseqüències clíniques.
L'algoritme proposat al present treball va ser desenvolupat mitjançant dades del món real (real-world data) recollides de manera retrospectiva en 121 pacients d'EM. D'aquestes mostres, 96 foren utilitzades per a l'entrenament del model d'IA, 13 per a la validació durant l'entrenament i les 25 restants com a conjunt d'avaluació. Les seqüències d'imatges de RM fetes servir foren adquirides amb un equip 3T de tipus 3D axials potenciats en T1, donada la seua millor resolució i contrast alhora identificar petites estructures anatòmiques com la medul·la espinal. L'etiquetatge de les dades fou realitzat sota la supervisió i consell de dos experimentats radiòlegs. El resultat final fou un conjunt d'imatges RM de referència (ground truth dataset) amb les corresponents màscares de segmentació de la medul·la espinal cervical definides pels radiòlegs.
Diverses van ser les arquitectures, hiperparàmetres i tècniques de preprocessat aplicades al conjunt de dades en cerca de la solució òptima. Donada la seua coneguda importància en la segmentació d'imatge mèdica, l'arquitectura U-Net fou el punt de partida. Un altre punt d'inflexió fou resoldre la problemàtica de la desproporció de representativitat al conjunt de dades utilitzat (dataset imbalancement). Finalment, per obtindre la segmentació desitjada, es va implementar i entrenar una xarxa neuronal convolucional 2D composta per un mecanisme d'atenció residual i connexions basades en l'arquitectura U-Net. El mecanisme d'atenció va permetre que el model se centrara en aquelles localitzacions de la imatge més importants per a la tasca de classificació dels corresponents vòxels a la medul·la cervical, a la volta que retenia la informació de la resta d'estructures anatòmiques. Alhora, els blocs residuals, van permetre resoldre els problemes d'esvaïment de gradient, comuns a l'entrenament de xarxes neuronals profundes. L'entrenament es va dissenyar amb una funció de cost local, basada en l'índex Tversky, amb el fi de controlar la problemàtica del dataset imbalancement i, un buscador automàtic de la taxa d'aprenentatge òptima que permetia una millor convergència i rendiment del model.
Els resultats proporcionats pel nostre mètode de segmentació automàtica, presentaren una elevada taxa d'encert, obtinguen un valor de 0.95 com coeficient de correlació de Matthew en la mètrica d'entrenament i aconseguint en validació un coeficient DICE de 0.904±0.101 prenent com a referència la segmentació manual. A més de l'eina de segmentació automàtica, també hem desenvolupat un mòdul per al càlcul de les seues dimensions, el que serà útil per a una eficaç valoració de l'atròfia. Com biomarcadors d'imatge, calcularem les dimensions de les medul·les dels nostres pacients en forma de volum (mm³) i secció mitjana (mm²) i estudiarem la relació entre secció mitjana de la medul·la espinal cervical amb la distribució de les distintes formes clíniques i l'escala de discapacitat estesa de Kurtzke / [EN] Multiple Sclerosis (MS) is an inflammatory and autoimmune disease of the central nervous system (CNS) with features of demyelination and axonal degeneration over time, and characterised by being very heterogeneous in symptoms, disease course and outcome. Magnetic Resonance Imaging (MRI) is one of the most sensitive clinical tools for the evaluation of inflammatory and neurodegenerative processes. In recent years, the evaluation of the spinal cord has been of increasing clinical interest to improve the diagnosis and phenotyping of the disease, although, unlike the brain, in the cervical spinal cord there are no artificial intelligence (AI) algorithms developed and certified for clinical practice. Therefore, our aim is to investigate and develop an automatic method of cervical cord segmentation in MRI, thus facilitating an automatic and improved assessment of spinal cord atrophy, which can provide valuable information on the progression of the disease and its clinical consequences.
The algorithm was developed using real-world data collected retrospectively from 121 MS patients. Of these, 96 were used for model training, 25 for testing and 13 for validation of the proposed model. During the thesis, 3D axial T1-weighted MRI sequences acquired in 3T equipment (SignaHD, GEHC) were used, given their better resolution and contrast to identify small anatomical structures such as the spinal cord. Manual labelling of the data was performed under the advice and supervision of two experienced radiologists, between whom possible discrepancies were resolved with a third radiologist, resulting in a set of cervical spinal cord masks as ground-truth.
Several architectures, hyperparameters and forms of pre-processing were applied to the dataset in search of the optimal solution. Given its known importance in medical image segmentation, the U-Net architecture was the starting point. After the absence of good results and further research in the field, the problem of data imbalance was identified. Finally, to obtain the desired segmentation, a 2D convolutional neural network (CNN) composed of a residual attention mechanism and connections based on the U-Net architecture was implemented and trained. The attention mechanism allowed the model to focus on those image locations that are important for the classification task of the voxels corresponding to the cervical cord, while retaining the information of the rest of the anatomical structures. Residual blocks allowed us to solve common gradient fading problems in deep neural networks. Training was designed with a local loss function, based on the Tversky index in order to control the medical image data imbalance problem, and an automatic optimal learning rate finder that allowed us to improve the convergence and performance of the model.
Finally, our method provided a segmentation with a high success rate, obtaining a value of 0.95 as MCC in the training metric and obtaining in validation a DICE coefficient of 0.904±0.101 taking manual segmentation as a reference. In addition to obtaining a tool for the automatic segmentation of the spinal cord, we also created a module for the calculation of its dimensions, which will be useful and effective for the assessment of atrophy. Atrophy is a direct indicator of neuronal damage and tissue loss in both the brain and spinal cord, and is a key risk factor for disability in MS. By accurately calculating atrophy, clinicians can assess the degree of neurological damage and follow its evolution over time. In our study, we calculated the dimensions of our patients' cords, as possible imaging biomarkers, in terms of volume (mm3) and mean section (mm2), and studied the relationship between the mean section of the cervical spinal cord with the distribution of the different clinical forms and the Kurtzke Expanded Disability Status Scale (EDSS) levels in our study group. / Bueno Gómez, A. (2024). Investigación y desarrollo de metodología avanzada de segmentación de la médula espinal cervical a partir de imágenes RM para la ayuda al diagnóstico y seguimiento de pacientes de esclerosis múltiple [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/205742
|
148 |
Machine Learning en Resonancia Magnética. Describiendo la Fisiopatología del Dolor LumbarSáenz Gamboa, Jhon Jairo 02 September 2024 (has links)
[ES] El dolor lumbar es una afección común que afecta a casi el 70% de la población, representando una carga significativa para el sistema de atención médica. Esta tesis se centra en extraer conocimiento médico a partir de Imágenes de Resonancia Magnética (IRM) lumbar, relacionándolas con el dolor lumbar. A través de las técnicas de aprendizaje automático (Machine Learning), se procesan extensos conjuntos de datos de IRM lumbar para desarrollar algoritmos de segmentación semántica que identifican las estructuras en la columna vertebral. El objetivo principal es mejorar la comprensión de las causas del dolor lumbar y desarrollar modelos predictivos que respalden una toma de decisiones clínicas más precisa. Simultáneamente, se busca crear un repositorio público de imágenes de columna lumbar anonimizadas y datos poblacionales para facilitar la colaboración en la investigación en este campo.
Los métodos propuestos en esta tesis se centran en el análisis preciso de IRM lumbar de pacientes con antecedentes de dolor lumbar en hospitales públicos de la Comunidad Valenciana, generando dos conjuntos de datos significativos. El primero, llamado "Massive Image Data Anatomy of the Spine" (MIDAS), contiene datos de alrededor de 23,688 pacientes, equivalente a unas 124,800 IRM lumbar. Estos datos fueron recopilados de 17 departamentos de salud y sometidos a diversas fases, que incluyen la aprobación de un comité ético, la de-identificación y corrección de metadatos DICOM, y la estandarización de protocolos de adquisición. Además, se implementó una estructura de archivos estandarizada llamada " Medical Imaging Data Structure" (MIDS) para garantizar la transparencia y reproducibilidad de los datos. Este conjunto de datos está disponible para descarga bajo solicitud en https://bimcv.cipf.es/bimcv-projects/midas- 2/.
El segundo conjunto de datos se creó mediante la segmentación manual de 181 IRM lumbar, realizada por dos radiólogos expertos. El propósito de esta tarea fue asignar etiquetas de clase a cada píxel de las imágenes, donde las clases se definieron según elementos anatómicos como vértebras, discos intervertebrales, nervios, vasos sanguíneos y otros tejidos, cubriendo un total de 11 elementos diferentes de la columna vertebral. Estos datos se utilizaron para diseñar y entrenar variantes de arquitecturas de Redes Neuronales Convolucionales (Convolutional Neural Networks o CNN) para la tarea de segmentación automática de IRM lumbar.
Como resultado de los experimentos, esta tesis hace hincapié en la importancia de recopilar y preprocesar datos de alta calidad, así como elegir estratégicamente arquitecturas de red y técnicas de aprendizaje profundo en la segmentación semántica de imágenes médicas. Presenta topologías de red efectivas que superan al modelo U-Net estándar y resalta la versatilidad de un solo modelo para segmentar imágenes de diferentes protocolos y vistas, simplificando el desarrollo de sistemas de procesamiento de imágenes médicas.
En última instancia, esta tesis representa un viaje interdisciplinario desde la ingeniería hasta la medicina, destacando la innovación de aplicar métodos de ML para obtener conjuntos de datos médicos etiquetados a gran escala. Las futuras investigaciones se centran en mejorar el conjunto de datos y desarrollar herramientas de visión por computadora para detectar y clasificar patologías de la columna lumbar. Una vez validadas clínicamente, estas innovaciones podrían revolucionar el diagnóstico clínico y la toma de decisiones médicas basadas en evidencia en este campo. / [CA] El dolor lumbar és una afecció comuna que afecta a gairebé el 70% de la població, la qual cosa representa una càrrega significativa per al sistema d'atenció mèdica. Aquesta tesi se centra a extraure coneixement mèdic a partir d'Imatges de Ressonància Magnètica (IRM) lumbar, relacionant-les amb el dolor lumbar. Mitjançant tècniques d'aprenentatge automàtic ("Machine Learning", ML), es processen extensos conjunts de dades d'IRM lumbar per tal de desenvolupar algoritmes de segmentació semàntica que identifiquen les estructures a la columna vertebral. L'objectiu principal és millorar la comprensió de les causes del dolor lumbar i desenvolupar models predictius que donen suport a una presa de decisions clíniques més precisa. Simultàniament, es busca crear un repositori públic d'imatges de columna lumbar anonimitzades i dades poblacionals per facilitar la col·laboració en la recerca en aquest camp.
Els mètodes proposats en aquesta tesi se centren en l'anàlisi precisa d'IRM lumbar de pacients amb antecedents de dolor lumbar en hospitals públics de la Comunitat Valenciana, generant dos conjunts de dades significatius. El primer, anomenat "Massive Image Data Anatomy of the Spine" (MIDAS), conté dades de vora 23.688 pacients, equivalent a unes 124.800 IRM lumbars. Aquestes dades van ser recopilades de 17 departaments de salut i sotmeses a diverses fases, que inclouen l'aprovació d'un comitè ètic, la desidentificació i correcció de metadades DICOM (Digital Imaging and Communications in Medicine), i l'estandardització de protocols d'adquisició. A més, es va implementar una estructura d'arxius estandarditzada anomenada "Medical Imaging Data Structure" (MIDS) per tal de garantir la transparència i la reproducció de les dades. Aquest conjunt de dades està disponible per a descarregar sota sol·licitud a https://bimcv.cipf.es/bimcv-projects/midas-2/.
El segon conjunt de dades es va crear mitjançant la segmentació manual de 181 IRM lumbars, realitzada per dos radiòlegs experts. El propòsit d'aquesta tasca va ser assignar etiquetes de classe a cada píxel de les imatges, classes que es van definir segons elements anatòmics com ara vèrtebres, discs intervertebrals, nervis, vasos sanguinis i altres teixits, tot cobrint un total d'11 elements diferents de la columna vertebral. Aquestes dades es van utilitzar per dissenyar i entrenar variants d'arquitectures de Xarxes Neuronals Convolucionals (Convolutional Neural Networks o CNN) per a la tasca de segmentació automàtica d'IRM lumbar.
Com a resultat dels experiments, aquesta tesi destaca la importància de recopilar i preprocessar dades d'alta qualitat, així com de triar estratègicament arquitectures de xarxa i tècniques de DL en la segmentació semàntica d'imatges mèdiques. Presenta topologies de xarxa efectives que superen al model U-Net estàndard i destaca la versatilitat d'un sol model per a segmentar imatges de diferents protocols i vistes, simplificant el desenvolupament de sistemes de processament d'imatges mèdiques.
Finalment, aquesta tesi representa un viatge interdisciplinari des de l'enginyeria fins a la medicina, tot destacant la innovació a l'hora d'aplicar mètodes d'ML per obtenir conjunts de dades mèdiques etiquetats a gran escala. Les futures investigacions se centren a millorar el conjunt de dades i desenvolupar eines de visió per ordinador per detectar i classificar patologies de la columna lumbar. Un cop validades clínicament, aquestes innovacions podrien revolucionar el diagnòstic clínic i la presa de decisions mèdiques basades en evidències en aquest camp. / [EN] Lower back pain is a common condition affecting nearly 70% of the population, representing a significant burden for the healthcare system. This thesis focuses on extracting medical knowledge from lumbar Magnetic Resonance Imaging (MRI), linking them to lower back pain. Through Machine Learning techniques, extensive lumbar MRI datasets are processed to develop semantic segmentation algorithms that identify structures in the spine. The main goal is to improve understanding of the causes of lower back pain and develop predictive models that support more accurate clinical decision-making. Simultaneously, the aim is to create a public repository of anonymized lumbar spine images and population data to facilitate collaboration in research in this field.
The methods proposed in this thesis focus on the precise analysis of lumbar MRI from patients with a history of lower back pain in public hospitals of the Valencian Community, generating two significant datasets. The first, called "Massive Image Data Anatomy of the Spine" (MIDAS), contains data from around 23,688 patients, equivalent to about 124,800 lumbar MRIs. These data were collected from 17 health departments and underwent various phases, including ethical committee approval, de-identification and correction of DICOM metadata, and standardization of acquisition protocols. In addition, a standardized file structure called "Medical Imaging Data Structure" (MIDS) was implemented to ensure data transparency and reproducibility. This dataset is available for download upon request at https://bimcv.cipf.es/bimcv-projects/midas-2/.
The second dataset involved the manual segmentation of 181 lumbar MRIs. Two expert radiologists performed this to assign class labels to each pixel in the images based on anatomical elements, including vertebrae, intervertebral discs, nerves, blood vessels, and other tissues, comprising 11 distinct elements of the spine. This data was utilized to design and train different Convolutional Neural Network (CNN) architectures for the automatic segmentation of lumbar MRI.
As a result of the experiments, this thesis emphasizes the importance of collecting and preprocessing high-quality data and strategically choosing network architectures and DL techniques in the semantic segmentation of medical images. It presents effective network topologies that surpass the standard U-Net model and highlights the versatility of a single model to segment images from different protocols and views, simplifying the development of medical image processing systems.
Ultimately, this thesis represents an interdisciplinary journey from engineering to medicine, highlighting the innovation of applying ML methods to obtain large-scale labelled medical datasets. Future research focuses on improving the dataset and developing computer vision tools to detect and classify lumbar spine pathologies. Once clinically validated, these innovations could revolutionize clinical diagnosis and evidence-based medical decision-making in this field. / Sáenz Gamboa, JJ. (2024). Machine Learning en Resonancia Magnética. Describiendo la Fisiopatología del Dolor Lumbar [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/207346
|
149 |
Análisis microeconometrico de las decisiones de participación y gasto turístico de los hogaresMateo Erroz, Sara 22 June 2012 (has links)
La tesis se enmarca en el análisis microeconométrico de la demanda turística de los hogares españoles. Su objetivo general es estudiar los determinantes que influyen en la decisión de consumo turístico, frecuencia de consumo y gasto de los hogares en servicios turísticos.
En el análisis de todas las decisiones intervienen variables no estrictamente económicas específicas de cada hogar (número de miembros, existencia de niños y otras variable ligadas al ciclo de vida del hogar) y de sus miembros (edad, nivel educativo, y otras variable ligadas al momento vital por el que atraviesan). Además, se incorporan variables económicas o ligadas a la situación económica del hogar. De esta manera se puede realizar un análisis sobre las diferentes decisiones de consumo turístico de los hogares y vincularlas a sus preferencias, restricciones temporales, restricciones monetarias o diferentes circunstancias condicionadas a su momento vital. Se hace especial referencia a los efectos de la crisis económica mundial y el desempleo de los miembros del hogar sobre su gasto turístico efectivo.
Este trabajo está estructurado en cuatro capítulos. En el primer capítulo se aborda el estudio de las restricciones a las que hacen frente los hogares españoles a la hora de viajar. Para ello, se estudia la importancia que tiene la situación económica del hogar como barrera al consumo turístico. Los hogares analizados provienen de la muestra española del año 2000 de la encuesta del Panel de Hogares de la Comunidad Europea (PHOGUE). En el segundo capítulo se examina la frecuencia de participación turística mediante la explotación de los microdatos de la Encuesta de Presupuestos Familiares (EPF) durante el periodo 1999-2005. Además de la renta disponible y las variables del hogar asociadas a su situación económica, el tiempo libre, marcado por la situación laboral del sustentador familiar, y otros factores del hogar y sus miembros se incluye una variable temporal que permita describir la evolución de la frecuencia en el periodo considerado. En el tercer capítulo se examinan las decisiones de participación y gasto turístico de los hogares españoles en un periodo caracterizado por un cambio en el ciclo económico. Se emplean microdatos de la Encuesta de Presupuestos Familiares (EPF) de los años 2006 a 2010, lo que permite analizar las consecuencias que la crisis económica y el desempleo tienen sobre las decisiones de consumo turístico de los hogares. Finalmente, el cuarto capítulo tiene como principal objetivo la clasificación de los hogares en función de sus preferencias de consumo, distinguiendo entre demandantes de baja intensidad (nulo o muy escaso gasto turístico), intensidad media (gasto turístico intermedio) y alta intensidad (gasto turístico elevado). Así, se pretende ofrecer una alternativa a la modelización del gasto turístico teniendo en cuenta, de manera explícita, las preferencias personales ya que estas juegan un papel fundamental en la demanda turística como respuesta a un conjunto de características sociodemográficas y económicas. Los microdatos empleados pertenecen a la Encuesta de Presupuestos Familiares (EPF) de los años 2006 a 2010.
Los ingresos son la variable que mayor poder explicativo tiene sobre la demanda turística. Aún así, las variaciones en el nivel de renta no presentan efectos uniformes en la variación del consumo turístico de los diferentes hogares. Los resultados obtenidos ponen de manifiesto la existencia de otros factores sociodemográficos que pueden compensar o restringir el consumo turístico efectivo. Las variaciones de los ingresos en los hogares, debidos a factores externos como la crisis o el desempleo, o a otros factores específicos del hogar y de sus miembros, no tienen el mismo efecto en las variaciones de la demanda turística final. Para el análisis de la demanda turística es necesario utilizar herramientas de estimación que permitan recoger la heterogeneidad de los consumidores. De esta manera, el efecto de los ingresos o de la situación económica de un hogar puede verse compensado por la presencia de otras variables ya sean preferencias o determinantes sociodemográficos.
En cuanto a la novedad de introducir el efecto de la crisis, los resultados obtenidos ponen de manifiesto que ante ésta, los hogares modifican parcialmente sus criterios de decisión. En un entorno social de crisis económica los hogares otorgan a los ingresos un papel más conservador en la decisión de participación; no obstante, una vez tomada esa decisión, el gasto efectivo es más sensible al nivel de ingresos del hogar. Los resultados obtenidos revelan la conveniencia de incluir información sobre la situación laboral del sustentador principal, y si cabe, del resto de miembros en las decisiones de participación, frecuencia de viaje y gasto turístico. En España, dónde su economía se caracteriza por las elevadas tasas de desempleo y donde el ciclo económico afecta a la permanencia de empleo de los individuos, esta consideración ayuda a obtener una imagen más real sobre el comportamiento del hogar. Como se observa en los resultados el desempleo tiene un efecto negativo en las decisiones de consumo turístico que es coherente con la literatura revisada.
El seguimiento y análisis de la demanda turística debe realizarse en un entorno de constantes cambios y, en la actualidad, con perspectivas de estancamiento. La tesis contribuye al análisis de la demanda turística señalando la heterogeneidad de comportamiento y preferencias de los consumidores, para los que el nivel de ingresos es sólo un factor en el conjunto de determinantes económicos y sociodemográficos que afectan a sus decisiones de consumo.
|
150 |
Singing-driven interfaces for sound synthesizersJaner Mestres, Jordi 14 March 2008 (has links)
Els instruments musicals digitals es descomponen usualment en dues parts: la interfície d'usuari i el motor de síntesi. Tradicionalment la interfície d'usuari pren el nom de controlador musical. L'objectiu d'aquesta tesi és el disseny d'un interfície que permeti el control de la síntesi de sons instrumentals a partir de la veu cantada.Amb la present recerca, intentem relacionar la veu amb el so dels instruments musicals, tenint en compte tan la descripció del senyal de veu, com les corresponents estratègies de mapeig per un control adequat del sintetitzador.Proposem dos enfocaments diferents, d'una banda el control d'un sintetitzador de veu cantada, i d'altra banda el control de la síntesi de sons instrumentals. Per aquest últim, suggerim una representació del senyal de veu com a gests vocals, que inclou una sèrie d'algoritmes d'anàlisis de veu. A la vegada, per demostrar els resultats obtinguts, hem desenvolupat dos prototips a temps real. / Los instrumentos musicales digitales se pueden separar en dos componentes: el interfaz de usuario y el motor de sintesis. El interfaz de usuario se ha denominado tradicionalmente controlador musical. El objectivo de esta tesis es el diseño de un interfaz que permita el control de la sintesis de sonidos instrumentales a partir de la voz cantada.La presente investigación pretende relacionar las caracteristicas de la voz con el sonido de los instrumentos musicales, teniendo en cuenta la descripción de la señal de voz, como las correspondientes estrategias de mapeo para un control apropiado del sintetizador. Se proponen dos enfoques distintos, el control de un sintetizador de voz cantada, y el control de la sintesis de sonidos insturmentales. Para este último, se sugiere una representación de la señal de voz como gestos vocales, incluyendo varios algoritmos de analisis de voz. Los resultados obtenidos se demuestran con dos prototipos a tiempo real. / Digital musical instruments are usually decomposed in two main constituent parts: a user interface and a sound synthesis engine. The user interface is popularly referred as a musical controller, and its design is the primary objective of this dissertation. Under the title of singing-driven interfaces, we aim to design systems that allow controlling the synthesis of musical instruments sounds with the singing voice. This dissertation searches for the relationships between the voice and the sound of musical instruments by addressing both, the voice signal description, as well as the mapping strategies for a meaningful control of the synthesized sound. We propose two different approaches, one for controlling a singing voice synthesizer, and another for controlling the synthesis of instrumental sounds. For the latter, we suggest to represent voice signal as vocal gestures, contributing with several voice analysis methods.To demonstrate the obtained results, we developed two real-time prototypes.
|
Page generated in 0.0781 seconds