• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 258
  • 44
  • 2
  • Tagged with
  • 304
  • 304
  • 142
  • 80
  • 80
  • 80
  • 80
  • 80
  • 64
  • 63
  • 47
  • 47
  • 43
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Optimal Deep Learning Assisted Design of Socially and Environmentally Efficient Steel Concrete Composite Bridges under Constrained Budgets

Martínez Muñoz, David 06 September 2023 (has links)
Tesis por compendio / [ES] El diseño de infraestructuras está fuertemente influido por la búsqueda de soluciones que tengan en cuenta el impacto en la economía, el medio ambiente y la sociedad. Estos criterios están muy relacionados con la definición de sostenibilidad que hizo la Comisión Brundtland en 1987. Este hito supuso un reto para técnicos, científicos y legisladores. Este reto consistía en generar métodos, criterios, herramientas y normativas que permitieran incluir el concepto de sostenibilidad en el desarrollo y diseño de nuevas infraestructuras. Desde entonces, se han producido pequeños avances en la búsqueda de la sostenibilidad, pero se necesitan más a corto plazo. Como plan de acción, las Naciones Unidas establecieron los Objetivos de Desarrollo Sostenible, fijando el año 2030 como meta para alcanzarlos. Dentro de estos objetivos, las infraestructuras se postulan como un punto crítico. Tradicionalmente, se han desarrollado métodos para obtener diseños óptimos desde el punto de vista del impacto económico. Sin embargo, aunque en los últimos tiempos se ha avanzado en la aplicación y utilización de métodos de análisis del ciclo de vida completo, aún falta un consenso claro, especialmente en el pilar social de la sostenibilidad. Dado que la sostenibilidad engloba diferentes criterios, que en principio no van necesariamente de la mano, el problema de la búsqueda de la sostenibilidad se plantea no sólo como un problema de optimización, sino también como un problema de toma de decisiones multi-criterio. El objetivo principal de esta tesis doctoral es proponer diferentes metodologías para la obtención de diseños óptimos que introduzcan los pilares de la sostenibilidad en el diseño de puentes mixtos acero-hormigón. Como problema estructural representativo se propone un puente viga en cajón de tres vanos mixto. Dada la complejidad de la estructura, en la que intervienen 34 variables discretas, la optimización con métodos matemáticos resulta inabordable. Por ello, se propone el uso de algoritmos metaheurísticos. Esta complejidad también se traduce en un alto coste computacional para el modelo, por lo que se implementa un modelo de redes neuronales profundas que permite la validación del diseño sin necesidad de computación. Dada la naturaleza discreta del problema, se proponen técnicas de discretización para adaptar los algoritmos al problema de optimización estructural. Además, para mejorar las soluciones obtenidas a partir de estos algoritmos discretos, se introducen métodos de hibridación basados en la técnica K-means y operadores de mutación en función del tipo de algoritmo. Los algoritmos utilizados se clasifican en dos ramas. La primera son los basados en trayectorias como el Simulated Annealing, Threshold Accepting y el Algoritmo del Solterón. Por otra parte, se utilizan algoritmos de inteligencia de enjambre como Jaya, Sine Cosine Algorithm y Cuckoo Search. La metodología de Análisis del Ciclo de Vida definida en la norma ISO 14040 se utiliza para evaluar el impacto social y medioambiental de los diseños propuestos. La aplicación de esta metodología permite evaluar el impacto y compararlo con otros diseños. La evaluación mono-objetivo de los diferentes criterios lleva a la conclusión de que la optimización de costes está asociada a una reducción del impacto medioambiental y social de la estructura. Sin embargo, la optimización de los criterios medioambientales y sociales no reduce necesariamente los costes. Por ello, para realizar una optimización multi-objetivo y encontrar una solución de compromiso, se implementa una técnica basada en la Teoría de Juegos, proponiendo una estrategia de juego cooperativo. La técnica multi-criterio utilizada es la Teoría de la Entropía para asignar pesos a los criterios para la función objetivo agregada. Los criterios considerados son los tres pilares de la sostenibilidad y la facilidad constructiva de la losa superior. Aplicando esta técnica se obtiene un diseño óptimo relativo a los tres pilares de la soste / [CAT] El disseny d'infraestructures està fortament influït per la cerca de solucions que tinguen en compte l'impacte en l'economia, el medi ambient i la societat. Aquests criteris estan molt relacionats amb la definició de sostenibilitat que va fer la Comissió Brundtland en 1987. Aquesta fita va suposar un repte per a tècnics, científics i legisladors. Aquest repte consistia a generar mètodes, criteris, eines i normatives que permeteren incloure el concepte de sostenibilitat en el desenvolupament i disseny de noves infraestructures. Des de llavors, s'han produït xicotets avanços en la cerca de la sostenibilitat, però es necessiten més a curt termini. Com a pla d'acció, les Nacions Unides van establir els Objectius de Desenvolupament Sostenible, fixant l'any 2030 com a meta per aconseguir-los. Dins d'aquests objectius, les infraestructures es postulen com un punt crític. Tradicionalment, s'han desenvolupat mètodes per a obtindre dissenys òptims des del punt de vista de l'impacte econòmic. No obstant això, encara que en els últims temps s'ha avançat en l'aplicació i utilització de mètodes d'anàlisis del cicle de vida complet, encara falta un consens clar, especialment en el pilar social de la sostenibilitat. Atés que la sostenibilitat engloba diferents criteris, que en principi no van necessàriament de la mà, el problema de la cerca de la sostenibilitat es planteja no sols com un problema d'optimització, sinó també com un problema de presa de decisions multi-criteri. L'objectiu principal d'aquesta tesi doctoral és proposar diferents metodologies per a l'obtenció de dissenys òptims que introduïsquen els pilars de la sostenibilitat en el disseny de ponts mixtos. Com a problema estructural representatiu es proposa un pont viga en calaix de tres vans mixt. Donada la complexitat de l'estructura, en la qual intervenen 34 variables discretes, l'optimització amb mètodes matemàtics resulta inabordable. Per això, es proposa l'ús d'algorismes metaheurísticos. Aquesta complexitat també es tradueix en un alt cost computacional per al model, per la qual cosa s'implementa un model de xarxes neuronals profundes que permet la validació del disseny sense necessitat de computació. Donada la naturalesa discreta del problema, es proposen tècniques de discretització per a adaptar els algorismes al problema d'optimització estructural. A més, per a millorar les solucions obtingudes a partir d'aquests algorismes discrets, s'introdueixen mètodes d'hibridació basats en la tècnica K-*means i operadors de mutació en funció del tipus d'algorisme. Els algorismes utilitzats es classifiquen en dues branques. La primera són els basats en trajectòries com la Simulated Annealing, Threshold Accepting i el Old Bachelor Acceptance. D'altra banda, s'utilitzen algorismes d'intel·ligència d'eixam com Jaya, Sine Cosine Algorithm i Cuckoo Search. La metodologia d'Anàlisi del Cicle de Vida definida en la norma ISO 14040 s'utilitza per a avaluar l'impacte social i mediambiental dels dissenys proposats. L'aplicació d'aquesta metodologia permet avaluar l'impacte i comparar-lo amb altres dissenys. L'avaluació mono-objectiu dels diferents criteris porta a la conclusió que l'optimització de costos està associada a una reducció de l'impacte mediambiental i social de l'estructura. No obstant això, l'optimització dels criteris mediambientals i socials no redueix necessàriament els costos. Per això, per a realitzar una optimització multi-objectiu i trobar una solució de compromís, s'implementa una tècnica basada en la Teoria de Jocs, proposant una estratègia de joc cooperatiu. La tècnica multi-criteri utilitzada és la Teoria de l'Entropia per a assignar pesos als criteris per a la funció objectiu agregada. Els criteris considerats són els tres pilars de la sostenibilitat i la facilitat constructiva de la llosa superior. Aplicant aquesta tècnica s'obté un disseny òptim relatiu als tres pilars de la sostenibilitat i a partir del qual es millora la facilitat constructiva. / [EN] Infrastructure design is strongly influenced by the search for solutions considering the impact on the economy, the environment, and society. These criteria were strongly related to the definition of sustainability by the Brundtland Commission in 1987. This milestone posed a challenge for technicians, scientists, and legislators alike. This challenge consisted of generating methods, criteria, tools, and regulations that would allow the inclusion of the concept of sustainability in developing and designing new infrastructures. Since then, small advances have been made in the search for sustainability, but they need more in the short term. As an action plan, the United Nations established the Sustainable Development Goals, setting the year 2030 as the target for achieving them. Within these goals, infrastructure is postulated as a critical point. Traditionally, methods have been developed to obtain optimal designs from the point of view of economic impact. However, although recent advances have been made in implementing and using complete life cycle analysis methods, there still needs to be a clear consensus, especially in the social pillar of sustainability. Given that sustainability encompasses different criteria, which in principle do not necessarily go hand in hand, the problem of finding sustainability is posed not only as an optimization problem but also as a multi-criteria decision-making problem. The main objective of this doctoral thesis is to propose different methodologies for obtaining optimal designs that introduce the pillars of sustainability in the design of steel-concrete composite bridges. A three-span box-girder bridge is proposed as a representative structural problem. Given the complexity of the structure, which involves 34 discrete variables, optimization with mathematical methods is unaffordable. Therefore, the use of metaheuristic algorithms is proposed. This complexity also translates into a high computational cost for the model, so a deep neural networks model is implemented to allow the validation of the design without the need for computation. Given the problem's discrete nature, discretization techniques are proposed to adapt the algorithms to the structural optimization problem. In addition, to improve the solutions obtained from these discrete algorithms, hybridization methods based on the K-means technique and mutation operators are introduced depending on the type of algorithm. The algorithms used are classified into two branches. The first are those based on trajectories such as Simulated Annealing, Threshold Accepting, and Old Bachelor Acceptance. Moreover, swarm intelligence algorithms such as Jaya, Sine Cosine Algorithm, and Cuckoo Search are used. The Life Cycle Assessment methodology defined in the ISO 14040 standard is used to evaluate the social and environmental impact of the proposed designs. The application of this methodology allows the evaluation of the impact and comparison with other designs. The single-objective evaluation of the different criteria leads to the conclusion that cost optimization is associated with a reduction of the environmental and social impact of the structure. However, optimizing environmental and social criteria does not necessarily reduce costs. Therefore, to perform a multi-objective optimization and find a compromise solution, a technique based on Game Theory is implemented, proposing a cooperative game strategy. The multi-criteria technique used is the Entropy Theory to assign criteria weights for the aggregate objective function. The criteria considered are the three pillars of sustainability and the constructive ease of the top slab. Applying this technique results in an optimal design concerning the three pillars of sustainability and from which the constructive ease is improved. / I would like to thank the Spanish Ministry of Science and Innovation. This research would not have been possible without the support of grant FPU-18/01592, funded by MCIN/AEI/10.13039/501100011033, "ESF invests in your future", as well as the financial assistance provided by DIMALIFE (BIA2017-85098-R) and HYDELIFE (PID2020-117056RB-I00), both funded by MCIN/AEI/10.13039/5011-00011033, and "ERDF A way of making Europe". / Martínez Muñoz, D. (2023). Optimal Deep Learning Assisted Design of Socially and Environmentally Efficient Steel Concrete Composite Bridges under Constrained Budgets [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/195967 / Compendio
302

Aprendizaje profundo y biomarcadores de imagen en el estudio de enfermedades metabólicas y hepáticas a partir de resonancia magnética y tomografía computarizada

Jimenez Pastor, Ana Maria 05 February 2024 (has links)
[ES] El síndrome metabólico se define como un conjunto de trastornos (e.g., niveles elevados de presión arterial, niveles elevados de glucosa en sangre, exceso de grasa abdominal o niveles elevados de colesterol o triglicéridos) que afectan a un individuo al mismo tiempo. La presencia de uno de estos factores no implica un riesgo elevado para la salud, sin embargo, presentar varios de ellos aumenta la probabilidad de sufrir enfermedades secundarias como la enfermedad cardiovascular o la diabetes tipo II. Las enfermedades difusas hepáticas son todas aquellas enfermedades que afectan a las células funcionales del hígado, los hepatocitos, alterando, de este modo, la función hepática. En estos procesos, los hepatocitos se ven sustituidos por adipocitos y tejido fibroso. La enfermedad de hígado graso no alcohólico es una afección reversible originada por la acumulación de triglicéridos en los hepatocitos. El alcoholismo, la obesidad, y la diabetes son las causas más comunes de esta enfermedad. Este estado del hígado es reversible si se cambia la dieta del paciente, sin embargo, si este no se cuida, la enfermedad puede ir avanzando hacia estadios más severos, desencadenando fibrosis, cirrosis e incluso carcinoma hepatocelular (CHC). La temprana detección de todos estos procesos es de gran importancia en la mejora del pronóstico de los pacientes. Así, las técnicas de imagen en combinación con modelos computacionales permiten caracterizar el tejido mediante la extracción de parámetros objetivos, conocidos como biomarcadores de imagen, relacionados con estos procesos fisiológicos y patológicos, permitiendo una estadificación más precisa de las enfermedades. Además, gracias a las técnicas de inteligencia artificial, se pueden desarrollar algoritmos de segmentación automática que permitan realizar dicha caracterización de manera completamente automática y acelerar, de este modo, el flujo radiológico. Por todo esto, en la presente tesis doctoral, se presenta una metodología para el desarrollo de modelos de segmentación y cuantificación automática, siendo aplicada a tres casos de uso. Para el estudio del síndrome metabólico se propone un método de segmentación automática de la grasa visceral y subcutánea en imágenes de tomografía computarizada (TC), para el estudio de la enfermedad hepática difusa se propone un método de segmentación hepática y cuantificación de la grasa y hierro hepáticos en imágenes de resonancia magnética (RM), y, finalmente, para el estudio del CHC, se propone un método de segmentación hepática y cuantificación de los descriptores de la curva de perfusión en imágenes de RM. Todo esto se ha integrado en una plataforma que permite su integración en la práctica clínica. Así, se han adaptado los algoritmos desarrollados para ser ejecutados en contenedores Docker de forma que, dada una imagen de entrada, generen los parámetros cuantitativos de salida junto con un informe que resuma dichos resultados; se han implementado herramientas para que los usuarios puedan interactuar con las segmentaciones generadas por los algoritmos de segmentación automática desarrollados; finalmente, éstos se han implementado de forma que generen dichas segmentaciones en formatos estándar como DICOM RT Struct o DICOM Seg, para garantizar la interoperabilidad con el resto de sistemas sanitarios. / [CA] La síndrome metabòlica es defineix com un conjunt de trastorns (e.g., nivells elevats de pressió arterial, nivells elevats de glucosa en sang, excés de greix abdominal o nivells elevats de colesterol o triglicèrids) que afecten un individu al mateix temps. La presència d'un d'aquests factors no implica un risc elevat per a la salut, no obstant això, presentar diversos d'ells augmenta la probabilitat de patir malalties secundàries com la malaltia cardiovascular o la diabetis tipus II. Les malalties difuses hepàtiques són totes aquelles malalties que afecten les cèl·lules funcionals del fetge, els hepatòcits, alterant, d'aquesta manera, la funció hepàtica. En aquests processos, els hepatòcits es veuen substituïts per adipòcits i teixit fibrós. La malaltia de fetge gras no alcohòlic és una afecció reversible originada per l'acumulació de triglicèrids en els hepatòcits. L'alcoholisme, l'obesitat, i la diabetis són les causes més comunes d'aquesta malaltia. Aquest estat del fetge és reversible si es canvia la dieta del pacient, no obstant això, si aquest no es cuida, la malaltia pot anar avançant cap a estadis més severs, desencadenant fibrosis, cirrosis i fins i tot carcinoma hepatocel·lular (CHC). La primerenca detecció de tots aquests processos és de gran importància en la millora del pronòstic dels pacients. Així, les tècniques d'imatge en combinació amb models computacionals permeten caracteritzar el teixit mitjançant l'extracció paràmetres objectius, coneguts com biomarcadores d'imatge, relacionats amb aquests processos fisiològics i patològics, permetent una estratificació més precisa de les malalties. A més, gràcies a les tècniques d'intel·ligència artificial, es poden desenvolupar algorismes de segmentació automàtica que permeten realitzar aquesta caracterització de manera completament automàtica i accelerar, d'aquesta manera, el flux radiològic. Per tot això, en la present tesi doctoral, es presenta una metodologia per al desenvolupament de models de segmentació i quantificació automàtica, sent aplicada a tres casos d'ús. Per a l'estudi de la síndrome metabòlica es proposa un mètode de segmentació automàtica del greix visceral i subcutani en imatges de tomografia computada (TC), per a l'estudi de la malaltia hepàtica difusa es proposa un mètode segmentació hepàtica i quantificació del greix i ferro hepàtics en imatges de ressonància magnètica (RM), i, finalment, per a l'estudi del CHC, es proposa un mètode de segmentació hepàtica i quantificació dels descriptors de la corba de perfusió en imatges de RM. Tot això s'ha integrat en una plataforma que permet la seua integració en la pràctica clínica. Així, s'han adaptat els algorismes desenvolupats per a ser executats en contenidors Docker de manera que, donada una imatge d'entrada, generen els paràmetres quantitatius d'eixida juntament amb un informe que resumisca aquests resultats; s'han implementat eines perquè els usuaris puguen interactuar amb les segmentacions generades pels algorismes de segmentació automàtica desenvolupats; finalment, aquests s'han implementat de manera que generen aquestes segmentacions en formats estàndard com DICOM RT Struct o DICOM Seg, per a garantir la interoperabilitat amb la resta de sistemes sanitaris. / [EN] Metabolic syndrome is defined as a group of disorders (e.g., high blood pressure, high blood glucose levels, excess abdominal fat, or high cholesterol or triglyceride levels) that affect an individual at the same time. The presence of one of these factors does not imply an elevated health risk; however, having several of them increases the probability of secondary diseases such as cardiovascular disease or type II diabetes. Diffuse liver diseases are all those diseases that affect the functional cells of the liver, the hepatocytes, thus altering liver function. In these processes, the hepatocytes are replaced by adipocytes and fibrous tissue. Non-alcoholic fatty liver disease is a reversible condition caused by the accumulation of triglycerides in hepatocytes. Alcoholism, obesity, and diabetes are the most common causes of this disease. This liver condition is reversible if the patient's diet is changed; however, if the patient is not cared for, the disease can progress to more severe stages, triggering fibrosis, cirrhosis and even hepatocellular carcinoma (HCC). Early detection of all these processes is of great importance in improving patient prognosis. Thus, imaging techniques in combination with computational models allow tissue characterization by extracting objective parameters, known as imaging biomarkers, related to these physiological and pathological processes, allowing a more accurate statification of diseases. Moreover, thanks to artificial intelligence techniques, it is possible to develop automatic segmentation algorithms that allow to perform such characterization in a fully automatic way and thus accelerate the radiological workflow. Therefore, in this PhD, a methodology for the development of automatic segmentation and quantification models is presented and applied to three use cases. For the study of metabolic syndrome, a method of automatic segmentation of visceral and subcutaneous fat in computed tomography (CT) images is proposed; for the study of diffuse liver disease, a method of liver segmentation and quantification of hepatic fat and iron in magnetic resonance imaging (MRI) is proposed; and, finally, for the study of HCC, a method of liver segmentation and quantification of perfusion curve descriptors in MRI is proposed. All this has been integrated into a platform that allows its integration into clinical practice. Thus, the developed algorithms have been adapted to be executed in Docker containers so that, given an input image, they generate the quantitative output parameters together with a report summarizing these results; tools have been implemented so that users can interact with the segmentations generated by the automatic segmentation algorithms developed; finally, these have been implemented so that they generate these segmentations in standard formats such as DICOM RT Struct or DICOM Seg, to ensure interoperability with other health systems. / Jimenez Pastor, AM. (2023). Aprendizaje profundo y biomarcadores de imagen en el estudio de enfermedades metabólicas y hepáticas a partir de resonancia magnética y tomografía computarizada [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202602
303

Tomografía ultrasónica para la evaluación de daño por gradiente en materiales cementantes

Gallardo Llopis, Carles 25 May 2024 (has links)
[ES] Hoy en día, los materiales cementicios están presentes en la gran mayoría de las infraestructuras de nuestro entorno, como pueden ser el hormigón y el mortero, debido a su bajo coste y sus características mecánicas estructurales y de durabilidad. Pese a todo, estas se ven degradadas por factores externos e internos, reduciendo la viabilidad de estos con el paso del tiempo. Para inspeccionar estos materiales se han creado múltiples ensayos destructivos (ED) y ensayos no destructivos (END) que indican mediante ciertos parámetros el estado de los materiales de construcción. Dentro de los no destructivos, encontramos los ultrasonidos cuya propagación en estos materiales otorga información sobre su estado y estructura interna. Entre los múltiples ensayos ultrasónicos se encuentra la tomografía ultrasónica cuya base nace gracias a las Tomografías Computarizadas (TC): se ilumina un objeto mediante una fuente y se reciben las señales mediante los receptores. Se rota entorno al objeto bajo estudio combinando las señales mediante los algoritmos tomográficos y obteniendo una reconstrucción del objeto interno sin producirle ningún tipo de daño. No obstante, aunque para determinadas longitudes de onda podemos asumir una trayectoria de rayo recto, los ultrasonidos son ondas dispersivas que se difractan y se reflejan alejándose de esta condición de idoneidad afectando negativamente a las reconstrucciones. En esta tesis se estudia la tomografía de ultrasonidos aplicada a probetas de mortero. Para ello, previamente se realiza un estudio de los algoritmos de reconstrucción tomográfica donde se hace un recorrido por los principales algoritmos convencionales. Los transformados (FBP y DFT) cuyos resultados son excelentes en caso de que tengamos un nivel elevado de rayos y direcciones que conforman las proyecciones. Los algoritmos de redes neuronales (BPE y RBF) y métodos algebraicos (ART, CART, SART y SIRT) presentan buenos resultados en aquellas situaciones donde se tenga un bajo número de rayos y direcciones o alta presencia de ruido. Se comparan entre ellos mediante proyecciones obtenidas con señales simuladas y se obtienen los mejores resultados para el algoritmo FBP, con lo que las siguientes reconstrucciones reales se llevan a cabo con este método. La aplicación en la que se centra este trabajo consiste en la detección del frente de carbonatación en probetas cementicias. Es por ello que se diseñan diferentes casos de probetas con daño y sin daño para validar el funcionamiento de un sistema tomográfico. Se diseña y se construye el sistema hardware capaz de la toma automatizada de medidas empleando una configuración de rayos paralelos o de rayos en abanico. Además, se ha adaptado para que sea capaz de inspeccionar tanto con transductores acoplados por aire como inspeccionar el objeto en inmersión (acoplamiento por agua). Se concluye que la tomografía por inmersión ofrece una solución de compromiso entre transferencia de energía y proceso de automatización. Además se implementan dos modelos de redes neuronales entrenados mediante sinogramas simulados para posteriormente reconstruir casos reales. Todos los algoritmos y casos son evaluados tanto en calidad de reconstrucción como en prestaciones. / [CA] Avui dia, els materials cimentants són presents a la majoria de les infraestructures del nostre entorn com poden ser el formigó i el morter, donat el seu baix cost i les seues característiques mecànic estructurals i la seua durabilitat. Malgrat tot, aquestes es veuen degradades per factors externs i interns, reduint la seua viabilitat amb el pas del temps. Per inspeccionar dits materials s'han creat múltiples assajos destructius (AD) i assajos no destructius (AND) que indiquen mitjançant certs paràmetres l'estat dels materials de construcció. Dins del no destructius trobem els ultrasons, la propagació dels quals per aquests materials ens aporta informació sobre el seu estat i estructura interna. Entre els múltiples assajos ultrasònics, es troba la tomografia ultrasònica, la base de la qual neix gràcies a les Tomografies Computeritzades (TC): s'il·lumina un objecte per mitjà d'una font i es reben les senyals a través dels receptors. Es rota entorn l'objecte en estudi combinant les senyals mitjançant els algoritmes tomogràfics i obtenint una reconstrucció de l'objecte intern sense produir-li cap tipus de dany. No obstant això, i encara que per a determinades longituds d'ona podem assumir una trajectòria recta del raig, els ultrasons són ones dispersives que es difracten i reflecteixen, allunyant-se d'aquesta condició d'idoneïtat i afectant negativament les reconstruccions. En aquesta tesi s'estudia la tomografia d'ultrasons aplicada a provetes de morter. Amb aquesta finalitat, prèviament es realitza un estudi dels algoritmes de reconstrucció tomogràfica on es fa un recorregut pels principals algoritmes convencionals. Els transformats (FDB i DFT) els resultats dels quals son excel·lents en cas que tinguem un nivell elevat de raigs i direccions que conformen les projeccions. Els algoritmes de xarxes neuronals (BPE i RBF) i mètodes algebraics (ART, CART, SART i SIRT) presenten bons resultats en aquelles situacions on es tingui un baix número de raigs i direccions o una alta presència de soroll. Es comparen entre ells per mitjà de projeccions obtingudes amb senyals simulades i s'obtenen els millors resultats per a l'algoritme FBP, duent-se a terme les següents reconstruccions amb aquest mètode. L'aplicació en la que es centra aquest treball consisteix en la detecció del front de carbonatació en provetes cimentants. És per això que es dissenyen diferents casos de provetes amb desperfectes i sense desperfectes per validar el funcionament d'un sistema tomogràfic. Es dissenya i es construeix el sistema hardware capaç de la presa automatitzada de mesures emprant una configuració de raigs paral·lels o de raigs en ventall. A més, s'ha adaptat per a que sigui capaç d'inspeccionar tant amb transductors acoblats per aire com inspeccionar l'objecte en immersió (acoblament per aigua). Es conclou que la tomografia per immersió ofereix una solució de compromís entre la transferència d'energia i el procés d'automatització. A més s'implenten dos models de xarxes neuronals entrenats per mitjà de sinogrames simulats per a posteriorment reconstruir casos reals. Tots els algoritmes i casos són avaluats tant en qualitat de reconstrucció com en prestacions. / [EN] Nowadays, cementitious materials are present in the great majority of our surrounding infrastructures such as concrete and mortar, due to its low cost mechanic-structural features and its lasting. Nevertheless, this characteristics are degraded because of external and internal factors, reducing its viability over time. In order to inspect this materials, multiple destructive testing (DT) and non-destructive testing (NDT) have been created. This trials show construction materials conditions with certain parameters. In the non-destructive group, we found ultrasounds whose spreading in this materials gives us information about their condition and internal structure. Among the multiple ultrasonic tests, we can find the ultrasonic tomography which is based in the Computed Tomography Scans (CT) basis: an object is illuminated by a source and signals are received through receivers. Rotation is made around the object under study combining the signals using tomographic algorithms for the purpose of obtaining an internal object reconstruction without damaging it. However we can assume a straight beam path for certain wavelengths, ultrasound are dispersive waves that diffract and reflect, making them less suitable because they worsen the quality of reconstructions. In this thesis, the ultrasonic tomography applied to mortar specimens is studied. For that, a study of tomographic reconstruction algorithms is carried out and the main conventional algorithms are reviewed. The transforms (FBD and DFT) whose results are excellent in case we have a high level of beams and directions that make up the projections. The neuronal network algorithms (BPE and RBF) and the ones for algebraic methods (ART, CART, SART and SIRT) have good results in situations where a low number of beams and directions or high noise presence are found. A comparation between them is made using projections obtained with simulated signals and the best FBP algorithm results are extracted. The following real reconstructions are carried out with this method. The application on which this work focuses consists of the detection of the carbonation front in cementitious specimens. That is why different types of specimens with damage and without damage are designed to validate a tomographic system function. A hardware system capable of taking automated measures using a configuration of parallel beams or fan beams is designed and built. Moreover, it has been adapted to be able to inspect both with air-coupled transducers and to inspect the object while submerged (water coupled). It is concluded that immersion tomography offers a compromise solution between energy transfer and automation process. Two models of neuronal networks trained through simulated sinograms are also implemented to reconstruct real cases afterwards. All the algorithms and cases are evaluated both in reconstruction quality and in features. / Gallardo Llopis, C. (2023). Tomografía ultrasónica para la evaluación de daño por gradiente en materiales cementantes [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/194552
304

Analysis Design and Implementation of Artificial Intelligence Techniques in Edge Computing Environments

Hernández Vicente, Daniel 27 March 2023 (has links)
Tesis por compendio / [ES] Edge Computing es un modelo de computación emergente basado en acercar el procesamiento a los dispositivos de captura de datos en las infraestructuras Internet of things (IoT). Edge computing mejora, entre otras cosas, los tiempos de respuesta, ahorra anchos de banda, incrementa la seguridad de los servicios y oculta las caídas transitorias de la red. Este paradigma actúa en contraposición a la ejecución de servicios en entornos cloud y es muy útil cuando se desea desarrollar soluciones de inteligencia artificial (AI) que aborden problemas en entornos de desastres naturales, como pueden ser inundaciones, incendios u otros eventos derivados del cambio climático. La cobertura de estos escenarios puede resultar especialmente difícil debido a la escasez de infraestructuras disponibles, lo que a menudo impide un análisis de los datos basado en la nube en tiempo real. Por lo tanto, es fundamental habilitar técnicas de IA que no dependan de sistemas de cómputo externos y que puedan ser embebidas en dispositivos de móviles como vehículos aéreos no tripulados (VANT), para que puedan captar y procesar información que permita inferir posibles situaciones de emergencia y determinar así el curso de acción más adecuado de manera autónoma. Históricamente, se hacía frente a este tipo de problemas utilizando los VANT como dispositivos de recogida de datos con el fin de, posteriormente, enviar esta información a la nube donde se dispone de servidores capacitados para analizar esta ingente cantidad de información. Este nuevo enfoque pretende realizar todo el procesamiento y la obtención de resultados en el VANT o en un dispositivo local complementario. Esta aproximación permite eliminar la dependencia de un centro de cómputo remoto que añade complejidad a la infraestructura y que no es una opción en escenarios específicos, donde las conexiones inalámbricas no cumplen los requisitos de transferencia de datos o son entornos en los que la información tiene que obtenerse en ese preciso momento, por requisitos de seguridad o inmediatez. Esta tesis doctoral está compuesta de tres propuestas principales. En primer lugar se plantea un sistema de despegue de enjambres de VANTs basado en el algoritmo de Kuhn Munkres que resuelve el problema de asignación en tiempo polinómico. Nuestra evaluación estudia la complejidad de despegue de grandes enjambres y analiza el coste computacional y de calidad de nuestra propuesta. La segunda propuesta es la definición de una secuencia de procesamiento de imágenes de catástrofes naturales tomadas desde drones basada en Deep learning (DL). El objetivo es reducir el número de imágenes que deben procesar los servicios de emergencias en la catástrofe natural para poder tomar acciones sobre el terreno de una manera más rápida. Por último, se utiliza un conjunto de datos de imágenes obtenidas con VANTs y relativas a diferentes inundaciones, en concreto, de la DANA de 2019, cedidas por el Ayuntamiento de San Javier, ejecutando un modelo DL de segmentación semántica que determina automáticamente las regiones más afectadas por las lluvias (zonas inundadas). Entre los resultados obtenidos se destacan los siguientes: 1- la mejora drástica del rendimiento del despegue vertical coordinado de una red de VANTs. 2- La propuesta de un modelo no supervisado para la vigilancia de zonas desconocidas representa un avance para la exploración autónoma mediante VANTs. Esto permite una visión global de una zona concreta sin realizar un estudio detallado de la misma. 3- Por último, un modelo de segmentación semántica de las zonas inundadas, desplegado para el procesamiento de imágenes en el VANTs, permite la obtención de datos de inundaciones en tiempo real (respetando la privacidad) para una reconstrucción virtual fidedigna del evento. Esta tesis ofrece una propuesta para mejorar el despegue coordinado de drones y dotar de capacidad de procesamiento de algoritmos de deep learning a dispositivos edge, más concretamente UAVs autónomos. / [CA] Edge Computing és un model de computació emergent basat a acostar el processament als dispositius de captura de dades en les infraestructures Internet of things (IoT). Edge computing millora, entre altres coses, els temps de resposta, estalvia amplades de banda, incrementa la seguretat dels serveis i oculta les caigudes transitòries de la xarxa. Aquest paradigma actua en contraposició a l'execució de serveis en entorns cloud i és molt útil quan es desitja desenvolupar solucions d'intel·ligència artificial (AI) que aborden problemes en entorns de desastres naturals, com poden ser inundacions, incendis o altres esdeveniments derivats del canvi climàtic. La cobertura d'aquests escenaris pot resultar especialment difícil a causa de l'escassetat d'infraestructures disponibles, la qual cosa sovint impedeix una anàlisi de les dades basat en el núvol en temps real. Per tant, és fonamental habilitar tècniques de IA que no depenguen de sistemes de còmput externs i que puguen ser embegudes en dispositius de mòbils com a vehicles aeris no tripulats (VANT), perquè puguen captar i processar informació per a inferir possibles situacions d'emergència i determinar així el curs d'acció més adequat de manera autònoma. Històricament, es feia front a aquesta mena de problemes utilitzant els VANT com a dispositius de recollida de dades amb la finalitat de, posteriorment, enviar aquesta informació al núvol on es disposa de servidors capacitats per a analitzar aquesta ingent quantitat d'informació. Aquest nou enfocament pretén realitzar tot el processament i l'obtenció de resultats en el VANT o en un dispositiu local complementari. Aquesta aproximació permet eliminar la dependència d'un centre de còmput remot que afig complexitat a la infraestructura i que no és una opció en escenaris específics, on les connexions sense fils no compleixen els requisits de transferència de dades o són entorns en els quals la informació ha d'obtindre's en aqueix precís moment, per requisits de seguretat o immediatesa. Aquesta tesi doctoral està composta de tres propostes principals. En primer lloc es planteja un sistema d'enlairament d'eixams de VANTs basat en l'algorisme de Kuhn Munkres que resol el problema d'assignació en temps polinòmic. La nostra avaluació estudia la complexitat d'enlairament de grans eixams i analitza el cost computacional i de qualitat de la nostra proposta. La segona proposta és la definició d'una seqüència de processament d'imatges de catàstrofes naturals preses des de drons basada en Deep learning (DL).L'objectiu és reduir el nombre d'imatges que han de processar els serveis d'emergències en la catàstrofe natural per a poder prendre accions sobre el terreny d'una manera més ràpida. Finalment, s'utilitza un conjunt de dades d'imatges obtingudes amb VANTs i relatives a diferents inundacions, en concret, de la DANA de 2019, cedides per l'Ajuntament de San Javier, executant un model DL de segmentació semàntica que determina automàticament les regions més afectades per les pluges (zones inundades). Entre els resultats obtinguts es destaquen els següents: 1- la millora dràstica del rendiment de l'enlairament vertical coordinat d'una xarxa de VANTs. 2- La proposta d'un model no supervisat per a la vigilància de zones desconegudes representa un avanç per a l'exploració autònoma mitjançant VANTs. Això permet una visió global d'una zona concreta sense realitzar un estudi detallat d'aquesta. 3- Finalment, un model de segmentació semàntica de les zones inundades, desplegat per al processament d'imatges en el VANTs, permet l'obtenció de dades d'inundacions en temps real (respectant la privacitat) per a una reconstrucció virtual fidedigna de l'esdeveniment. / [EN] Edge Computing is an emerging computing model based on bringing data processing and storage closer to the location needed to improve response times and save bandwidth. This new paradigm acts as opposed to running services in cloud environments and is very useful in developing artificial intelligence (AI) solutions that address problems in natural disaster environments, such as floods, fires, or other events of an adverse nature. Coverage of these scenarios can be particularly challenging due to the lack of available infrastructure, which often precludes real-time cloud-based data analysis. Therefore, it is critical to enable AI techniques that do not rely on external computing systems and can be embedded in mobile devices such as unmanned aerial vehicles (UAVs) so that they can capture and process information to understand their context and determine the appropriate course of action independently. Historically, this problem was addressed by using UAVs as data collection devices to send this information to the cloud, where servers can process it. This new approach aims to do all the processing and get the results on the UAV or a complementary local device. This approach eliminates the dependency on a remote computing center that adds complexity to the infrastructure and is not an option in specific scenarios where wireless connections do not meet the data transfer requirements. It is also an option in environments where the information has to be obtained at that precise moment due to security or immediacy requirements. This study consists of three main proposals. First, we propose a UAV swarm takeoff system based on the Kuhn Munkres algorithm that solves the assignment problem in polynomial time. Our evaluation studies the takeoff complexity of large swarms and analyzes our proposal's computational and quality cost. The second proposal is the definition of a Deep learning (DL) based image processing sequence for natural disaster images taken from drones to reduce the number of images processed by the first responders in the natural disaster. Finally, a dataset of images obtained with UAVs and related to different floods is used to run a semantic segmentation DL model that automatically determines the regions most affected by the rains (flooded areas). The results are 1- The drastic improvement of the performance of the coordinated vertical take-off of a network of UAVs. 2- The proposal of an unsupervised model for the surveillance of unknown areas represents a breakthrough for autonomous exploration by UAVs. This allows a global view of a specific area without performing a detailed study. 3- Finally, a semantic segmentation model of flooded areas, deployed for image processing in the UAV, allows obtaining real-time flood data (respecting privacy) for a reliable virtual reconstruction of the event. This thesis offers a proposal to improve the coordinated take-off of drones, to provide edge devices with deep learning algorithms processing capacity, more specifically autonomous UAVs, in order to develop services for the surveillance of areas affected by natural disasters such as fire detection, segmentation of flooded areas or detection of people in danger. Thanks to this research, services can be developed that enable the coordination of large arrays of drones and allow image processing without needing additional devices. This flexibility makes our approach a bet for the future and thus provides a development path for anyone interested in deploying an autonomous drone-based surveillance and actuation system. / I would like to acknowledge the project Development of High-Performance IoT Infrastructures against Climate Change based on Artificial Intelligence (GLOBALoT). Funded by Ministerio de Ciencia e Innovación (RTC2019-007159-5), of which this thesis is part. / Hernández Vicente, D. (2023). Analysis Design and Implementation of Artificial Intelligence Techniques in Edge Computing Environments [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/192605 / Compendio

Page generated in 0.6419 seconds