Spelling suggestions: "subject:"inteligência artificial."" "subject:"inteligentes artificial.""
741 |
Adoption Factors of Artificial intelligence in Human Resource ManagementTuffaha, Mohand 06 September 2022 (has links)
Tesis por compendio / [ES] El mundo es testigo de nuevos avances tecnológicos que afectan significativamente a las organizaciones en diferentes departamentos. La inteligencia artificial (IA) es uno de estos avances, visto como una tecnología revolucionaria en la gestión de recursos humanos (RRHH). Profesionales y académicos han discutido el brillante papel de la IA en RRHH. Sin embargo, el análisis profundo de esta tecnología en el proceso de RRHH es aún escaso. Con todo ello, el objetivo principal de esta tesis es investigar el estado de la IA en RRHH y así identificar factores clave de implementación concretos. Primero, construyendo un marco académico para la IA en RRHH; segundo, analizar las aplicaciones de IA más utilizada en los procesos de RRHH; tercero, identificar las formas óptimas de transferir el conocimiento en los procesos de implementación de IA.
La metodología utilizada para la investigación combina la revisión sistemática de la literatura y técnicas de investigación cualitativa. Como base y medida preparatoria para abordar las preguntas de investigación, se llevó a cabo un extenso análisis de la literatura en el campo AI-RRHH, con un enfoque particular en las publicaciones de algoritmos de IA en HRM, análisis de HR-Big data, aplicaciones/soluciones de IA en HRM e implementación de IA. En la misma línea, el autor publicó artículos en varias conferencias que contribuyeron a mejorar la madurez de las preguntas de investigación. Con base en este conocimiento, los estudios publicados ilustraron la brecha entre la promesa y la realidad de la IA en RRHH, teniendo en cuenta los requisitos técnicos de la implementación de la IA, así como las aplicaciones y limitaciones. Posteriormente, se entrevistó a expertos en recursos humanos y consultores de IA que ya habían adquirido experiencia de primera mano con los procesos de recursos humanos en un entorno de IA para descubrir la verdad de la aplicación de la IA dominante en el proceso de RRHH.
Los principales hallazgos de esta tesis incluyen la derivación de una definición completa de IA en RRHH, así como el estado de las estrategias de adopción de aplicaciones de IA en RRHH. Como resultado adicional, se explora la utilidad y las limitaciones de los chatbots en el proceso de contratación en la India. Además, factores clave para transferir el conocimiento del proceso de implementación de IA a los gerentes y empleados de recursos humanos. Finalmente, se concluye identificando desafíos asociados con la implementación de IA en el proceso de recursos humanos y el impacto de COVID-19 en la implementación de IA. / [CA] El món és testimoni de nous avanços tecnològics, que afecten significativament les organitzacions en diferents departaments. La intel·ligència artificial (IA) és un d'aquests avanços que s'anuncia àmpliament com una tecnologia revolucionària en la gestió de recursos humans (HRM). Professionals i acadèmics han discutit el brillant paper de la IA en HRM. No obstant això, encara és escàs l'anàlisi profund d'aquesta tecnologia en el procés de HRM. Per tant, l'objectiu principal d'aquesta tesi és investigar l'estat de la IA en HRM i derivar factors clau d'implementació concrets. Primer, construint un marc acadèmic per a la IA en HRM; segon, analitzar l'aplicació de IA més utilitzada en el procés de recursos humans; tercer, identificar les formes òptimes de transferir el coneixement dels processos d'implementació de IA.
La metodologia utilitzada per a la investigació es combina entre una revisió sistemàtica de la literatura i una tècnica d'investigació qualitativa. Com a base i mesura preparatòria per a abordar les preguntes d'investigació, es va dur a terme una extensa anàlisi de la literatura en el camp IA-HRM, amb un enfocament particular en les publicacions d'algorismes de IA en HRM, anàlisis de HR-Big data, aplicacions/soluciones de IA en HRM i implementació de IA. En la mateixa línia, l'autor va publicar articles en diverses conferències que van procedir a millorar la maduresa de les preguntes d'investigació. Amb base en aquest coneixement, els estudis publicats van illustrar la bretxa entre la promesa i la realitat de la IA en HRM, tenint en compte els requisits tècnics de la implementació de la IA, així com les aplicacions i limitacions. Posteriorment, es va entrevistar experts en recursos humans i consultors de IA que ja havien adquirit experiència de primera mà amb els processos de recursos humans en un entorn de IA per a descobrir la veritat de l'aplicació de la IA dominant en el procés de recursos humans.
Les principals troballes d'aquesta tesi són la derivació d'una definició completa de IA en HRM, així com l'estat de les estratègies d'adopció d'aplicacions de IA en HRM. Com a resultat addicional, explore la utilitat i les limitacions dels chatbots en el procés de contractació a l'Índia. A més, factors clau per a transferir el coneixement del procés d'implementació de IA als gerents i empleats de recursos humans. També es van concloure els desafiaments associats amb la implementació de IA en el procés de recursos humans i l'impacte de COVID-19 en la implementació de IA. / [EN] The world is witnessing new technological advancements, which significantly impacts organizations across different departments. Artificial intelligence (AI) is one of these advancements that is widely heralded as a revolutionary technology in Human Resource Management (HRM). Professionals and scholars have discussed the bright role of AI in HRM. However, deep analysis of this technology in the HR process is still scarce.
Therefore, the main goal of this thesis is to investigate the status of AI in HRM and derive concrete implementation key factors. Through, first, building an academic framework for AI in HRM; second, analyzing the most commonly used AI applications in HR process; third, identifying the optimal ways to transfer the knowledge of AI implementation processes.
The methodology used for the investigation combines a systematic literature review and a qualitative research technique. As a basis and preparatory measure to address the research questions, an extensive literature analysis in the AI-HRM field was carried out, with a particular focus on publications of AI in HRM, HR-Big data analysis, AI applications/solutions in HRM and AI implementation. Along similar lines, the author published papers in several conference proceedings to improve the maturity of research questions.
Based on this work, the published studies illustrate the gap between the promise and reality of AI in HRM, taking into account the requirements of AI implementation as well as the applications and limitations. Subsequently, HR experts and AI consultants, who had already gained first-hand experience with HR processes in an AI environment, were interviewed to find out the truth of the dominant AI's application in HR process.
The main findings of this thesis are the derivation of a complete definition of AI in HRM as well as the status of the adoption strategies of AI applications in HRM. As a further result, it explores the usefulness and limitations of chatbots in the recruitment processes in India. In addition, derived the key factors to transfer the knowledge of AI implementation process to HR managers and employees. Challenges associated with AI implementation in the HR process and the impact of COVID-19 on AI implementation were also concluded. / Tuffaha, M. (2022). Adoption Factors of Artificial intelligence in Human Resource Management [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/185909 / Compendio
|
742 |
Eficiencia Energética y Robustez en Problemas de SchedulingEscamilla Fuster, Joan 16 May 2016 (has links)
[EN] Many industrial problems can be modelled as a scheduling problem where some resources are assigned to tasks so as to minimize the completion time, to reduce the use of resources, idle time, etc. There are several scheduling problems which try to represent different kind of situations that can appear in real world problems. Job Shop Scheduling Problem (JSP) is the most used problem. In JSP there are different jobs, every job has different tasks and these tasks have to be executed by different machines. JSP can be extended to other problems in order to simulate more real problems. In this work we have used the problem job shop with operators JSO(n,p) where each task must also be assisted by one operator from a limited set of them. Additionally, we have extended the classical JSP to a job-shop scheduling problem where machines can consume different amounts of energy to process tasks at different rates (JSMS). In JSMS operation has to be executed by a machine that has the possibility to work at different speeds.
Scheduling problems consider optimization indicators such as processing time, quality and cost. However, governments and companies are also interested in energy-consumption due to the rising demand and price of fuel, the reduction in energy commodity reserves and growing concern about global warming. In this thesis, we have developed new metaheuristic search techniques to model and solve the JSMS problem.
Robustness is a common feature in real life problems. A system persists if it remains running and maintains his main features despite continuous perturbations, changes or incidences. We have developed a technique to solve the $JSO(n,p)$ problem with the aim of obtaining optimized and robust solutions.
We have developed a dual model to relate optimality criteria with energy consumption and robustness/stability in the JSMS problem. This model is committed to protect dynamic tasks against further incidences in order to obtain robust and energy-aware solutions. The proposed dual model has been evaluated with a memetic algorithm to compare the behaviour against the original model.
In the JSMS problem there are a relationship between Energy-efficiency, Robustness and Makespan. Therefore, the relationship between these three objectives is studied. Analytical formulas are proposed to analyse the relationship between these objectives. The results show the trade-off between makespan and robustness, and the direct relationship between robustness and energy-efficiency. To reduce the makespan and to process the tasks faster, energy consumption has to be increased. When the energy consumption is low it is because the machines are not working at highest speed. So, if an incidence appears, the speed of these machines can be increased in order to recover the time lost by the incidence. Hence robustness is directly related with energy consumption. Additionally, robustness is also directly related with makespan because, when makespan increases, there are more gaps in the solution, these incidences can be absorbed by these natural buffers.
The combination of robustness and stability gives the proposal an added value due to since an incidence cannot be directly absorbed by the disrupted task and it can be repaired by involving only a small number of tasks. In this work we propose two different techniques to manage rescheduling over the JSMS problem.
This work represents a breakthrough in the state of the art of scheduling problems and in particular the problem where energy consumption can be controlled by the rate of the machines. / [ES] Muchos de los problemas industriales se pueden modelar como un problema de scheduling donde algunos recursos son asignados a tareas a fin de minimizar el tiempo de finalización, para reducir el uso de los recursos, el tiempo de inactividad, etc. Job-Shop scheduling (JSP) es el problema más utilizado. En JSP hay diferentes trabajos, cada trabajo tiene diferentes tareas y estas tareas tienen que ser ejecutadas por diferentes máquinas. JSP puede ser extendido a otros problemas con el fin de simular una mayor cantidad de problemas reales. En este trabajo se ha utilizado el problema job shop scheduling con operadores JSO(n, p), donde cada tarea también debe ser asistida por un operador de un conjunto limitado de ellos. Además, hemos ampliado el clásico problema JSP a un problema donde las máquinas pueden consumir diferentes cantidades de energía al procesar tareas a diferentes velocidades (JSMS). En JSMS las operaciones tiene que ser ejecutadas por una máquina que tiene la posibilidad de trabajar a diferentes velocidades.
Los problemas de scheduling consideran indicadores de optimización tales como: el procesamiento de tiempo, la calidad y el coste. Sin embargo, hoy en día los gobiernos y los empresarios están interesados también en el control del consumo de energía debido al aumento de la demanda y del precio de los combustibles, la reducción de las reservas de materias primas energéticas y la creciente preocupación por el calentamiento global. En esta tesis, hemos desarrollado nuevas técnicas de búsqueda metaheurística para modelar y resolver el problema JSMS.
La robustez es una característica común en los problemas de la vida real. Un sistema persiste si permanece en funcionamiento y mantiene sus principales características a pesar de las perturbaciones continuas, cambios o incidencias. Hemos desarrollado una técnica para resolver el problema JSO(n, p) con el objetivo de obtener soluciones robustas y optimizadas.
Hemos desarrollado un modelo dual para relacionar los criterios de optimalidad con el consumo de energía y la robustez/estabilidad en el problema JSMS. Este modelo se ha desarrollado para proteger a las tareas dinámicas contra incidencias, con el fin de obtener soluciones sólidas y que tengan en cuenta el consumo de la energía. El modelo dual propuesto ha sido evaluado con un algoritmo memético para comparar el comportamiento frente al modelo original.
En el problema JSMS hay una relación entre la eficiencia energética, la robustez y el makespan. Por lo tanto, se estudia la relación entre estos tres objetivos. Se desarrollan fórmulas analíticas para representar la relación estimada entre estos objetivos. Los resultados muestran el equilibrio entre makespan y robustez, y la relación directa entre la robustez y eficiencia energética. Para reducir el makespan, el consumo de energía tiene que ser aumentado para poder procesar las tareas más rápido. Cuando el consumo de energía es bajo, debido a que las máquinas no están trabajando a la velocidad más alta, si una incidencia aparece, la velocidad de estas máquinas puede ser aumentada con el fin de recuperar el tiempo perdido por la incidencia. Por lo tanto la robustez está directamente relacionada con el consumo de energía. Además, la robustez también está directamente relacionada con el makespan porque, cuando el makespan aumenta hay más huecos en la solución, que en caso de surgir incidencias, estas pueden ser absorbidas por estos buffers naturales.
La combinación de robustez y estabilidad da un valor añadido debido a que si una incidencia no puede ser absorbida directamente por la tarea interrumpida, esta puede ser reparada mediante la participación un pequeño número de tareas.En este trabajo se proponen dos técnicas diferentes para gestionar el rescheduling sobre el problema JSMS.
Este trabajo representa un avance en el estado del arte en los problemas de scheduling y en el problema donde el consumo de energía p / [CA] Molts dels problemes industrials es poden modelar com un problema de scheduling on alguns recursos són assignats a tasques a fi de minimitzar el temps de finalització, per a reduir l'ús dels recursos, el temps d'inactivitat, etc. Existeixen diversos tipus de problemes de scheduling que intenten representar diferents situacions que poden aparèixer en els problemes del món real. Job-Shop scheduling (JSP) és el problema més utilitzat. En JSP hi ha diferents treballs, cada treball té diferents tasques i aquestes tasques han de ser executades per diferents màquines. JSP pot ser estès a altres problemes amb la finalitat de simular una major quantitat de problemes reals. En aquest treball s'ha utilitzat el problema job shop scheduling amb operadors JSO(n, p), on cada tasca també ha de ser assistida per un operador d'un conjunt limitat d'ells. A més, hem ampliat el clàssic problema JSP a un problema on les màquines poden consumir diferents quantitats d'energia per a processar tasques a diferents velocitats (JSMS).
Els problemes de scheduling consideren indicadors d'optimització tals com: el processament de temps, la qualitat i el cost. No obstant açò, avui en dia els governs i els empresaris estan interessats també amb el control del consum d'energia a causa de l'augment de la demanda i del preu dels combustibles, la reducció de les reserves de matèries primeres energètiques i la creixent preocupació per l'escalfament global. En aquesta tesi, hem desenvolupat noves tècniques de cerca metaheurística per a modelar i resoldre el problema JSMS.
La robustesa és una característica comuna en els problemes de la vida real. Un sistema persisteix si continua en funcionament i manté les seues principals característiques malgrat les pertorbacions contínues, canvis o incidències. Hem desenvolupat una tècnica per a resoldre el problema JSO(n, p) amb l'objectiu d'obtenir solucions robustes i optimitzades.
Hem desenvolupat un model dual per a relacionar els criteris de optimalidad amb el consum d'energia i la robustesa/estabilitat en el problema JSMS. Aquest model s'ha desenvolupat per a protegir a les tasques dinàmiques contra incidències, amb la finalitat d'obtenir solucions sòlides i que tinguen en compte el consum de l'energia. El model dual proposat ha sigut evaluat amb un algorisme memético per a comparar el comportament front un model original.
En el problema JSMS hi ha una relació entre l'eficiència energètica, la robustesa i el makespan. Per tant, s'estudia la relació entre aquests tres objectius. Es desenvolupen fórmules analítiques per a representar la relació estimada entre aquests objectius. Els resultats mostren l'equilibri entre makespan i robustesa, i la relació directa entre la robustesa i l'eficiència energètica. Per a reduir el makespan, el consum d'energia ha de ser augmentat per a poder processar les tasques més ràpid. Quan el consum d'energia és baix, a causa que les màquines no estan treballant a la velocitat més alta, si una incidència apareix, la velocitat d'aquestes màquines pot ser augmentada amb la finalitat de recuperar el temps perdut per la incidència. Per tant la robustesa està directament relacionada amb el consum d'energia. A més, la robustesa també està directament relacionada amb el makespan perquè, quan el makespan augmenta hi ha més buits en la solució, que en cas de sorgir incidències, aquestes poden ser absorbides per els buffers naturals.
La combinació de robustesa i estabilitat dóna un valor afegit a causa de que si una incidència no pot ser absorbida directament per la tasca interrompuda, aquesta pot ser reparada mitjançant la participació d'un xicotet nombre de tasques. En aquest treball es proposen dues tècniques diferents per a gestionar el rescheduling sobre el problema JSMS.
Aquest treball representa un avanç en l'estat de l'art en els problemes de scheduling i, en particular, en el problema on el consum d'energia pot ser controlat per / Escamilla Fuster, J. (2016). Eficiencia Energética y Robustez en Problemas de Scheduling [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/64062
|
743 |
Diseño y Desarrollo de un Sistema de Gestión Inteligente de QoE para Redes HD y Estereoscópicas IPTVCánovas Solbes, Alejandro 02 June 2016 (has links)
[EN] Broadband Internet access connections allow Internet Service Providers (ISP) to offer several types of services to home customers such as data, voice over IP (VoIP), Internet protocol television (IPTV) and now 3D Internet protocol television (3D- IPTV). That is why the number of IPTV service providers is increasing conside- rably in recent years. Thanks to the evolution at many levels of the communication systems, communication networks and devices, to deliver these services is possible, but the maximum quality is not always guaranteed. For this reason, one of the main issues to be considered by the IPTV service providers is to guarantee the Quality of Experience (QoE) perceived by the end user. In order to achieve this goal, in this PhD Thesis we propose an intelligent management system based on inductive prediction methods to guarantee the QoE of the end-user. One of the important aspects to be considered in the development of the management system is to include all the parameters that affect the QoE. With this purpose, we will analyze the parameters that affect the degradation of the video stream received by the end user through the IPTV service. At the network level, we will identify the main parameters which affect the Quality of Service (QoS), such as jitter, delay, lost packets and bandwidth. At the user level, these parameters affect to the subjective perception of the user when watching the video. We also checked that effects derived from the compression, quantization, and bitrate affect this perception too. / [ES] Las conexiones de acceso a Internet de banda ancha permiten a los Internet Service Provider (ISP) ofrecer servicios a los hogares tales como datos, Voice on IP (VoIP), Televisión sobre IP (IPTV) y actualmente 3D-TV sobre IP (3D-IPTV). Es por esto que el número de proveedores de servicios de IPTV está aumentando considerable- mente en los últimos años. Gracias a la evolución tanto a nivel de sistemas, como de redes de comunicación como de dispositivos, la entrega de este tipo de servicios es posible pero no siempre con las máximas garantías de calidad. Por este motivo, una de las principales cuestiones a tener en cuenta por parte del proveedor de servicios de IPTV es garantizar la calidad de experiencia (Quality of Experience (QoE)) percibida por el usuario final. Para conseguir este objetivo, en la siguiente tesis doctoral se propone un sistema de gestión inteligente basado en métodos induc- tivos de predicción para garantizar la QoE del usuario final. Uno de los aspectos importantes a tener en cuenta en el desarrollo del sistema de gestión es el incluir los parámetros que afectan a la QoE. Para ello, se analizarán aquellos parámetros que afecten a la degradación del flujo de vídeo recibido por el usuario final a tra- vés del servicio de IPTV. A nivel de red, se identificarán dichos parámetros como aquellos que afectan a la calidad de Servicio (Quality of Service (QoS)) como son el jitter, el retardo, los paquetes perdidos y el ancho de banda principalmente. A nivel de usuario, estos parámetros afectan a la percepción subjetiva del usuario al visualizar el vídeo. Comprobamos como efectos derivados de la compresión, la cuantificación, el bitrate, etc, afectan también a dicha percepción. / [CA] Les connexions d'accés a Internet de banda ampla permeten als Proveïdors de Ser- vicis d'Internet (ISP) oferir servicis a les llars com ara dades, veu sobre IP (VoIP), Televisió sobre IP (IPTV) i actualment 3D-TV sobre IP (3D-IPTV). És per açò que el nombre de proveïdors de servicis d'IPTV està augmentant considerablement en els últims anys. Gràcies a l'evolució tant a nivell de sistemes, com de xarxes de comunicació com de dispositius, l'entrega d'este tipus de servicis és possible però no sempre amb les màximes garanties de qualitat. Per este motiu, una de les principals qüestions a tindre en compte per part del proveïdor de servicis d'IPTV és garantir la qualitat d'experiència (Quality of Experience, QoE) percebuda per l'usuari final. Per a aconseguir este objectiu, en la següent tesi doctoral es proposa un sistema de gestió intel·ligent basat en mètodes inductius de predicció per a garantir la QoE de l'usuari final. Un dels aspectes importants a tindre en compte en el desenrotllament del sistema de gestió es incloure els paràmetres que afecten la QoE. Per a això, s'analitzaran aquells paràmetres que afecten la degradació del flux de vídeo rebut per l'usuari final a través del servici d'IPTV. A nivell de xar- xa, s'identificaran dits paràmetres com aquells que afecten la qualitat de Servici (Quality of Service, QoS) com són el jitter, el retard, els paquets perduts i l'ample de banda principalment. A nivell d'usuari, estos paràmetres afecten la percepció subjectiva de l'usuari al visualitzar el vídeo. Comprovem com efectes derivats de la compresió, la quantificació, el bitrate, etc, afecten també a dita percepció. / Cánovas Solbes, A. (2016). Diseño y Desarrollo de un Sistema de Gestión Inteligente de QoE para Redes HD y Estereoscópicas IPTV [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/65074
|
744 |
[en] MOTION SYNTHESIS FOR NON-HUMANOID VIRTUAL CHARACTERS / [pt] SÍNTESE DE MOVIMENTOS PARA PERSONAGENS VIRTUAIS NÃO-HUMANÓIDESPEDRO LUCHINI DE MORAES 03 September 2018 (has links)
[pt] Nosso trabalho apresenta uma técnica capaz de gerar animações para personagens virtuais. A inspiração desta técnica vem de vários princípios encontrados na biologia, em particular os conceitos de evolução e seleção natural. Os personagens virtuais, por sua vez, são modelados como criaturas semelhantes a animais, com um sistema locomotor capaz de movimentar seus corpos através de princípios simples da física, tais como forças e torques. Como nossa técnica não depende de nenhum pressuposto sobre a estrutura do personagem, é possível gerar animações para qualquer tipo de criatura virtual. / [en] We present a technique for automatically generating animations for virtual characters. The technique is inspired by several biological principles, especially evolution and natural selection. The virtual characters themselves are modeled as animal-like creatures, with a musculoskeletal system that is capable of moving their bodies through simple physics principles, such as forces and torques. Because our technique does not make any assumptions about the structure of the character, it is capable of generating animations for any kind of virtual creature.
|
745 |
[en] EXPLAINABLE ARTIFICIAL INTELLIGENCE FOR MEDICAL IMAGE CLASSIFIERS / [pt] INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL PARA CLASSIFICADORES DE IMAGENS MÉDICASIAM PALATNIK DE SOUSA 02 July 2021 (has links)
[pt] A inteligência artificial tem gerado resultados promissores na área médica, especialmente na última década. Contudo, os modelos de melhor desempenho apresentam opacidade em relação ao seu funcionamento interno. Nesta tese, são apresentadas novas metodologias e abordagens para o desenvolvimento de classificadores explicáveis de imagens médicas. Dois principais métodos, Squaregrid e EvEx, foram desenvolvidos. O primeiro consiste em uma geração mais grosseira, porém rápida, de heatmaps explicativos via segmentações em grades quadrados, enquanto o segundo baseia-se em otimização multi-objetivo, baseada em computação evolucionária, visando ao ajuste fino de parâmetros de segmentação. Notavelmente, ambas as técnicas são agnósticas ao modelo, o que facilita sua utilização para qualquer tipo de classificador de imagens. O potencial destas abordagens foi avaliado em três estudos de
caso de classificações médicas: metástases em linfonodos, malária e COVID-19. Para alguns destes casos foram analisados modelos de classificação existentes, publicamente disponíveis. Por outro lado, em outros estudos de caso, novos modelos tiveram que ser treinados. No caso do estudo de COVID-19,
a ResNet50 treinada levou a F-scores acima de 0,9 para o conjunto de teste de uma competição para classificação de coronavirus, levando ao terceiro lugar geral. Adicionalmente, técnicas de inteligência artificial já existentes como LIME e GradCAM, bem como Vanilla, Smooth e Integrated Gradients também
foram usadas para gerar heatmaps e possibilitar comparações. Os resultados aqui descritos ajudaram a demonstrar e preencher parcialmente lacunas associadas à integração das áreas de inteligência artificial explicável e medicina. Eles também ajudaram a demonstrar que as diferentes abordagens de inteligência
artificial explicável podem gerar heatmaps que focam em características diferentes da imagem. Isso por sua vez demonstra a importância de combinar abordagens para criar um panorama mais completo sobre os modelos classificadores, bem como extrair informações sobre o que estes aprendem. / [en] Artificial Intelligence has generated promissing results for the medical
area, especially on the last decade. However, the best performing models
present opacity when it comes to their internal working. In this thesis, methodologies
and approaches are presented for the develpoment of explainable classifiers
of medical images. Two main methods, Squaregrid and EvEx, were developed.
The first consistts in a rough, but fast, generation of heatmaps via
segmentations in square grids, and the second in genetic multi objective optimizations
aiming at the fine-tuning of segmentation parameters. Notably, both
techniques are agnostic to the model,which facilitates their utilization for any
kind of image classifier. The potential of these approaches was demonstrated in
three case studies of medical classifications: lymph node mestastases, malária
and COVID-19. In some of these cases, already existing classifier models were
analyzed, while in some others new models were trained. For the COVID-19
study, the trained ResNet50 provided F-scores above 0.9 in a test set from a
coronavirus classification competition, resulting in the third place overall. Additionally,
already existing explainable artificial intelligence techniques, such
as LIME and GradCAM, as well as Vanilla, Smooth and Integrated Gradients,
were also used to generate heatmaps and enable comparisons. The results here
described help to demonstrate and improve the gaps in integrating the areas of
explainable artificial intelligence and medicine. They also aided in demonstrating
that the different types of approaches in explainable artificial intelligence
can generate heatmaps that focus on different characteristics of the image.
This shows the importance of combining approaches to create a more complete
overview of classifier models, as well as extracting informations about
what they learned from data.
|
746 |
[pt] O DIGITAL TWIN NO PLANEJAMENTO E GESTÃO URBANA: RECURSO CHAVE PARA AS ATUAIS DEMANDAS CLIMÁTICAS, SOCIAIS E TECNOLÓGICAS / [en] THE DIGITAL TWIN IN URBAN PLANNING AND MANAGEMENT: A KEY ASSET FOR TODAY S CLIMATIC, SOCIAL AND TECHNOLOGICAL DEMANDSPEDRO RATTES PASCOLI 02 December 2024 (has links)
[pt] A crescente presença da digitalização em todas as áreas de estudo e atuação,
é igualmente evidente no Planejamento e Gestão Urbana (PGU). Globalmente, a
complexa realidade das cidades atuais, marcada pelo contínuo crescimento
populacional urbano e as já correntes consequências das mudanças climáticas,
exige uma ampla requalificação urbana. Essa requalificação envolve uma nova
gestão de informações, o enfrentamento de questões socialmente sensíveis e
realização de intervenções físicas contundentes, cirúrgicas, contextualizadas e de
eficácia imediata. Este trabalho explora o potencial protagonismo dos Digital
Twins (DTs) nesta transformação digital das cidades. Através de pesquisa
bibliográfica, e consultas a entidades especializadas, foi caracterizado o contexto
do PGU, foi realizado um nivelamento conceitual dos DTs, e foram apresentadas
as tecnologias envolvidas no seu desenvolvimento e aplicação. Através de estudos
de caso, de exemplos notáveis, foi avaliada a aplicação dos DTs como estratégia
para enfrentar os desafios identificados. Desta discussão emergiram alguns
aspectos aderentes ao PGU atual: acesso intuitivo a informações ricas, precisas e
atualizadas; integração tecnológica; gestão transparente e participativa; simulação
verossímil de projetos e cenários de emergências climáticas. As conclusões deste
trabalho sugerem o desenvolvimento do Ambiente de Informação Integrada (AII),
uma plataforma colaborativa e multicamada que permite o acesso e a gestão de
múltiplos atores através da integração de dados em uma organização física e
ontológica. Essa ferramenta, concentra informação e processos, promove
acessibilidade, minimiza os impactos sociais e ambientais, e gera eficiência
temporal e de recursos. / [en] The increasing presence of digitalization in all areas of study and work is
equally evident in urban planning and management (UPM). Globally, the complex
reality of today s cities, marked by continuous urban population growth and the
ongoing consequences of climate change, demands extensive urban
requalification. This requalification involves managing a vast amount of
information, addressing socially sensitive issues, and carrying out forceful,
surgical, contextualized, and immediately effective physical interventions. This
work explores the potential role of Digital Twins (DTs) in this digital
transformation of cities. Through bibliographic research and consultations with
specialized entities, the context of the PGU was characterized, a conceptual
leveling of the DTs was carried out, and the technologies involved in its
development and application were presented. By studying notable case examples,
the application of DTs as a tool to address the identified challenges was evaluated.
Some aspects aligned with current UPM emerged from this discussion: intuitive
access to rich, accurate, and up-to-date information; technological integration;
transparent and participatory management; realistic simulation of projects and
climate emergency scenarios. The conclusions of this work suggest the
development of the Integrated Information Environment (IIE), a collaborative and
multi-layered platform that allows access and management by multiple actors
through data integration in a physical and ontological organization. This tool
concentrates information and processes, promotes accessibility, minimizes social
and environmental impacts, and generates temporal and resource efficiency.
In the early part of the last century, only 10 per cent of the world s population lived
in cities. However, by around 1950, when two-thirds of the global population still
resided in rural communities, an increase in urbanization was observed. This
process has intensified over the past two decades, and by 2007, we reached a
significant milestone: for the first time, the urban population surpassed the rural
population (UNITED NATIONS, 2019). With the urban population continuously growing at a faster rate than the rural population, today approximately 56 per cent of the
global population – 4.4 billion people – resides in cities. By the end of the
sustainable development agenda in 2030, the proportion of the population living
in cities is expected to reach 60 per cent. With projections indicating a continued
increase in this percentage in the medium term, by 2050, after just one century of
intense and progressive urbanization, the situation will be reversed, with two thirds of the world s population living in urban areas. This will result in an
additional 1.2 million square kilometers of urban area worldwide (THE WORLD
BANK, 2020; UNITED NATIONS, 2019).
|
747 |
[en] A SOFTWARE ARCHITECTURE TO SUPPORT DEVELOPMENT OF MEDICAL IMAGING DIAGNOSTIC SYSTEMS / [pt] UMA ARQUITETURA DE SOFTWARE PARA APOIO AO DESENVOLVIMENTO DE SISTEMAS DE DIAGNÓSTICO MÉDICOS POR IMAGEMRICARDO ALMEIDA VENIERIS 02 August 2018 (has links)
[pt] O apoio diagnóstico de exames médicos por imagem utilizando técnicas de Inteligência Artificial tem sido amplamente discutido e pesquisado academicamente. Diversas técnicas computacionais para segmentação e classificação de tais imagens são continuamente criadas, testadas e aperfeiçoadas. Destes estudos emergem sistemas com alto grau de especialização que se utilizam de técnicas de visão computacional e aprendizagem de máquina para segmentar e classificar imagens de exames utilizando conhecimento adquirido através de grandes coleções de exames devidamente laudados. No domínio médico há ainda
a dificuldade de se conseguir bases de dados qualificada para realização da extração de conhecimento pelos sistemas de aprendizagem de máquina. Neste trabalho propomos a construção de uma arquitetura de software que suporte o desenvolvimento de sistemas de apoio diagnóstico que possibilite: (i) a utilização
em múltiplos tipos exames, (ii) que consiga segmentar e classificar, (iii) utilizando não só de estratégias padrão de aprendizado de máquina como, (iv) o conhecimento do domínio médico disponível. A motivação é facilitar a tarefa de geração de classificadores que possibilite, além de buscar marcadores patológicos
específicos, ser aplicado em objetivos diversos da atividade médica, como o diagnóstico pontual, triagem e priorização do atendimento. / [en] The image medical exam diagnostic support using Artificial Intelligence techniques has been extensively discussed and academically researched. Several computational techniques for segmentation and classification of such images are continuously created, tested and improved. From these studies, highly specialized systems that use computational vision and machine learning techniques to segment and classify exam images using knowledge acquired through large collections of lauded exams. In the medical domain, there is still the difficulty of obtaining qualified databases to support the extraction of knowledge by machine learning systems. In this work we propose a software architecture construction that supports diagnostic support systems development that allows: (i) use of multiple exam types, (ii) supporting segmentation and classification, (iii) using not only machine learning techniques as, (iv) knowledge of the available medical domain. The motivation is to facilitate the generation of classifiers task that, besides searching for specific pathological markers, can be applied to different medical activity objectives, such as punctual diagnosis, triage and prioritization of care.
|
748 |
Distributed Computing Solutions for High Energy Physics Interactive Data AnalysisPadulano, Vincenzo Eduardo 04 May 2023 (has links)
[ES] La investigación científica en Física de Altas Energías (HEP) se caracteriza por desafíos computacionales complejos, que durante décadas tuvieron que ser abordados mediante la investigación de técnicas informáticas en paralelo a los avances en la comprensión de la física. Uno de los principales actores en el campo, el CERN, alberga tanto el Gran Colisionador de Hadrones (LHC) como miles de investigadores cada año que se dedican a recopilar y procesar las enormes cantidades de datos generados por el acelerador de partículas. Históricamente, esto ha proporcionado un terreno fértil para las técnicas de computación distribuida, conduciendo a la creación de Worldwide LHC Computing Grid (WLCG), una red global de gran potencia informática para todos los experimentos LHC y del campo HEP. Los datos generados por el LHC hasta ahora ya han planteado desafíos para la informática y el almacenamiento. Esto solo aumentará con futuras actualizaciones de hardware del acelerador, un escenario que requerirá grandes cantidades de recursos coordinados para ejecutar los análisis HEP. La estrategia principal para cálculos tan complejos es, hasta el día de hoy, enviar solicitudes a sistemas de colas por lotes conectados a la red. Esto tiene dos grandes desventajas para el usuario: falta de interactividad y tiempos de espera desconocidos. En años más recientes, otros campos de la investigación y la industria han desarrollado nuevas técnicas para abordar la tarea de analizar las cantidades cada vez mayores de datos generados por humanos (una tendencia comúnmente mencionada como "Big Data"). Por lo tanto, han surgido nuevas interfaces y modelos de programación que muestran la interactividad como una característica clave y permiten el uso de grandes recursos informáticos.
A la luz del escenario descrito anteriormente, esta tesis tiene como objetivo aprovechar las herramientas y arquitecturas de la industria de vanguardia para acelerar los flujos de trabajo de análisis en HEP, y proporcionar una interfaz de programación que permite la paralelización automática, tanto en una sola máquina como en un conjunto de recursos distribuidos. Se centra en los modelos de programación modernos y en cómo hacer el mejor uso de los recursos de hardware disponibles al tiempo que proporciona una experiencia de usuario perfecta. La tesis también propone una solución informática distribuida moderna para el análisis de datos HEP, haciendo uso del software llamado ROOT y, en particular, de su capa de análisis de datos llamada RDataFrame. Se exploran algunas áreas clave de investigación en torno a esta propuesta. Desde el punto de vista del usuario, esto se detalla en forma de una nueva interfaz que puede ejecutarse en una computadora portátil o en miles de nodos informáticos, sin cambios en la aplicación del usuario. Este desarrollo abre la puerta a la explotación de recursos distribuidos a través de motores de ejecución estándar de la industria que pueden escalar a múltiples nodos en clústeres HPC o HTC, o incluso en ofertas serverless de nubes comerciales. Dado que el análisis de datos en este campo a menudo está limitado por E/S, se necesita comprender cuáles son los posibles mecanismos de almacenamiento en caché. En este sentido, se investigó un sistema de almacenamiento novedoso basado en la tecnología de almacenamiento de objetos como objetivo para el caché.
En conclusión, el futuro del análisis de datos en HEP presenta desafíos desde varias perspectivas, desde la explotación de recursos informáticos y de almacenamiento distribuidos hasta el diseño de interfaces de usuario ergonómicas. Los marcos de software deben apuntar a la eficiencia y la facilidad de uso, desvinculando la definición de los cálculos físicos de los detalles de implementación de su ejecución. Esta tesis se enmarca en el esfuerzo colectivo de la comunidad HEP hacia estos objetivos, definiendo problemas y posibles soluciones que pueden ser adoptadas por futuros investigadores. / [CA] La investigació científica a Física d'Altes Energies (HEP) es caracteritza per desafiaments computacionals complexos, que durant dècades van haver de ser abordats mitjançant la investigació de tècniques informàtiques en paral·lel als avenços en la comprensió de la física. Un dels principals actors al camp, el CERN, acull tant el Gran Col·lisionador d'Hadrons (LHC) com milers d'investigadors cada any que es dediquen a recopilar i processar les enormes quantitats de dades generades per l'accelerador de partícules. Històricament, això ha proporcionat un terreny fèrtil per a les tècniques de computació distribuïda, conduint a la creació del Worldwide LHC Computing Grid (WLCG), una xarxa global de gran potència informàtica per a tots els experiments LHC i del camp HEP. Les dades generades per l'LHC fins ara ja han plantejat desafiaments per a la informàtica i l'emmagatzematge. Això només augmentarà amb futures actualitzacions de maquinari de l'accelerador, un escenari que requerirà grans quantitats de recursos coordinats per executar les anàlisis HEP. L'estratègia principal per a càlculs tan complexos és, fins avui, enviar sol·licituds a sistemes de cues per lots connectats a la xarxa. Això té dos grans desavantatges per a l'usuari: manca d'interactivitat i temps de espera desconeguts. En anys més recents, altres camps de la recerca i la indústria han desenvolupat noves tècniques per abordar la tasca d'analitzar les quantitats cada vegada més grans de dades generades per humans (una tendència comunament esmentada com a "Big Data"). Per tant, han sorgit noves interfícies i models de programació que mostren la interactivitat com a característica clau i permeten l'ús de grans recursos informàtics. A la llum de l'escenari descrit anteriorment, aquesta tesi té com a objectiu aprofitar les eines i les arquitectures de la indústria d'avantguarda per accelerar els fluxos de treball d'anàlisi a HEP, i proporcionar una interfície de programació que permet la paral·lelització automàtica, tant en una sola màquina com en un conjunt de recursos distribuïts. Se centra en els models de programació moderns i com fer el millor ús dels recursos de maquinari disponibles alhora que proporciona una experiència d'usuari perfecta. La tesi també proposa una solució informàtica distribuïda moderna per a l'anàlisi de dades HEP, fent ús del programari anomenat ROOT i, en particular, de la seva capa d'anàlisi de dades anomenada RDataFrame. S'exploren algunes àrees clau de recerca sobre aquesta proposta. Des del punt de vista de l'usuari, això es detalla en forma duna nova interfície que es pot executar en un ordinador portàtil o en milers de nodes informàtics, sense canvis en l'aplicació de l'usuari. Aquest desenvolupament obre la porta a l'explotació de recursos distribuïts a través de motors d'execució estàndard de la indústria que poden escalar a múltiples nodes en clústers HPC o HTC, o fins i tot en ofertes serverless de núvols comercials. Atès que sovint l'anàlisi de dades en aquest camp està limitada per E/S, cal comprendre quins són els possibles mecanismes d'emmagatzematge en memòria cau. En aquest sentit, es va investigar un nou sistema d'emmagatzematge basat en la tecnologia d'emmagatzematge d'objectes com a objectiu per a la memòria cau. En conclusió, el futur de l'anàlisi de dades a HEP presenta reptes des de diverses perspectives, des de l'explotació de recursos informàtics i d'emmagatzematge distribuïts fins al disseny d'interfícies d'usuari ergonòmiques. Els marcs de programari han d'apuntar a l'eficiència i la facilitat d'ús, desvinculant la definició dels càlculs físics dels detalls d'implementació de la seva execució. Aquesta tesi s'emmarca en l'esforç col·lectiu de la comunitat HEP cap a aquests objectius, definint problemes i possibles solucions que poden ser adoptades per futurs investigadors. / [EN] The scientific research in High Energy Physics (HEP) is characterised by complex computational challenges, which over the decades had to be addressed by researching computing techniques in parallel to the advances in understanding physics. One of the main actors in the field, CERN, hosts both the Large Hadron Collider (LHC) and thousands of researchers yearly who are devoted to collecting and processing the huge amounts of data generated by the particle accelerator. This has historically provided a fertile ground for distributed computing techniques, which led to the creation of the Worldwide LHC Computing Grid (WLCG), a global network providing large computing power for all the experiments revolving around the LHC and the HEP field. Data generated by the LHC so far has already posed challenges for computing and storage. This is only going to increase with future hardware updates of the accelerator, which will bring a scenario that will require large amounts of coordinated resources to run the workflows of HEP analyses. The main strategy for such complex computations is, still to this day, submitting applications to batch queueing systems connected to the grid and wait for the final result to arrive. This has two great disadvantages from the user's perspective: no interactivity and unknown waiting times. In more recent years, other fields of research and industry have developed new techniques to address the task of analysing the ever increasing large amounts of human-generated data (a trend commonly mentioned as "Big Data"). Thus, new programming interfaces and models have arised that most often showcase interactivity as one key feature while also allowing the usage of large computational resources.
In light of the scenario described above, this thesis aims at leveraging cutting-edge industry tools and architectures to speed up analysis workflows in High Energy Physics, while providing a programming interface that enables automatic parallelisation, both on a single machine and on a set of distributed resources. It focuses on modern programming models and on how to make best use of the available hardware resources while providing a seamless user experience. The thesis also proposes a modern distributed computing solution to the HEP data analysis, making use of the established software framework called ROOT and in particular of its data analysis layer implemented with the RDataFrame class. A few key research areas that revolved around this proposal are explored. From the user's point of view, this is detailed in the form of a new interface to data analysis that is able to run on a laptop or on thousands of computing nodes, with no change in the user application. This development opens the door to exploiting distributed resources via industry standard execution engines that can scale to multiple nodes on HPC or HTC clusters, or even on serverless offerings of commercial clouds. Since data analysis in this field is often I/O bound, a good comprehension of what are the possible caching mechanisms is needed. In this regard, a novel storage system based on object store technology was researched as a target for caching.
In conclusion, the future of data analysis in High Energy Physics presents challenges from various perspectives, from the exploitation of distributed computing and storage resources to the design of ergonomic user interfaces. Software frameworks should aim at efficiency and ease of use, decoupling as much as possible the definition of the physics computations from the implementation details of their execution. This thesis is framed in the collective effort of the HEP community towards these goals, defining problems and possible solutions that can be adopted by future researchers. / Padulano, VE. (2023). Distributed Computing Solutions for High Energy Physics Interactive Data Analysis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193104
|
749 |
Computational Argumentation for the Automatic Analysis of Argumentative Discourse and Human PersuasionRuiz Dolz, Ramon 10 July 2023 (has links)
Tesis por compendio / [ES] La argumentación computacional es el área de investigación que estudia y analiza el uso de distintas técnicas y algoritmos que aproximan el razonamiento argumentativo humano desde un punto de vista computacional. En esta tesis doctoral se estudia el uso de distintas técnicas propuestas bajo el marco de la argumentación computacional para realizar un análisis automático del discurso argumentativo, y para desarrollar técnicas de persuasión computacional basadas en argumentos. Con estos objetivos, en primer lugar se presenta una completa revisión del estado del arte y se propone una clasificación de los trabajos existentes en el área de la argumentación computacional. Esta revisión nos permite contextualizar y entender la investigación previa de forma más clara desde la perspectiva humana del razonamiento argumentativo, así como identificar las principales limitaciones y futuras tendencias de la investigación realizada en argumentación computacional. En segundo lugar, con el objetivo de solucionar algunas de estas limitaciones, se ha creado y descrito un nuevo conjunto de datos que permite abordar nuevos retos y investigar problemas previamente inabordables (e.g., evaluación automática de debates orales). Conjuntamente con estos datos, se propone un nuevo sistema para la extracción automática de argumentos y se realiza el análisis comparativo de distintas técnicas para esta misma tarea. Además, se propone un nuevo algoritmo para la evaluación automática de debates argumentativos y se prueba con debates humanos reales. Finalmente, en tercer lugar se presentan una serie de estudios y propuestas para mejorar la capacidad persuasiva de sistemas de argumentación computacionales en la interacción con usuarios humanos. De esta forma, en esta tesis se presentan avances en cada una de las partes principales del proceso de argumentación computacional (i.e., extracción automática de argumentos, representación del conocimiento y razonamiento basados en argumentos, e interacción humano-computador basada en argumentos), así como se proponen algunos de los cimientos esenciales para el análisis automático completo de discursos argumentativos en lenguaje natural. / [CA] L'argumentació computacional és l'àrea de recerca que estudia i analitza l'ús de distintes tècniques i algoritmes que aproximen el raonament argumentatiu humà des d'un punt de vista computacional. En aquesta tesi doctoral s'estudia l'ús de distintes tècniques proposades sota el marc de l'argumentació computacional per a realitzar una anàlisi automàtic del discurs argumentatiu, i per a desenvolupar tècniques de persuasió computacional basades en arguments. Amb aquestos objectius, en primer lloc es presenta una completa revisió de l'estat de l'art i es proposa una classificació dels treballs existents en l'àrea de l'argumentació computacional. Aquesta revisió permet contextualitzar i entendre la investigació previa de forma més clara des de la perspectiva humana del raonament argumentatiu, així com identificar les principals limitacions i futures tendències de la investigació realitzada en argumentació computacional. En segon lloc, amb l'objectiu de sol$\cdot$lucionar algunes d'aquestes limitacions, hem creat i descrit un nou conjunt de dades que ens permet abordar nous reptes i investigar problemes prèviament inabordables (e.g., avaluació automàtica de debats orals). Conjuntament amb aquestes dades, es proposa un nou sistema per a l'extracció d'arguments i es realitza l'anàlisi comparativa de distintes tècniques per a aquesta mateixa tasca. A més a més, es proposa un nou algoritme per a l'avaluació automàtica de debats argumentatius i es prova amb debats humans reals. Finalment, en tercer lloc es presenten una sèrie d'estudis i propostes per a millorar la capacitat persuasiva de sistemes d'argumentació computacionals en la interacció amb usuaris humans. D'aquesta forma, en aquesta tesi es presenten avanços en cada una de les parts principals del procés d'argumentació computacional (i.e., l'extracció automàtica d'arguments, la representació del coneixement i raonament basats en arguments, i la interacció humà-computador basada en arguments), així com es proposen alguns dels fonaments essencials per a l'anàlisi automàtica completa de discursos argumentatius en llenguatge natural. / [EN] Computational argumentation is the area of research that studies and analyses the use of different techniques and algorithms that approximate human argumentative reasoning from a computational viewpoint. In this doctoral thesis we study the use of different techniques proposed under the framework of computational argumentation to perform an automatic analysis of argumentative discourse, and to develop argument-based computational persuasion techniques. With these objectives in mind, we first present a complete review of the state of the art and propose a classification of existing works in the area of computational argumentation. This review allows us to contextualise and understand the previous research more clearly from the human perspective of argumentative reasoning, and to identify the main limitations and future trends of the research done in computational argumentation. Secondly, to overcome some of these limitations, we create and describe a new corpus that allows us to address new challenges and investigate on previously unexplored problems (e.g., automatic evaluation of spoken debates). In conjunction with this data, a new system for argument mining is proposed and a comparative analysis of different techniques for this same task is carried out. In addition, we propose a new algorithm for the automatic evaluation of argumentative debates and we evaluate it with real human debates. Thirdly, a series of studies and proposals are presented to improve the persuasiveness of computational argumentation systems in the interaction with human users. In this way, this thesis presents advances in each of the main parts of the computational argumentation process (i.e., argument mining, argument-based knowledge representation and reasoning, and argument-based human-computer interaction), and proposes some of the essential foundations for the complete automatic analysis of natural language argumentative discourses. / This thesis has been partially supported by the Generalitat Valenciana project PROMETEO/2018/002 and by the Spanish Government projects TIN2017-89156-R and PID2020-113416RB-I00 / Ruiz Dolz, R. (2023). Computational Argumentation for the Automatic Analysis of Argumentative Discourse and Human Persuasion [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/194806 / Compendio
|
750 |
Surrogate models, physics-informed neural networks and climate changeSecci, Daniele 01 July 2024 (has links)
[ES] Esta investigación contribuye al avance de la modelación sustitutiva como una técnica poderosa en el campo de la simulación computacional que ofrece numerosas ventajas para resolver eficientemente problemas complejos. En particular, este estudio destaca el papel crucial de la modelación sustitutiva en la gestión de aguas subterráneas.
El impacto del cambio climático es un enfoque central, y el primer estudio tiene como objetivo construir modelos de datos sustitutivos para evaluar los efectos del cambio climático en los recursos de aguas subterráneas, también en el futuro. El estudio implica la comparación entre métodos estadísticos y diferentes tipos de Redes Neuronales Artificiales (ANN). La eficacia de los modelos sustitutivos se demostró en el norte de la Toscana (Italia), pero puede extenderse fácilmente a cualquier área de interés. El método estadístico adoptado implica analizar datos históricos de precipitación y temperatura junto con niveles de agua registrados en pozos de monitoreo. Inicialmente, el estudio explora posibles correlaciones entre índices meteorológicos e índices de agua subterránea; si se identifica una correlación, se emplea un análisis de regresión lineal. Estas relaciones establecidas se utilizan luego para estimar los futuros niveles de agua subterránea en función de las proyecciones de precipitación y temperatura obtenidas de un conjunto de Modelos Climáticos Regionales, bajo dos Trayectorias de Concentración Representativa: RCP4.5 y RCP8.5.
Posteriormente, se implementaron tres modelos distintos de Inteligencia Artificial (AI), AutoRegressive No Lineal con Entradas Exógenas (NARX), Memoria a Largo y Corto Plazo (LSTM) y Red Neuronal Convolucional (CNN) para evaluar el impacto del cambio climático en los recursos de aguas subterráneas para el mismo caso de estudio. Específicamente, estos modelos fueron entrenados utilizando directamente datos históricos de precipitación y temperatura como entrada para proporcionar niveles de agua subterránea como salida. Después de la fase de entrenamiento, los modelos de IA desarrollados se utilizaron para prever los futuros niveles de agua subterránea utilizando las mismas proyecciones de precipitación y temperatura y escenarios climáticos descritos anteriormente. Los resultados resal-taron diferentes salidas entre los modelos utilizados en este trabajo. Sin embargo, la mayoría de ellos predice una disminución en los niveles de agua subterránea como resultado de futuras variaciones en la precipitación y temperatura. Notablemente, el modelo LSTM emerge como el enfoque más prometedor para predecir futuros niveles de agua subterránea.
Dentro del mismo campo, se desarrolló una ANN con la capacidad de simular las condiciones de agua subterránea en la cuenca cerrada de Konya, Turquía, uno de los sitios piloto investigados como parte del proyecto InTheMED. Este modelo sirve como herramienta para examinar los impactos potenciales del cambio climático y las políticas agrícolas en los recursos de agua subterránea dentro de la región. El objetivo final de esta aplicación es proporcionar una herramienta fácil de usar, basada en la red neuronal entrenada. La simplicidad inherente del modelo sustitutivo, con una interfaz directa y resultados fáciles de entender, juega un papel crucial en los procesos de toma de decisiones.
En cuanto al transporte de contaminantes, se implementó una ANN para resolver diferentes problemas directos e inversos. El problema directo trata sobre la evaluación de concentraciones en pozos de monitoreo, mientras que el probl-ma inverso implica la identificación de fuentes de contaminantes y su historial de liberación. Demostró eficiencia al abordar problemas de transporte tanto directos como inversos, ofreciendo resultados confiables con una carga computacional reducida.
El estudio también aborda el desafío de la interpretabilidad de las ANNs y el llamado "problema de generalización" a través de las Redes Neuronales Informadas por la Física (PINNs) / [CA] Aquesta investigació contribueix a l'avanç de la modelació substitutiva com una tècnica potent en el camp de la simulació computacional que ofereix nombroses avantatges per a resoldre eficientment problemes complexos. En particular, aquest estudi destaca el paper crucial de la modelació substitutiva en la gestió d'aigües subterrànies.
L'impacte del canvi climàtic és un enfocament central, i el primer estudi té com a objectiu construir models de dades substitutius per avaluar els efectes del canvi climàtic en els recursos d'aigües subterrànies, també en el futur. L'estudi implica la comparació entre mètodes estadístics i diferents tipus de Xarxes Neuronals Artificials (ANN). L'eficàcia dels models substitutius es va demostrar al nord de la Toscana (Itàlia), però pot estendre's fàcilment a qualsevol àrea d'interès. El mètode estadístic adoptat implica analitzar dades històriques de precipitació i temperatura juntament amb nivells d'aigua registrats en pous de monitorització. Inicialment, l'estudi explora possibles correlacions entre índexs meteorològics i índexs d'aigua subterrània; si s'identifica una correlació, s'emplea una anàlisi de regressió lineal. Aquestes relacions establertes s'utilitzen després per estimar els futurs nivells d'aigua subterrània en funció de les projeccions de precipitació i temperatura obtingudes d'un conjunt de Models Climàtics Regionals, sota dues Trajectòries de Concentració Representativa: RCP4.5 i RCP8.5.
Posteriorment, es van implementar tres models diferents d'Intel·ligència Artificial (IA), AutoRegressive No Lineal amb Entrades Exògenes (NARX), Memòria a Llarg i Curt Terme (LSTM) i Xarxa Neuronal Convolucional (CNN) per avaluar l'impacte del canvi climàtic en els recursos d'aigües subterrànies per al mateix cas d'estudi. Específicament, aquests models van ser entrenats utilitzant directament dades històriques de precipitació i temperatura com a entrada per proporcionar nivells d'aigua subterrània com a sortida. Després de la fase d'entrenament, els models d'IA desenvolupats es van utilitzar per predir els futurs nivells d'aigua subterrània utilitzant les mateixes projeccions de precipitació i temperatura i escenaris climàtics descrits anteriorment. Els resultats van destacar diferents sortides entre els models utilitzats en aquest treball. No obstant això, la majoria d'ells preveu una disminució en els nivells d'aigua subterrània com a resultat de futures variacions en la precipitació i temperatura. Notablement, el model LSTM emergeix com l'enfocament més prometedor per predir futurs nivells d'aigua subterrània.
Dins del mateix camp, es va desenvolupar una ANN amb la capacitat de simular les condicions d'aigua subterrània a la conca tancada de Konya, Turquia, un dels llocs pilot investigats com a part del projecte InTheMED. Aquest model serveix com a eina per examinar els impactes potencials del canvi climàtic i les polítiques agrícoles en els recursos d'aigua subterrània dins de la regió. L'objectiu final d'aquesta aplicació és proporcionar una eina fàcil d'usar, basada en la xarxa neuronal entrenada. La simplicitat inherent del model substitutiu, amb una interfície directa i resultats fàcils d'entendre, juga un paper crucial en els processos de presa de decisions.
Pel que fa al transport de contaminants, es va implementar una ANN per resoldre diferents problemes directes i inversos. El problema directe tracta sobre l'avaluació de concentracions en pous de monitorització, mentre que el problema invers implica la identificació de fonts de contaminants i el seu historial de lliberació. Va demostrar eficiència en abordar problemes de transport tant directes com inversos, oferint resultats fiables amb una càrrega computacional reduïda.
L'estudi també aborda el repte de la interpretabilitat de les ANNs i el denominat "problema de generalització" a través de les Xarxes Neuronals Informades per la Física (PINNs). / [EN] This research contributes to the advancement of surrogate modelling as a powerful technique in the field of computational simulation that offers numerous advantages for solving complex problems efficiently. In particular, this study emphasizes the pivotal role of surrogate modeling in groundwater management. By integrating key factors like climate change and leveraging machine learning, particularly neural networks, the research facilitates more informed decision-making, significantly reducing the computational cost of complex numerical models.
The impact of climate change is a central focus and the first study aims to construct surrogate data-driven models for evaluating climate change effects on groundwater resources, also in the future. The study involves a comparison between statistical methods and different types of artificial neural networks (ANNs). The effectiveness of surrogate models was demonstrated in Northern Tuscany (Italy) but can easily extend to any area of interest. The adopted statistical method involves analyzing historical precipitation and temperature data along with groundwater levels recorded in monitoring wells. Initially, the study explores potential correlations between meteorological and groundwater indices; if a correlation is identified, a linear regression analysis is employed to establish relationships between them. These established relationships are then used to estimate future groundwater levels based on projected precipitation and temperature obtained from an ensemble of Regional Climate Models, under two Representative Concentration Pathways, namely RCP4.5 and RCP8.5.
Then, three distinct Artificial Intelligence (AI) models, Nonlinear AutoRegressive with eXogenous inputs (NARX), Long-Short Term Memory (LSTM) and Convolutional Neural Network (CNN) were implemented to evaluate the impact of cli-mate change on groundwater resources for the same case study. Specifically, these models were trained using directly historical precipitation and temperature data as input to provide groundwater levels as output. Following the training phase, the developed AI models were utilized to forecast future groundwater levels using the same precipitation and temperature projections and climate scenarios described above. The results highlighted different outputs among the models used in this work. However, most of them predict a decrease in groundwater levels as a result of future variations in precipitation and temperature. The study also presents the strengths and weaknesses of each model. Notably, the LSTM model emerges as the most promising approach to predict future groundwater levels.
Within the same field, an ANN was developed with the capability to simulate groundwater conditions in the Konya closed basin, Turkey, one of the pilot sites investigated as part of the InTheMED project. This model serves as a tool for examining the potential impacts of climate change and agricultural policies on groundwater resources within the region. The final goal of this application, is to provide a user-friendly tool, based on the trained neural network. The inherent simplicity of the surrogate model, with a straightforward interface and results that are simple to understand, plays a crucial role in decision-making processes.
Shifting to pollutant transport, an ANN was implemented to solve different direct and inverse problems. The direct problem deals with the evaluation of concentrations in monitoring wells, while the inverse problem involves the identification of contaminant sources and their release history. It demonstrated efficiency in addressing both direct and inverse transport problems, offering reliable results with reduced computational burden.
The study also addresses the interpretability challenge of ANNs and the so called "generalization problem" through Physics-Informed Neural Networks (PINNs reducing the gap between data-driven modeling and physics-based interpretations. / Secci, D. (2024). Surrogate models, physics-informed neural networks and climate change [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/205793
|
Page generated in 0.0909 seconds