• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 217
  • 14
  • 6
  • 3
  • Tagged with
  • 241
  • 241
  • 197
  • 172
  • 65
  • 63
  • 45
  • 45
  • 43
  • 39
  • 34
  • 32
  • 31
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Eficiencia Energética y Robustez en Problemas de Scheduling

Escamilla Fuster, Joan 16 May 2016 (has links)
[EN] Many industrial problems can be modelled as a scheduling problem where some resources are assigned to tasks so as to minimize the completion time, to reduce the use of resources, idle time, etc. There are several scheduling problems which try to represent different kind of situations that can appear in real world problems. Job Shop Scheduling Problem (JSP) is the most used problem. In JSP there are different jobs, every job has different tasks and these tasks have to be executed by different machines. JSP can be extended to other problems in order to simulate more real problems. In this work we have used the problem job shop with operators JSO(n,p) where each task must also be assisted by one operator from a limited set of them. Additionally, we have extended the classical JSP to a job-shop scheduling problem where machines can consume different amounts of energy to process tasks at different rates (JSMS). In JSMS operation has to be executed by a machine that has the possibility to work at different speeds. Scheduling problems consider optimization indicators such as processing time, quality and cost. However, governments and companies are also interested in energy-consumption due to the rising demand and price of fuel, the reduction in energy commodity reserves and growing concern about global warming. In this thesis, we have developed new metaheuristic search techniques to model and solve the JSMS problem. Robustness is a common feature in real life problems. A system persists if it remains running and maintains his main features despite continuous perturbations, changes or incidences. We have developed a technique to solve the $JSO(n,p)$ problem with the aim of obtaining optimized and robust solutions. We have developed a dual model to relate optimality criteria with energy consumption and robustness/stability in the JSMS problem. This model is committed to protect dynamic tasks against further incidences in order to obtain robust and energy-aware solutions. The proposed dual model has been evaluated with a memetic algorithm to compare the behaviour against the original model. In the JSMS problem there are a relationship between Energy-efficiency, Robustness and Makespan. Therefore, the relationship between these three objectives is studied. Analytical formulas are proposed to analyse the relationship between these objectives. The results show the trade-off between makespan and robustness, and the direct relationship between robustness and energy-efficiency. To reduce the makespan and to process the tasks faster, energy consumption has to be increased. When the energy consumption is low it is because the machines are not working at highest speed. So, if an incidence appears, the speed of these machines can be increased in order to recover the time lost by the incidence. Hence robustness is directly related with energy consumption. Additionally, robustness is also directly related with makespan because, when makespan increases, there are more gaps in the solution, these incidences can be absorbed by these natural buffers. The combination of robustness and stability gives the proposal an added value due to since an incidence cannot be directly absorbed by the disrupted task and it can be repaired by involving only a small number of tasks. In this work we propose two different techniques to manage rescheduling over the JSMS problem. This work represents a breakthrough in the state of the art of scheduling problems and in particular the problem where energy consumption can be controlled by the rate of the machines. / [ES] Muchos de los problemas industriales se pueden modelar como un problema de scheduling donde algunos recursos son asignados a tareas a fin de minimizar el tiempo de finalización, para reducir el uso de los recursos, el tiempo de inactividad, etc. Job-Shop scheduling (JSP) es el problema más utilizado. En JSP hay diferentes trabajos, cada trabajo tiene diferentes tareas y estas tareas tienen que ser ejecutadas por diferentes máquinas. JSP puede ser extendido a otros problemas con el fin de simular una mayor cantidad de problemas reales. En este trabajo se ha utilizado el problema job shop scheduling con operadores JSO(n, p), donde cada tarea también debe ser asistida por un operador de un conjunto limitado de ellos. Además, hemos ampliado el clásico problema JSP a un problema donde las máquinas pueden consumir diferentes cantidades de energía al procesar tareas a diferentes velocidades (JSMS). En JSMS las operaciones tiene que ser ejecutadas por una máquina que tiene la posibilidad de trabajar a diferentes velocidades. Los problemas de scheduling consideran indicadores de optimización tales como: el procesamiento de tiempo, la calidad y el coste. Sin embargo, hoy en día los gobiernos y los empresarios están interesados también en el control del consumo de energía debido al aumento de la demanda y del precio de los combustibles, la reducción de las reservas de materias primas energéticas y la creciente preocupación por el calentamiento global. En esta tesis, hemos desarrollado nuevas técnicas de búsqueda metaheurística para modelar y resolver el problema JSMS. La robustez es una característica común en los problemas de la vida real. Un sistema persiste si permanece en funcionamiento y mantiene sus principales características a pesar de las perturbaciones continuas, cambios o incidencias. Hemos desarrollado una técnica para resolver el problema JSO(n, p) con el objetivo de obtener soluciones robustas y optimizadas. Hemos desarrollado un modelo dual para relacionar los criterios de optimalidad con el consumo de energía y la robustez/estabilidad en el problema JSMS. Este modelo se ha desarrollado para proteger a las tareas dinámicas contra incidencias, con el fin de obtener soluciones sólidas y que tengan en cuenta el consumo de la energía. El modelo dual propuesto ha sido evaluado con un algoritmo memético para comparar el comportamiento frente al modelo original. En el problema JSMS hay una relación entre la eficiencia energética, la robustez y el makespan. Por lo tanto, se estudia la relación entre estos tres objetivos. Se desarrollan fórmulas analíticas para representar la relación estimada entre estos objetivos. Los resultados muestran el equilibrio entre makespan y robustez, y la relación directa entre la robustez y eficiencia energética. Para reducir el makespan, el consumo de energía tiene que ser aumentado para poder procesar las tareas más rápido. Cuando el consumo de energía es bajo, debido a que las máquinas no están trabajando a la velocidad más alta, si una incidencia aparece, la velocidad de estas máquinas puede ser aumentada con el fin de recuperar el tiempo perdido por la incidencia. Por lo tanto la robustez está directamente relacionada con el consumo de energía. Además, la robustez también está directamente relacionada con el makespan porque, cuando el makespan aumenta hay más huecos en la solución, que en caso de surgir incidencias, estas pueden ser absorbidas por estos buffers naturales. La combinación de robustez y estabilidad da un valor añadido debido a que si una incidencia no puede ser absorbida directamente por la tarea interrumpida, esta puede ser reparada mediante la participación un pequeño número de tareas.En este trabajo se proponen dos técnicas diferentes para gestionar el rescheduling sobre el problema JSMS. Este trabajo representa un avance en el estado del arte en los problemas de scheduling y en el problema donde el consumo de energía p / [CA] Molts dels problemes industrials es poden modelar com un problema de scheduling on alguns recursos són assignats a tasques a fi de minimitzar el temps de finalització, per a reduir l'ús dels recursos, el temps d'inactivitat, etc. Existeixen diversos tipus de problemes de scheduling que intenten representar diferents situacions que poden aparèixer en els problemes del món real. Job-Shop scheduling (JSP) és el problema més utilitzat. En JSP hi ha diferents treballs, cada treball té diferents tasques i aquestes tasques han de ser executades per diferents màquines. JSP pot ser estès a altres problemes amb la finalitat de simular una major quantitat de problemes reals. En aquest treball s'ha utilitzat el problema job shop scheduling amb operadors JSO(n, p), on cada tasca també ha de ser assistida per un operador d'un conjunt limitat d'ells. A més, hem ampliat el clàssic problema JSP a un problema on les màquines poden consumir diferents quantitats d'energia per a processar tasques a diferents velocitats (JSMS). Els problemes de scheduling consideren indicadors d'optimització tals com: el processament de temps, la qualitat i el cost. No obstant açò, avui en dia els governs i els empresaris estan interessats també amb el control del consum d'energia a causa de l'augment de la demanda i del preu dels combustibles, la reducció de les reserves de matèries primeres energètiques i la creixent preocupació per l'escalfament global. En aquesta tesi, hem desenvolupat noves tècniques de cerca metaheurística per a modelar i resoldre el problema JSMS. La robustesa és una característica comuna en els problemes de la vida real. Un sistema persisteix si continua en funcionament i manté les seues principals característiques malgrat les pertorbacions contínues, canvis o incidències. Hem desenvolupat una tècnica per a resoldre el problema JSO(n, p) amb l'objectiu d'obtenir solucions robustes i optimitzades. Hem desenvolupat un model dual per a relacionar els criteris de optimalidad amb el consum d'energia i la robustesa/estabilitat en el problema JSMS. Aquest model s'ha desenvolupat per a protegir a les tasques dinàmiques contra incidències, amb la finalitat d'obtenir solucions sòlides i que tinguen en compte el consum de l'energia. El model dual proposat ha sigut evaluat amb un algorisme memético per a comparar el comportament front un model original. En el problema JSMS hi ha una relació entre l'eficiència energètica, la robustesa i el makespan. Per tant, s'estudia la relació entre aquests tres objectius. Es desenvolupen fórmules analítiques per a representar la relació estimada entre aquests objectius. Els resultats mostren l'equilibri entre makespan i robustesa, i la relació directa entre la robustesa i l'eficiència energètica. Per a reduir el makespan, el consum d'energia ha de ser augmentat per a poder processar les tasques més ràpid. Quan el consum d'energia és baix, a causa que les màquines no estan treballant a la velocitat més alta, si una incidència apareix, la velocitat d'aquestes màquines pot ser augmentada amb la finalitat de recuperar el temps perdut per la incidència. Per tant la robustesa està directament relacionada amb el consum d'energia. A més, la robustesa també està directament relacionada amb el makespan perquè, quan el makespan augmenta hi ha més buits en la solució, que en cas de sorgir incidències, aquestes poden ser absorbides per els buffers naturals. La combinació de robustesa i estabilitat dóna un valor afegit a causa de que si una incidència no pot ser absorbida directament per la tasca interrompuda, aquesta pot ser reparada mitjançant la participació d'un xicotet nombre de tasques. En aquest treball es proposen dues tècniques diferents per a gestionar el rescheduling sobre el problema JSMS. Aquest treball representa un avanç en l'estat de l'art en els problemes de scheduling i, en particular, en el problema on el consum d'energia pot ser controlat per / Escamilla Fuster, J. (2016). Eficiencia Energética y Robustez en Problemas de Scheduling [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/64062
232

Design and assessment of a computer-assisted artificial intelligence system for predicting preterm labor in women attending regular check-ups. Emphasis in imbalance data learning technique

Nieto del Amor, Félix 18 December 2023 (has links)
Tesis por compendio / [ES] El parto prematuro, definido como el nacimiento antes de las 37 semanas de gestación, es una importante preocupación mundial con implicaciones para la salud de los recién nacidos y los costes económicos. Afecta aproximadamente al 11% de todos los nacimientos, lo que supone más de 15 millones de individuos en todo el mundo. Los métodos actuales para predecir el parto prematuro carecen de precisión, lo que conduce a un sobrediagnóstico y a una viabilidad limitada en entornos clínicos. La electrohisterografía (EHG) ha surgido como una alternativa prometedora al proporcionar información relevante sobre la electrofisiología uterina. Sin embargo, los sistemas de predicción anteriores basados en EHG no se han trasladado de forma efectiva a la práctica clínica, debido principalmente a los sesgos en el manejo de datos desbalanceados y a la necesidad de modelos de predicción robustos y generalizables. Esta tesis doctoral pretende desarrollar un sistema de predicción del parto prematuro basado en inteligencia artificial utilizando EHG y datos obstétricos de mujeres sometidas a controles prenatales regulares. Este sistema implica la extracción de características relevantes, la optimización del subespacio de características y la evaluación de estrategias para abordar el reto de los datos desbalanceados para una predicción robusta. El estudio valida la eficacia de las características temporales, espectrales y no lineales para distinguir entre casos de parto prematuro y a término. Las nuevas medidas de entropía, en concreto la dispersión y la entropía de burbuja, superan a las métricas de entropía tradicionales en la identificación del parto prematuro. Además, el estudio trata de maximizar la información complementaria al tiempo que minimiza la redundancia y las características de ruido para optimizar el subespacio de características para una predicción precisa del parto prematuro mediante un algoritmo genético. Además, se ha confirmado la fuga de información entre el conjunto de datos de entrenamiento y el de prueba al generar muestras sintéticas antes de la partición de datos, lo que da lugar a una capacidad de generalización sobreestimada del sistema predictor. Estos resultados subrayan la importancia de particionar y después remuestrear para garantizar la independencia de los datos entre las muestras de entrenamiento y de prueba. Se propone combinar el algoritmo genético y el remuestreo en la misma iteración para hacer frente al desequilibrio en el aprendizaje de los datos mediante el enfoque de particio'n-remuestreo, logrando un área bajo la curva ROC del 94% y una precisión media del 84%. Además, el modelo demuestra un F1-score y una sensibilidad de aproximadamente el 80%, superando a los estudios existentes que consideran el enfoque de remuestreo después de particionar. Esto revela el potencial de un sistema de predicción de parto prematuro basado en EHG, permitiendo estrategias orientadas al paciente para mejorar la prevención del parto prematuro, el bienestar materno-fetal y la gestión óptima de los recursos hospitalarios. En general, esta tesis doctoral proporciona a los clínicos herramientas valiosas para la toma de decisiones en escenarios de riesgo materno-fetal de parto prematuro. Permite a los clínicos diseñar estrategias orientadas al paciente para mejorar la prevención y el manejo del parto prematuro. La metodología propuesta es prometedora para el desarrollo de un sistema integrado de predicción del parto prematuro que pueda mejorar la planificación del embarazo, optimizar la asignación de recursos y reducir el riesgo de parto prematuro. / [CA] El part prematur, definit com el naixement abans de les 37 setmanes de gestacio', e's una important preocupacio' mundial amb implicacions per a la salut dels nounats i els costos econo¿mics. Afecta aproximadament a l'11% de tots els naixements, la qual cosa suposa me's de 15 milions d'individus a tot el mo'n. Els me¿todes actuals per a predir el part prematur manquen de precisio', la qual cosa condueix a un sobrediagno¿stic i a una viabilitat limitada en entorns cl¿'nics. La electrohisterografia (EHG) ha sorgit com una alternativa prometedora en proporcionar informacio' rellevant sobre l'electrofisiologia uterina. No obstant aixo¿, els sistemes de prediccio' anteriors basats en EHG no s'han traslladat de manera efectiva a la pra¿ctica cl¿'nica, degut principalment als biaixos en el maneig de dades desequilibrades i a la necessitat de models de prediccio' robustos i generalitzables. Aquesta tesi doctoral prete'n desenvolupar un sistema de prediccio' del part prematur basat en intel·lige¿ncia artificial utilitzant EHG i dades obste¿triques de dones sotmeses a controls prenatals regulars. Aquest sistema implica l'extraccio' de caracter¿'stiques rellevants, l'optimitzacio' del subespai de caracter¿'stiques i l'avaluacio' d'estrate¿gies per a abordar el repte de les dades desequilibrades per a una prediccio' robusta. L'estudi valguda l'efica¿cia de les caracter¿'stiques temporals, espectrals i no lineals per a distingir entre casos de part prematur i a terme. Les noves mesures d'entropia, en concret la dispersio' i l'entropia de bambolla, superen a les me¿triques d'entropia tradicionals en la identificacio' del part prematur. A me's, l'estudi tracta de maximitzar la informacio' complementa¿ria al mateix temps que minimitza la redunda¿ncia i les caracter¿'stiques de soroll per a optimitzar el subespai de caracter¿'stiques per a una prediccio' precisa del part prematur mitjan¿cant un algorisme gene¿tic. A me's, hem confirmat la fugida d'informacio' entre el conjunt de dades d'entrenament i el de prova en generar mostres sinte¿tiques abans de la particio' de dades, la qual cosa dona lloc a una capacitat de generalitzacio' sobreestimada del sistema predictor. Aquests resultats subratllen la importa¿ncia de particionar i despre's remostrejar per a garantir la independe¿ncia de les dades entre les mostres d'entrenament i de prova. Proposem combinar l'algorisme gene¿tic i el remostreig en la mateixa iteracio' per a fer front al desequilibri en l'aprenentatge de les dades mitjan¿cant l'enfocament de particio'-remostrege, aconseguint una a¿rea sota la corba ROC del 94% i una precisio' mitjana del 84%. A me's, el model demostra una puntuacio' F1 i una sensibilitat d'aproximadament el 80%, superant als estudis existents que consideren l'enfocament de remostreig despre's de particionar. Aixo¿ revela el potencial d'un sistema de prediccio' de part prematur basat en EHG, permetent estrate¿gies orientades al pacient per a millorar la prevencio' del part prematur, el benestar matern-fetal i la gestio' o¿ptima dels recursos hospitalaris. En general, aquesta tesi doctoral proporciona als cl¿'nics eines valuoses per a la presa de decisions en escenaris de risc matern-fetal de part prematur. Permet als cl¿'nics dissenyar estrate¿gies orientades al pacient per a millorar la prevencio' i el maneig del part prematur. La metodologia proposada e's prometedora per al desenvolupament d'un sistema integrat de prediccio' del part prematur que puga millorar la planificacio' de l'embara¿s, optimitzar l'assignacio' de recursos i millorar la qualitat de l'atencio'. / [EN] Preterm delivery, defined as birth before 37 weeks of gestation, is a significant global concern with implications for the health of newborns and economic costs. It affects approximately 11% of all births, amounting to more than 15 million individuals worldwide. Current methods for predicting preterm labor lack precision, leading to overdiagnosis and limited practicality in clinical settings. Electrohysterography (EHG) has emerged as a promising alternative by providing relevant information about uterine electrophysiology. However, previous prediction systems based on EHG have not effectively translated into clinical practice, primarily due to biases in handling imbalanced data and the need for robust and generalizable prediction models. This doctoral thesis aims to develop an artificial intelligence based preterm labor prediction system using EHG and obstetric data from women undergoing regular prenatal check-ups. This system entails extracting relevant features, optimizing the feature subspace, and evaluating strategies to address the imbalanced data challenge for robust prediction. The study validates the effectiveness of temporal, spectral, and non-linear features in distinguishing between preterm and term labor cases. Novel entropy measures, namely dispersion and bubble entropy, outperform traditional entropy metrics in identifying preterm labor. Additionally, the study seeks to maximize complementary information while minimizing redundancy and noise features to optimize the feature subspace for accurate preterm delivery prediction by a genetic algorithm. Furthermore, we have confirmed leakage information between train and test data set when generating synthetic samples before data partitioning giving rise to an overestimated generalization capability of the predictor system. These results emphasize the importance of using partitioning-resampling techniques for ensuring data independence between train and test samples. We propose to combine genetic algorithm and resampling method at the same iteration to deal with imbalanced data learning using partition-resampling pipeline, achieving an Area Under the ROC Curve of 94% and Average Precision of 84%. Moreover, the model demonstrates an F1-score and recall of approximately 80%, outperforming existing studies on partition-resampling pipeline. This finding reveals the potential of an EHG-based preterm birth prediction system, enabling patient-oriented strategies for enhanced preterm labor prevention, maternal-fetal well-being, and optimal hospital resource management. Overall, this doctoral thesis provides clinicians with valuable tools for decision-making in preterm labor maternal-fetal risk scenarios. It enables clinicians to design a patient-oriented strategies for enhanced preterm birth prevention and management. The proposed methodology holds promise for the development of an integrated preterm birth prediction system that can enhance pregnancy planning, optimize resource allocation, and ultimately improve the outcomes for both mother and baby. / Nieto Del Amor, F. (2023). Design and assessment of a computer-assisted artificial intelligence system for predicting preterm labor in women attending regular check-ups. Emphasis in imbalance data learning technique [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/200900 / Compendio
233

Aplicação do algoritmo genético adaptativo com hipermutação no ajuste dos parâmetros dos controladores suplementares e dispositivo FACTS IPFC /

Cordero Bautista, Luis Gustavo January 2019 (has links)
Orientador: Percival Bueno de Araujo / Resumo: As perturbações ou variações de carga produzem oscilações eletromecânicas que devem ser amortecidas o mais rápido possível para garantir confiabilidade e estabilidade da rede. Neste trabalho apresenta-se uma análise do dispositivo FACTS Interline Power Flow Controller (IPFC) e o controlador Proporcional Integral (PI) no gerenciamento dos fluxos de potência e a influência dos Estabilizadores do Sistema de Potência (ESP) e do IPFC Power Oscillation Damping (POD) sobre a estabilidade do sistema elétrico de potência. Neste trabalho enfoca-se nos estudos de estabilidade a pequenas perturbações usando um Algoritmo Genético Adaptativo com Hiper-mutação (AGAH) para ajustar os parâmetros dos controladores suplementares de amortecimento, o Estabilizador de sistema de potência (ESPs) e o Power Oscillation Damping (POD) em forma coordenada. O AGAH tem como objetivo encontrar os parâmetros ótimos do controlador para melhorar o amortecimento fraco das oscilações de baixa frequência locais e inter-área. Neste trabalho representa-se o sistema de elétrico de potência com a inclusão do dispositivo Interline Power Flow Controller com o modelo de sensibilidade de corrente (MSC). Considera-se como sistema teste o sistema Simétrico de Duas Áreas e o sistema New England como o intuito de avaliar o algoritmo proposto. As simulações são feitas no ambiente do MatLab. Por fim, apresenta-se a comparação do algoritmo genético com o desempenho do algoritmo proposto. / Abstract: Small-magnitude disturbances happen to produce electro-mechanical oscillations which should be damped as quickly as possible to ensure reliability and stability of the network. This work presents an analysis of Interline Power Flow Controller (IPFC) FACTS device and PI controller to control and manage power flow and also how Power System Stabilizers and IPFC Power Oscillations Damping (POD) controller influence over an electric power system stability. This work focuses on small-signal stability studies using an Adaptive Genetic Algorithm with Hyper-mutation (AGAH) in order to tune controller parameters in a coordinated way ensuring proper damping. AGAH aims to find optimal controller parameters to enhance the poor damping of local and inter-area low frequency oscillations. This works represents the electric power system and Interline Power Flow Controller device by a current sensitivity model (CSM). This paper considers two areas 14 bus symmetrical power system and New England power system in order to assess proposed algorithm. Coding and Simulations take place in MatLab platform. AGAH and GA get compared by time convergence and performance. This paper shows AGAH is an interesting optimization technique which outweighs GA. / Mestre
234

Uma abordagem evolutiva para geração procedural de níveis em jogos de quebra-cabeças baseados em física / An evolutionary approach for procedural generation of levels in physics-based puzzle games

Ferreira, Lucas Nascimento 15 July 2015 (has links)
Na última década diversos algoritmos baseados em busca foram desenvolvidos para a geração de níveis em diferentes tipos de jogos. O espaço de busca para geração de níveis geralmente possui restrições, uma vez que a mecânica de um jogo define regras de factibilidade para os níveis. Em alguns métodos, a avaliação de factibilidade requer uma simulação com um agente inteligente que controla o jogo. Esse processo de avaliação geralmente possui ruído, causado por componentes aleatórios no simulador ou na estratégia do agente. Diversos trabalhos têm utilizado simulação como forma de avaliação de conteúdo, no entanto, nenhum deles discutiu profundamente a presença de ruído neste tipo de abordagem. Assim, esse trabalho apresenta um algoritmo genético capaz de gerar níveis factíveis que são avaliados por um agente inteligente em uma simulação ruidosa. O algoritmo foi aplicado a jogos de quebra-cabeças baseados em física com a mecânica do Angry Birds. Uma representação dos níveis em forma de indivíduos é introduzida, a qual permite que o algoritmo genético os evolua com características diferenciadas. O ruído na função de aptidão é tratado por uma nova abordagem, baseada em uma sistema de cache, que auxilia o algoritmo genético a encontrar boas soluções candidatas. Três conjuntos de experimentos foram realizados para avaliar o algoritmo. O primeiro compara o método de cache proposto com outros métodos de redução de ruído da literatura. O segundo mede a expressividade do algoritmo genético considerando as características estruturais dos níveis gerados. O último avalia os níveis gerados considerando aspectos de design (como dificuldade, imersão e diversão), os quais são medidos por meio de questionários respondidos por jogadores humanos via Internet. Os resultados mostraram que o algoritmo genético foi capaz de gerar níveis distintos que são tão imersíveis quanto níveis produzidos manualmente. Além disso, a abordagem de cache lidou apropriadamente com o ruído nos cálculos de aptidão, permitindo uma correta evolução elitista. / In the last decade several search-based algorithms have been developed for generating levels in different types of games. The search space for level generation is typically constrained once the game mechanics define feasibility rules for the levels. In some methods, evaluating level feasibility requires a simulation with an intelligent agent which plays the game. This evaluation process usually has noise, caused by random components in the simulator or in the agent strategy. Several works have used a simulation for content evaluation, however, none of them have deeply discussed the presence of noise in this kind of approach. Thus, this paper presents a genetic algorithm capable of generating feasible levels that are evaluated by an intelligent agent in a noisy simulation. The algorithm was applied to physics-based puzzle games with the Angry Birds mechanics. A level representation in the form of individuals is introduced, which allows the genetic algorithm to evolve them with distinct characteristics. The fitness function noise is handled by a new approach, based on a cache system, which helps the genetic algorithm finding good candidate solutions. Three sets of experiments were conducted to evaluate the algorithm. The first one compares the proposed cache approach with other noise reduction methods of the literature. The second one measures the expressivity of the genetic algorithm considering the structural characteristics of the levels. The last one evaluates design aspects (such as difficulty, immersion and fun) of the generated levels using questionnaires answered by human players via Internet. Results showed the genetic algorithm was capable of generating distinct levels that are as immersive as levels manually designed. Moreover, the cache approach handled properly the noise in the fitness calculations, allowing a correct elitist evolution.
235

Sistema de visão computacional para detecção do uso de telefones celulares ao dirigir / A computer vision system tor detecting use of mobile phones while driving

Berri, Rafael Alceste 21 February 2014 (has links)
Made available in DSpace on 2016-12-12T20:22:52Z (GMT). No. of bitstreams: 1 RAFAEL ALCESTE BERRI.pdf: 28428368 bytes, checksum: 667b9facc9809bfd5e0847e15279b0e6 (MD5) Previous issue date: 2014-02-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this work, three proposals of systems have been developed using a frontal camera to monitor the driver and enabling to identificate if a cell phone is being used while driving the vehicle. It is estimated that 80% of crashes and 65% of near collisions involved drivers who were inattentive in traffic for three seconds before the event. Five videos in real environment were generated to test the systems. The pattern recognition system (RP) uses adaptive skin segmentation, feature extraction, and machine learning to detect cell phone usage on each frame. The cell phone detection happens when, in periods of 3 seconds, 60% (threshold) of frames or more are identified as a cell phone use, individually. The average accuracy on videos achieved was 87.25% with Multilayer Perceptron (MLP), Gaussian activation function, and two neurons of the intermediate layer. The movement detection system (DM) uses optical flow, filtering the most relevant movements of the scene, and three successive frames for detecting the movements to take the phone to the ear and take it off. The DM proposal was not demonstrated as being an effective solution for detecting cell phone use, reaching an accuracy of 52.86%. The third solution is a hybrid system. It uses the RP system for classification and the DM for choosing the RP parameters. The parameters chosen for RP are the threshold and the classification system. The definition of these two parameters occurs at the end of each period, based on movement detected by the DM. Experimentally it was established that, when the movement induces to use cell phone, it is proper to use the threshold of 60%, and the classifier as MLP/Gaussian with seven neurons of the intermediate layer; otherwise, it is used threshold 85%, and MLP/Gaussian with two neurons of the intermediate layer for classification. The hybrid solution is the most robust system with average accuracy of 91.68% in real environment. / Neste trabalho, são desenvolvidas três propostas de sistemas que permitem identificar o uso de celular, durante o ato de dirigir um veículo, utilizando imagens capturadas de uma câmera posicionada em frente ao motorista. Estima-se que 80% das colisões e 65% das quase colisões envolveram motoristas que não estavam prestando a devida atenção ao trânsito por três segundos antes do evento. Cinco vídeos em ambiente real foram gerados com o intuito de testar os sistemas. A proposta de reconhecimento de padrões (RP) emprega segmentação de pele adaptativa, extração de características e aprendizado de máquina (classificador) na detecção do celular em cada quadro processado. A detecção do uso do celular ocorre quando, em períodos de 3 segundos, ao menos em 60% dos quadros (corte) são identificados com celular. A acurácia média nos vídeos alcançou 87, 25% ao utilizar Perceptron Multi-camadas (MLP) com função de ativação gaussiana e dois neurônios na camada intermediária como classificador. A proposta de detecção de movimento (DM) utiliza o fluxo ótico, filtragem dos movimentos mais relevantes da cena e três quadros consecutivos para detectar os momentos de levar o celular ao ouvido e o retirá-lo. A aplicação do DM, como solução para detectar o uso do celular, não se demostrou eficaz atingindo uma acurácia de 52, 86%. A terceira proposta, uma solução híbrida, utiliza o sistema RP como classificador e o de DM como seu parametrizador. Os parâmetros escolhidos para o sistema de RP são o corte e o sistema classificador. A definição desses dois parâmetros ocorre ao final de cada período, baseada na movimentação detectada pela DM. Com experimentações definiu-se que, caso a movimentação induza ao uso do celular, é adequado o uso do corte de 60% e o classificador MLP/Gaussiana com sete neurônios na camada intermediária, caso contrário, utiliza-se o corte de 85% e classificador MLP/Gaussiana com dois neurônios na mesma camada. A versão híbrida é a solução desenvolvida mais robusta, atingindo a melhor acurácia média de 91, 68% em ambiente real.
236

Uma abordagem evolutiva para geração procedural de níveis em jogos de quebra-cabeças baseados em física / An evolutionary approach for procedural generation of levels in physics-based puzzle games

Lucas Nascimento Ferreira 15 July 2015 (has links)
Na última década diversos algoritmos baseados em busca foram desenvolvidos para a geração de níveis em diferentes tipos de jogos. O espaço de busca para geração de níveis geralmente possui restrições, uma vez que a mecânica de um jogo define regras de factibilidade para os níveis. Em alguns métodos, a avaliação de factibilidade requer uma simulação com um agente inteligente que controla o jogo. Esse processo de avaliação geralmente possui ruído, causado por componentes aleatórios no simulador ou na estratégia do agente. Diversos trabalhos têm utilizado simulação como forma de avaliação de conteúdo, no entanto, nenhum deles discutiu profundamente a presença de ruído neste tipo de abordagem. Assim, esse trabalho apresenta um algoritmo genético capaz de gerar níveis factíveis que são avaliados por um agente inteligente em uma simulação ruidosa. O algoritmo foi aplicado a jogos de quebra-cabeças baseados em física com a mecânica do Angry Birds. Uma representação dos níveis em forma de indivíduos é introduzida, a qual permite que o algoritmo genético os evolua com características diferenciadas. O ruído na função de aptidão é tratado por uma nova abordagem, baseada em uma sistema de cache, que auxilia o algoritmo genético a encontrar boas soluções candidatas. Três conjuntos de experimentos foram realizados para avaliar o algoritmo. O primeiro compara o método de cache proposto com outros métodos de redução de ruído da literatura. O segundo mede a expressividade do algoritmo genético considerando as características estruturais dos níveis gerados. O último avalia os níveis gerados considerando aspectos de design (como dificuldade, imersão e diversão), os quais são medidos por meio de questionários respondidos por jogadores humanos via Internet. Os resultados mostraram que o algoritmo genético foi capaz de gerar níveis distintos que são tão imersíveis quanto níveis produzidos manualmente. Além disso, a abordagem de cache lidou apropriadamente com o ruído nos cálculos de aptidão, permitindo uma correta evolução elitista. / In the last decade several search-based algorithms have been developed for generating levels in different types of games. The search space for level generation is typically constrained once the game mechanics define feasibility rules for the levels. In some methods, evaluating level feasibility requires a simulation with an intelligent agent which plays the game. This evaluation process usually has noise, caused by random components in the simulator or in the agent strategy. Several works have used a simulation for content evaluation, however, none of them have deeply discussed the presence of noise in this kind of approach. Thus, this paper presents a genetic algorithm capable of generating feasible levels that are evaluated by an intelligent agent in a noisy simulation. The algorithm was applied to physics-based puzzle games with the Angry Birds mechanics. A level representation in the form of individuals is introduced, which allows the genetic algorithm to evolve them with distinct characteristics. The fitness function noise is handled by a new approach, based on a cache system, which helps the genetic algorithm finding good candidate solutions. Three sets of experiments were conducted to evaluate the algorithm. The first one compares the proposed cache approach with other noise reduction methods of the literature. The second one measures the expressivity of the genetic algorithm considering the structural characteristics of the levels. The last one evaluates design aspects (such as difficulty, immersion and fun) of the generated levels using questionnaires answered by human players via Internet. Results showed the genetic algorithm was capable of generating distinct levels that are as immersive as levels manually designed. Moreover, the cache approach handled properly the noise in the fitness calculations, allowing a correct elitist evolution.
237

Cálculo de campos elétricos e magnéticos nas proximidades de linhas de transmissão: uma abordagem analítica e numérica / Calculation of electric and magnetic fields in the proximity of transmission lines: an analytical and numerical approach

Pereira, Arthur Melo 26 September 2017 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2017-11-16T09:48:38Z No. of bitstreams: 2 Dissertação - Arthur Melo Pereira - 2017.pdf: 8324435 bytes, checksum: a36f9e13810ace212ce9d44a66fc2fb4 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-11-16T09:49:04Z (GMT) No. of bitstreams: 2 Dissertação - Arthur Melo Pereira - 2017.pdf: 8324435 bytes, checksum: a36f9e13810ace212ce9d44a66fc2fb4 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-11-16T09:49:04Z (GMT). No. of bitstreams: 2 Dissertação - Arthur Melo Pereira - 2017.pdf: 8324435 bytes, checksum: a36f9e13810ace212ce9d44a66fc2fb4 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-09-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In a society dependent on electric energy for the execution of various daily activities, it is normal that its use is increasingly increasing over time. In order to carry out the transportation of all electric energy, it is essential to use transmission lines, which with increasing energy demand inevitably have tended to multiply throughout the world, and especially in Brazil, given its continental dimensions. Considering the function of the transmission lines for the electrical system, its importance in the context of the electric power supply is remarkable. However, the lines constitute one of the great emitting sources of electric and magnetic fields of low frequency, which has caused concern and has been motivating fact of several studies, like the realized in this work. Therefore, in view of the scenario presented in the previous paragraph, it is necessary to establish ways of calculating the fields more and more precisely. For the calculation of the electric field is used the Image Method, the Maxwell Potential Coefficients Method and the Coulomb Law, and for the magnetic field the Biot-Savart's Law is used. The results obtained for the electric and magnetic fields were for infinite rectilinear geometries, finite rectilinear and for the conductors taking the form of a catenary, the latter geometry being the most real model for the arrangement of the conductors in a line. In all cases treated, an analytical and numerical approach was performed, in order to allow the calculation of the three geometries with accuracy. Taking advantage of the methodology of calculation of the fields, in addition this work proposes a method of support to the monitoring of transmission lines. The method consists of using the Genetic Algorithm associated to the values of the electric and magnetic fields measured to determine the parameters of the line, such as: phase spacing, cable-soil height, equivalent conductor diameter, current and operating voltage. Given the simplicity of implementation when compared to other methods, the achievement of satisfactory results and the need for a single measuring device to monitor the transmission line, the proposed method proves to be viable and promising to carry out the line monitoring process. / Em uma sociedade dependente da energia elétrica para a execução de diversas atividades do cotidiano, é normal que a sua utilização seja cada vez mais crescente no decorrer do tempo. Para realizar o transporte de toda energia elétrica é imprescindível o uso de linhas de transmissão, que com o aumento da demanda de energia inevitavelmente tenderam a se multiplicar pelo mundo e em especial pelo território brasileiro, dadas as suas dimensões continentais. Tendo em vista a função das linhas de transmissão para o sistema elétrico, é notável a sua importância no contexto do fornecimento de energia elétrica. No entanto, as linhas constituem uma das grandes fontes emissoras de campos elétricos e magnéticos de baixa frequência, o que tem causado preocupação e tem sido fato motivador de diversos estudos, como o realizado neste trabalho. Portanto, diante do cenário apresentado no parágrafo anterior, se faz necessário estabelecer formas de calcular os campos de maneira cada vez mais precisa. Para o cálculo do campo elétrico utiliza-se o Método das Imagens, o Método dos Coeficientes de Potencial de Maxwell e a Lei de Coulomb, já para o campo magnético a Lei de Biot-Savart é empregada. Os resultados obtidos para os campos elétricos e magnéticos foram para as geometrias retilíneas infinitas, retilíneas finitas e para os condutores assumindo a forma de uma catenária, sendo que essa última geometria constitui o modelo mais real quanto à disposição dos condutores em uma linha. Em todos os casos tratados foram realizadas uma abordagem analítica e numérica, de maneira a possibilitar o cálculo das três geometrias com exatidão. Aproveitando-se da metodologia de cálculo dos campos, adicionalmente este trabalho propõe um método de apoio ao monitoramento de linhas de transmissão. O método consiste em utilizar o Algoritmo Genético associado aos valores dos campos elétrico e magnético medidos para determinar os parâmetros da linha, como: espaçamento entre fases, altura cabo-solo, diâmetro equivalente dos condutores, corrente e tensão de operação. Dada a simplicidade de implementação quando comparado a outros métodos, a obtenção de resultados satisfatórios e a necessidade de um único aparelho de medição para monitorar a linha de transmissão, o método proposto mostra-se viável e promissor para realizar o processo de monitoramento de linhas.
238

Observadores de Estados para Sistemas de Medição Indireta e Controle RLQD-GA / Observers of States for Systems Indirect Measurement and Control RLQD-GA

Cerqueira, Marcio Mendes 05 February 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:08Z (GMT). No. of bitstreams: 1 Marcio Mendes Cerqueira.pdf: 4042726 bytes, checksum: a65c6a7174271eecc553e3a5b0ceb33a (MD5) Previous issue date: 2010-02-05 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Motivated by the necessity of efficient algorithms, it s presented the development of a methodology for the design and analysis of state observers in open and closed loops that are dedicated to monitoring and control of dynamic systems. The development of observers are based on OE models, description in state space and Kalman filter. The models are evaluated for temperature control of a aluminum cube that is inside of a sterilizer oven. In addition to the models assessment in terms of its ability to represent behavior of plants, these models also evaluated for the design of discrete linear quadric regulator DLQR that are tuned by genetic algorithms. The monitoring models are evaluated for open and closed loops structures that are represented by algorithms in terms of difference equations, these algorithms are seen as software core for the indirect measurement systems. / Motivado pela necessidade de algoritmos eficientes, apresenta-se o desenvolvimento de uma metodologia para projeto e análise de observadores de estado em malhas aberta e fechada que são dedicados a monitoração e controle de sistemas dinâmicos. O desenvolvimento dos observadores estão fundamentados em modelos OE, descrição no espaço de estados e filtro de Kalman. Os modelos são avaliados para o controle da temperatura de um cubo de alumínio que encontra-se no interior de uma estufa. Além das avaliações dos modelos em termos de sua habilidade em representar comportamento de plantas, estes são também avaliados para o projeto do regulador linear quadrático discreto (RQLD) que são sintonizados por algoritmos genéticos. Aplicação dos modelos para monitoração é avaliada nas estruturas das malhas aberta e fechada que são representadas por algoritmos em da equação à diferença, tendo em vistas o desenvolvimento de núcleos de software para os sistemas de medição indireta.
239

Flood control in urban areas through the rehabilitation of drainage networks

Bayas Jiménez, Leonardo Alfonso 03 November 2023 (has links)
Tesis por compendio / [ES] Actualmente, la mayor parte de la población mundial vive en ciudades y se espera que esta tendencia continúe, trasladando cada año más población rural hacia las áreas urbanas. Este fenómeno se debe principalmente al desarrollo económico que se genera en las ciudades. Estas condiciones plantean desafíos importantes para las ciudades en cuanto a su planificación y gestión. Si el crecimiento de la urbanización se gestiona adecuadamente puede contribuir al crecimiento sostenible, aumentando la productividad y el nivel de vida de las personas. Sin embargo, no se puede pasar por alto que el crecimiento de las ciudades implica una afectación al medioambiente. Uno de los problemas que más preocupación causa es la expansión de las ciudades que sustituyen los espacios verdes y agrícolas que rodean a las ciudades por calles y estructuras impermeables. Este proceso disminuye la capacidad del suelo para absorber el agua en un evento de lluvia, incrementando la escorrentía y el riesgo de inundaciones. Si a este problema particular de las ciudades, le sumamos el innegable cambio climático que aumenta la frecuencia de eventos de lluvias extremas en ciertas zonas del planeta, la adaptación de la infraestructura de las ciudades para hacerlas más seguras es una necesidad imperiosa. Los sistemas de drenaje son infraestructuras esenciales, concebidos para captar y transportar el agua producto de las precipitaciones, su buen funcionamiento genera seguridad y bienestar a las personas mientras que un funcionamiento inadecuado se asocia al riesgo y a la vulnerabilidad. Bajo escenarios de cambio climático estas estructuras que fueron diseñadas para caudales menores no garantizan la efectiva evacuación de las aguas, volviendo a las ciudades vulnerables a las inundaciones que pueden generar pérdidas sociales y económicas. Para mitigar estos impactos se han desarrollado diferentes medidas como las denominadas buenas prácticas de manejo o la instalación de sistemas de drenaje con tecnología de bajo impacto, entre otras. Sin embargo, estas medidas no son suficientes para controlar el caudal pico de una lluvia extrema. Adaptar la red existente a las nuevas condiciones climáticas, se presenta como una alternativa idónea para el control de las inundaciones en el entorno urbano. Ampliar la capacidad de la red cambiando el tamaño de las tuberías por otras de mayor diámetro ha sido el enfoque tradicional que se ha venido usando desde hace muchos años. La inclusión de tanques de tormenta en el sistema es una medida que se adoptó posteriormente para dotarlo de mayor resiliencia a los picos de lluvias extremas. Desafortunadamente la construcción de estas estructuras en el entorno conlleva una gran dificultad por el tamaño de la intervención, el tiempo y el coste. En este contexto, el presente trabajo, presenta una novedosa forma de mejorar las redes de drenaje combinando el cambio de tuberías, la instalación de tanques de tormenta en la red de drenaje e incluye también elementos de control hidráulico en la red de drenaje. Con estas acciones se considera que la rehabilitación de la red será más eficiente en términos técnicos y económicos. Para lograrlo, se usa un modelo de optimización creado a partir de un algoritmo genético modificado conectado al modelo SWMM mediante una toolkit. El modelo de optimización se enfoca en minimizar el coste de la infraestructura requerida y de los costes asociados a las inundaciones. Planteado así el problema, se define una función objetivo compuesta por funciones de coste que será evaluada para encontrar las mejores soluciones. El desarrollo de diferentes pasos para la obtención de una metodología eficiente, las estrategias para reducir los tiempos de cálculo y el esfuerzo computacional, el análisis económico de las inundaciones y las estructuras requeridas se detalla en cada capítulo de esta tesis. / [CA] Actualment, la major part de la població mundial viu en ciutats i s'espera que aquesta tendència continue, traslladant cada any més població rural cap a les àrees urbanes. Aquest fenomen es deu principalment al desenvolupament econòmic que es genera a les ciutats. Aquestes condicions plantegen desafiaments importants per a les ciutats quant a la seua planificació i gestió. Si el creixement de la urbanització es gestiona adequadament pot contribuir al creixement sostenible, augmentant la productivitat i el nivell de vida de les persones. No obstant això, no es pot passar per alt que el creixement de les ciutats implica una afectació al medi ambient. Un dels problemes que més preocupació causa és l'expansió de les ciutats que substitueixen els espais verds i agrícoles que envolten a les ciutats per carrers i estructures impermeables. Aquest procés disminueix la capacitat del sòl per a absorbir l'aigua en un esdeveniment de pluja, incrementant l'escolament i el risc d'inundacions. Si a aquest problema particular de les ciutats, li sumem l'innegable canvi climàtic que augmenta la freqüència d'esdeveniments de pluges extremes en unes certes zones del planeta, l'adaptació de la infraestructura de les ciutats per a fer-les més segures és una necessitat imperiosa. Els sistemes de drenatge són infraestructures essencials, concebuts per a captar i transportar l'aigua producte de les precipitacions, el seu bon funcionament genera seguretat i benestar a les persones mentre que un funcionament inadequat s'associa al risc i a la vulnerabilitat. Sota escenaris de canvi climàtic aquestes estructures que van ser dissenyades per a cabals menors no garanteixen l'efectiva evacuació de les aigües, tornant a les ciutats vulnerables a les inundacions que poden generar pèrdues socials i econòmiques. Per a mitigar aquests impactes s'han desenvolupat diferents mesures com les denominades bones pràctiques de maneig o la instal·lació de sistemes de drenatge amb tecnologia de baix impacte, entre altres. No obstant això, aquestes mesures no són suficients per a controlar el cabal pique d'una pluja extrema. Adaptar la xarxa existent a les noves condicions climàtiques, es presenta com una alternativa idònia per al control de les inundacions en l'entorn urbà. Ampliar la capacitat de la xarxa canviant la grandària de les canonades per altres de major diàmetre ha sigut l'enfocament tradicional que s'ha vingut usant des de fa molts anys. La inclusió de tancs de tempesta en el sistema és una mesura que es va adoptar posteriorment per a dotar-lo de major resiliència als pics de pluges extremes. Desafortunadament la construcció d'aquestes estructures en l'entorn comporta una gran dificultat per la grandària de la intervenció, el temps i el cost. En aquest context, el present treball, presenta una nova manera de millorar les xarxes de drenatge combinant el canvi de canonades, la instal·lació de tancs de tempesta en la xarxa de drenatge i inclou també elements de control hidràulic en la xarxa de drenatge. Amb aquestes accions es considera que la rehabilitació de la xarxa serà més eficient en termes tècnics i econòmics. Per a aconseguir-ho, s'usa un model d'optimització creat a partir d'un algorisme genètic modificat connectat al model SWMM mitjançant una toolkit. El model d'optimització s'enfoca a minimitzar el cost de la infraestructura requerida i dels costos associats a les inundacions. Plantejat així el problema, es defineix una funció objectiu composta per funcions de cost que serà avaluada per a trobar les millors solucions. El desenvolupament de diferents passos per a l'obtenció d'una metodologia eficient, les estratègies per a reduir els temps de càlcul i l'esforç computacional, l'anàlisi econòmica de les inundacions i les estructures requerides es detalla en cada capítol d'aquesta tesi. / [EN] Currently, most of the world's population lives in cities and this trend is expected to continue, moving more rural population to urban areas every year. This phenomenon is mainly due to the economic development that is generated in the cities. These conditions pose significant challenges for cities in terms of planning and management. If the growth of urbanization is properly managed, it can contribute to sustainable growth, increasing productivity and people's standard of living. However, it cannot be overlooked that the growth of cities implies an impact on the environment. One of the problems that causes the most concern is the expansion of cities that replace the green and agricultural spaces that surround the cities with streets and impermeable structures. This process decreases the capacity of the soil to absorb water in a rain event, increasing runoff and the risk of flooding. If adding to this problem of cities the undeniable climate change that increases the frequency of extreme rainfall events in certain areas of the planet, the adaptation of the infrastructure of cities to make them safer is an urgent need. Drainage systems are essential infrastructures, designed to capture and transport water produced by precipitation, their proper functioning generates security and wellness for people, while inadequate functioning is associated with risk and vulnerability. Under climate change scenarios, these structures, which were designed for lower flows, do not guarantee the effective evacuation of water, making cities vulnerable to floods that can generate social and economic losses. To mitigate these impacts, different measures have been developed, such as the so-called Best Management Practices or the installation of Low Impact Development etc. However, these measures are not enough to control the peak flow of extreme rainfall. Adapting the existing network to the new climatic conditions is presented as an ideal alternative for flood control in the urban environment. Expanding the capacity of the network by changing the size of the pipes for others with a larger diameter has been the traditional approach that has been used for many years. The inclusion of storm tanks in the system is a measure that was later adopted to provide it with greater resilience to extreme rainfall peaks. Unfortunately, the construction of these structures in the environment entails great difficulty due to the size of the intervention, the time, and the cost. In this context, the present work presents a novel way of improving drainage networks combining the replacement of pipes, the installation of storm tanks in the drainage network and also includes elements of hydraulic control in the drainage network. With these actions it is considered that the rehabilitation of the network will be more efficient in technical and economic terms. To achieve this, an optimization model created from a modified genetic algorithm connected to the SWMM model through a toolkit is used. The optimization model focuses on minimizing the cost of the required infrastructure and the costs associated with flooding. Posing the problem in this way, an objective function is defined composed of cost functions that will be evaluated to find the best solutions. The development of different steps to obtain an efficient methodology, the strategies to reduce calculation times and computational effort, the economic analysis of floods and the required structures are detailed in each chapter of this thesis. / I want to mention the support for the realization of this thesis from the Program Fondecyt through Project No. 1210410 and Project No. 1180660 of the National Agency for Research and Development (ANID) of Chile. From the program PAID 12-21 of the Polytechnic University of Valencia and the program E+/EU Erasmus+ Traineeship. / Bayas Jiménez, LA. (2023). Flood control in urban areas through the rehabilitation of drainage networks [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/199234 / Compendio
240

Estimación del comportamiento biomecánico del hígado y la mama in vivo utilizando algoritmos avanzados.

Martínez Sanchís, Sandra 01 July 2024 (has links)
[ES] El objetivo principal de este trabajo es la estimación de las constantes elásticas de modelos constitutivos que gobiernan el comportamiento biomecánico de órganos como el hígado y la mama, in vivo y para paciente específico. Para ello, se han definido dos tipos de metodologías, las cuales se diferencian por el tipo de algoritmo empleado: algoritmos genéticos (método 1) y algoritmos de aprendizaje automático (método 2). A lo largo del presente trabajo se definen ambas metodologías desde su fase inicial, la obtención de las imágenes médicas necesarias, hasta su fase final, la definición del comportamiento biomecánico del órgano. Estas metodologías pueden ser aplicadas en cualquier órgano, independientemente de su localización (por ejemplo en un órgano interno como el hígado u órgano externo como la mama), así como de su composición (órgano compuesto de un único tipo de tejido u órgano multitejido). En ambos casos, los resultados han sido satisfactorios con una precisión aceptable para su uso en el ámbito médico. Además, el método 2 puede ser aplicado en tiempo real. / [CA] L'objectiu principal d'este treball és l'estimació de les constants elàstiques de models constitutius que governen el comportament biomecànic d'òrgans com el fetge i la mama, in vivo i per a pacient específic. Per a això, s'han definit dos tipus de metodologies, les quals es diferencien pel tipus d'algorisme emprat: algorismes genètics (mètode 1) i algorismes d'aprenentatge automàtic (mètode 2). Al llarg del present treball es definixen dues metodologies des de la seua fase inicial, l'obtenció de les imatges mèdiques necessàries, fins a la seua fase final, la definició del comportament biomecànic de l'òrgan. Estes metodologies poden ser aplicades en qualsevol òrgan, independentment de la seua localització (per exemple en un òrgan intern com el fetge o òrgan extern com la mama), així com de la seua composició (òrgan compost d'un únic tipus de teixit o òrgan multiteixit). En dues casos, els resultats han sigut satisfactoris amb una precisió acceptable per al seu ús en l'àmbit mèdic. A més, el mètode 2 pot ser aplicat en temps real. / [EN] The main objective of this work is the estimation of the elastic constants of constitutive models that govern the biomechanical behavior of organs such as the liver and breast, in vivo and for a specific patient. To this end, two types of methodologies have been defined, which are differentiated by the type of algorithm used: genetic algorithms (method 1) and machine learning (method 2). Throughout this work, both methodologies are defined from its initial phase, obtaining the necessary medical images, to its final phase, the definition of the biomechanical behavior of the organ. These methodologies can be applied to any organ, regardless of its location (for example in an internal organ such as the liver or an external organ such as the breast), as well as its composition (organ composed of a single type of tissue or multi-tissue organ). In both cases, the results have been satisfactory with acceptable precision for use in the medical field. Furthermore, method 2 can be applied in real time. / Martínez Sanchís, S. (2024). Estimación del comportamiento biomecánico del hígado y la mama in vivo utilizando algoritmos avanzados [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/206019

Page generated in 0.0526 seconds