431 |
Advanced Techniques for the Design and Optimization of Multi-Band and Reconfigurable Microwave Waveguide FiltersMelgarejo Lermas, Juan Carlos 02 September 2021 (has links)
[ES] El creciente número de dispositivos intercambiando datos ha empujado a las empresas del sector espacial a utilizar bandas de frecuencia cada vez más altas, como Ku, K y Ka, ya que permiten emplear canales de frecuencia más anchos. A medida que disminuye la longitud de onda, el tamaño de los filtros se reduce y, por tanto, son más sensibles a las desviaciones de fabricación. Para compensar estos errores, es necesario emplear elementos de sintonía en la etapa de diseño.
En este contexto presentamos una estrategia de diseño que permite incluir todos los factores no ideales, como elementos de sintonía o esquinas redondeadas, en las simulaciones finales de filtros y multiplexores.
Una vez se han fabricado los filtros es necesario ajustar manualmente los elementos de sintonía hasta recuperar la respuesta objetivo. Sin embargo, para realizar esta tarea con éxito es necesario tener mucha experiencia previa y, aún así, conlleva un tiempo considerable. Por tanto, también proponemos un procedimiento de sintonización eficiente y sistemático que permite a cualquier persona, independientemente de su experiencia previa en sintonización, realizar esta tarea con éxito.
Además del aumento de las tasas de transmisión, otros desafíos del sector espacial son reducir el tamaño y peso de sus componentes, así como dotarlos de capacidad dereconfiguración. Emplear dispositivos multifunción como filtros multibanda o dispositivos reconfigurables es una posible solución. En este contexto, proponemos una nueva familia de filtros multibanda en guía de ondas que puede adaptarse a las futuras necesidades del sector espacial. Con el mismo objetivo, también proponemos una familia de dispositivos reconfigurables de varios estados discretos que pueden modificar su comportamiento de forma remota. / [CA] El creixent nombre de dispositius intercanviant dades ha empés a les empreses del sector espacial a utilitzar bandes de freqüència cada vegada més altes, com Ku, K i Ka, ja que permeten fer servir canals de freqüència més amples. A mesura que la longitud d'ona disminueix, la mida dels filtres es redueix i, per tant, són més sensibles a les desviacions de fabricació. Per compensar aquests errors, és necessari fer servir elements de sintonia en l'etapa de disseny.
En aquest context presentem una estratègia de disseny que permet incloure tots els factors no ideals, com a elements de sintonia o cantonades arrodonides, en les simulacions finals de filtres i multiplexors.
Una vegada s'han fabricat els filtres és necessari ajustar manualment els elements de sintonia fins a recuperar la resposta objectiu. Però, per realitzar aquesta tasca amb èxit és necessari tenir molta experiència prèvia i, així i tot, comporta un temps considerable. Per tant, també proposem un procediment de sintonització eficient i sistemàtic que permet a qualsevol persona, independentment de la seua experiència prèvia en sintonització, realitzar aquesta tasca amb èxit.
A més de l'augment de les taxes de transmissió, altres desafiaments de el sector espacial són reduir la mida i pes dels seus components, així com dotar-los de capacitat de reconfiguració. Emprar dispositius multifunció com filtres multibanda o dispositius reconfigurables és una possible solució. En aquest context, proposem una nova família de filtres multibanda en guia d'ones que pot adaptar-se a les futures necessitats del sector espacial. Amb el mateix objectiu, també proposem una família de dispositius reconfigurables de diversos estats discrets que poden modificar el seu comportament de forma remota. / [EN] The need for ever increasing data rate of modern communication systems has motivated companies in the space sector to exploit higher frequency bands, such as Ku, K and Ka, in order to offer wider bandwidths to their customers. However, as the frequency increases, the wavelength decreases, and all waveguide hardware becomes smaller and more sensitive to deviations from the ideal dimensions that normally occur when manufacturing the devices. In order to compensate for these deviations (or errors), tuning elements must then be added to the hardware and included in the design process.
In this context, therefore, we focus on the investigation of novel design strategies for filters and multiplexers with the objective of including all necessary non-ideal factors in the design process. It is important to note in this context that, once the filters are manufactured, the tuning elements are usually adjusted manually until the desired target performance has been achieved. However, successfully performing this task requires a considerable amount of time and very significant previous experience in tuning microwave filters. Consequently, an additional goal of our research work is to propose efficient and systematic tuning procedures so that anyone, regardless of their previous tuning experience, can successfully perform this difficult task.
In addition to the increasing data rates, another current challenge of advanced communication systems is the ability to be reconfigured remotely to adjust to changes in costumer demands. The use of multi-function or reconfigurable devices is then an attractive possible solution. In this context, therefore, we also investigate new families of multi-band waveguide filters that can be used to accommodate several pass bands in the same filtering device. Furthermore, we also propose a new family of reconfigurable devices with several discrete states that can be easily controlled remotely. / Melgarejo Lermas, JC. (2021). Advanced Techniques for the Design and Optimization of Multi-Band and Reconfigurable Microwave Waveguide Filters [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/172728
|
432 |
Optimization Algorithm Based on Novelty Search Applied to the Treatment of Uncertainty in ModelsMartínez Rodríguez, David 23 December 2021 (has links)
[ES] La búsqueda novedosa es un nuevo paradigma de los algoritmos de optimización, evolucionarios y bioinspirados, que está basado en la idea de forzar la búsqueda del óptimo global en aquellas partes inexploradas del dominio de la función que no son atractivas para el algoritmo, con la intención de evitar estancamientos en óptimos locales. La búsqueda novedosa se ha aplicado al algoritmo de optimización de enjambre de partículas, obteniendo un nuevo algoritmo denominado algoritmo de enjambre novedoso (NS). NS se ha aplicado al conjunto de pruebas sintéticas CEC2005, comparando los resultados con los obtenidos por otros algoritmos del estado del arte. Los resultados muestran un mejor comportamiento de NS en funciones altamente no lineales, a cambio de un aumento en la complejidad computacional. En lo que resta de trabajo, el algoritmo NS se ha aplicado en diferentes modelos, específicamente en el diseño de un motor de combustión interna, en la estimación de demanda de energía mediante gramáticas de enjambre, en la evolución del cáncer de vejiga de un paciente concreto y en la evolución del COVID-19. Cabe remarcar que, en el estudio de los modelos de COVID-19, se ha tenido en cuenta la incertidumbre, tanto de los datos como de la evolución de la enfermedad. / [CA] La cerca nova és un nou paradigma dels algoritmes d'optimització, evolucionaris i bioinspirats, que està basat en la idea de forçar la cerca de l'òptim global en les parts inexplorades del domini de la funció que no són atractives per a l'algoritme, amb la intenció d'evitar estancaments en òptims locals. La cerca nova s'ha aplicat a l'algoritme d'optimització d'eixam de partícules, obtenint un nou algoritme denominat algoritme d'eixam nou (NS). NS s'ha aplicat al conjunt de proves sintètiques CEC2005, comparant els resultats amb els obtinguts per altres algoritmes de l'estat de l'art. Els resultats mostren un millor comportament de NS en funcions altament no lineals, a canvi d'un augment en la complexitat computacional. En el que resta de treball, l'algoritme NS s'ha aplicat en diferents models, específicament en el disseny d'un motor de combustió interna, en l'estimació de demanda d'energia mitjançant gramàtiques d'eixam, en l'evolució del càncer de bufeta d'un pacient concret i en l'evolució del COVID-19. Cal remarcar que, en l'estudi dels models de COVID-19, s'ha tingut en compte la incertesa, tant de les dades com de l'evolució de la malaltia. / [EN] Novelty Search is a recent paradigm in evolutionary and bio-inspired optimization algorithms, based on the idea of forcing to look for those unexplored parts of the domain of the function that might be unattractive for the algorithm, with the aim of avoiding stagnation in local optima. Novelty Search has been applied to the Particle Swarm Optimization algorithm, obtaining a new algorithm named Novelty Swarm (NS). NS has been applied to the CEC2005 benchmark, comparing its results with other state of the art algorithms. The results show better behaviour in high nonlinear functions at the cost of increasing the computational complexity. During the rest of the thesis, the NS
algorithm has been used in different models, specifically the design of an Internal Combustion Engine, the prediction of energy demand estimation with Grammatical Swarm, the evolution of the bladder cancer of a specific patient and the evolution of COVID-19. It is also remarkable that, in the study of COVID-19 models, uncertainty of the data and the evolution of the disease has been taken in account. / Martínez Rodríguez, D. (2021). Optimization Algorithm Based on Novelty Search Applied to the Treatment of Uncertainty in Models [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/178994
|
433 |
Study, development and improvement of MCM-41-type MSN synthesis oriented to biomedical applicationsCandela Noguera, Vicente 26 April 2022 (has links)
[ES] La presente tesis doctoral, titulada "Estudio, desarrollo y mejora de la síntesis de nanopartículas mesoporosas de sílice (MSN) tipo MCM-41 orientada a aplicaciones biomédicas" se centra en la síntesis, caracterización, estudio y evaluación de diferentes MSN tipo MCM-41, con el objetivo de ampliar el conocimiento de las MSN como nanomateriales implicados en aplicaciones biomédicas.
El primer capítulo de este trabajo es una introducción general sobre los temas que se van a tratar a lo largo de la tesis. Por un lado, se introducen los principales conceptos sobre las nanopartículas de sílice mesoporosas, y en particular las MSN de tipo MCM-41, como su descubrimiento, sus propiedades, ventajas y aplicaciones, su síntesis y la química implicada, y la posibilidad de ser funcionalizadas o dopadas para adquirir propiedades adicionales y únicas. Por otro lado, se presenta un amplio abanico de técnicas de caracterización de MSN, destacando su importancia en la presente tesis. Por último, se revisan los conceptos de nanomedicina y nanomateriales, incluyendo el conjunto de requisitos que deben cumplir los nanomateriales para ser validados, los tipos de nanomateriales desarrollados hasta el momento y los principales cuellos de botella encontrados en la traslación clínica de los nanomateriales. En este contexto, se revisan los estudios de las MSN en nanomedicina, señalando los retos de las mismas dentro de esta especialidad y la oportunidad que ofrecen a la ciencia de los materiales.
En el segundo capítulo se exponen los objetivos generales de la presente tesis doctoral, que son abordados en los siguientes capítulos.
El tercer capítulo se basa en un estudio en profundidad del mecanismo de síntesis de las MSN de tipo MCM-41, considerando el mecanismo de estructuración de la sílice, la nucleación, el crecimiento y los procesos de envejecimiento. En particular, se analizan detalladamente las primeras etapas de la síntesis de MSN. Además, se revisan los diferentes modelos descritos sobre el mecanismo de estructuración de la sílice, que han sido ampliamente estudiados.
El cuarto capítulo se centra en la investigación del efecto de algunos parámetros tradicionalmente poco estudiados en la síntesis y formación de MSN de tipo MCM-41, como el tiempo de síntesis, la velocidad de agitación, el núcleo de agitación magnética utilizado, la velocidad de adición del TEOS y el método de neutralización una vez formadas las nanopartículas. También se introduce una revisión de la influencia de los parámetros de síntesis más estudiados en las MSN tipo MCM-41.
El quinto capítulo se basa en el estudio de la obtención, caracterización y manipulación de MSN de tipo MCM-41 coloidales. En primer lugar, se presenta una revisión crítica de los trabajos que informan sobre la obtención de MSN coloidales, correctamente suspendidas o discretas. En segundo lugar, se introduce una metodología para caracterizar la estabilidad coloidal de las MSN. En tercer lugar, se estudia y compara el comportamiento coloidal de diferentes nanopartículas en diferentes condiciones. Y, por último, se desarrolla un marco conceptual y de trabajo sobre los principios que rigen la estabilidad coloidal de las nanopartículas.
El sexto capítulo es un estudio exhaustivo de las implicaciones del uso de diferentes procedimientos de eliminación de surfactantes en las MSN de tipo MCM-41, como la calcinación a diferentes temperaturas y la extracción con disolventes. Las propiedades fisicoquímicas de las MSN estudiadas son la eficiencia de eliminación de surfactantes, el grado de condensación de la sílice, la porosidad, la estabilidad coloidal y la reactividad superficial. Además, se comprobó la biocompatibilidad de las nanopartículas en cuanto a su citotoxicidad y su degradación en un entorno fisiológico simulado, para validar su uso en aplicaciones biomédicas.
El séptimo capítulo recoge las conclusiones generales de la presente tesis, que resumen las conclusiones obtenidas en cada capítulo. / [CA] L'actual tesi doctoral, titulada "Estudi, desenvolupament i millora de la síntesi de nanopartícules mesoporoses de sílice (MSN) de tipus MCM-41 orientada cap a aplicacions biomèdiques" se centra en la síntesi, caracterització, estudi i avaluació de diferents mostres de MSN de tipus MCM-41 amb l'objectiu de millorar el coneixement de les MSN com nanomaterials implicats en aplicacions biomèdiques.
El primer capítol d'aquest treball és una introducció general sobre els elements que es tractaran durant tota la tesi. D'una banda, s'introdueixen els conceptes principals sobre les nanopartícules mesoporoses de sílice, i en particular les de tipus MCM-41, com el seu descobriment, les seues propietats, avantatges i aplicacions, la seua síntesi i la química implicada, i la possibilitat de ser funcionalitzades o dopades per adquirir propietats addicionals i úniques. D'altra banda, es presenta una àmplia gamma de tècniques de caracterització de MSN destacant la seua importància en la tesi actual. Finalment, es revisen els conceptes de nanomedicina i nanomaterials, incloent-hi el conjunt de requisits que els nanomaterials han d'aconseguir per ser validats, els tipus de nanomaterials desenvolupats fins ara, i els principals colls d'ampolla trobats en la translació clínica de nanomaterials. En aquest context, es revisen els estudis de les MSN en nanomedicina, assenyalant els seus reptes dins de la nanomedicina i l'oportunitat que ofereixen a la ciència dels materials.
El segon capítol exposa els objectius generals de la tesi doctoral actual, que són abordats en els següents capítols.
El tercer capítol es basa en un estudi en profunditat del mecanisme de síntesi de les MSN tipus MCM-41, considerant el mecanisme d'estructuració de la sílice, la nucleació, el creixement i els processos de maduració. Particularment, les primeres etapes de la síntesi de MSNs s'analitzen en detall. A més, es revisen els diferents models reportats sobre el mecanisme d'estructuració de sílice, que ja han sigut àmpliament estudiats.
El quart capítol es centra en la investigació de l'efecte d'alguns paràmetres tradicionalment menys estudiats en la síntesi i formació de l'MSN de tipus MCM-41, com: el temps de síntesi, la velocitat d'agitació, el nucli d'agitació magnètica utilitzat, la velocitat d'addició de TEOS i el mètode de neutralització una vegada que es formen les nanopartícules. També s'introdueix una revisió de la influència dels paràmetres de síntesi més estudiats en les MSN de tipus MCM-41.
El cinqué capítol es basa en l'estudi de l'obtenció, caracterització i manipulació de les MSN de tipus MCM-41 col·loidals. En primer lloc, es presenta una revisió crítica dels treballs que descriuen l'obtenció de MSN col·loidals, correctament suspeses o discretes. En segon lloc, s'introdueix una metodologia per caracteritzar l'estabilitat col·loidal de les MSN. En tercer lloc, s'estudia i compara el comportament col·loidal de diverses nanopartícules en diferents condicions. I finalment, es desenvolupa un marc conceptual i de treball sobre els principis que regeixen l'estabilitat col·loidal de les nanopartícules.
El sisé capítol és un estudi exhaustiu de les implicacions de l'ús de diferents procediments d'extracció de surfactants a les MSN de tipus MCM-41, com la calcinació a diferents temperatures i l'extracció de dissolvents. Les propietats fisicoquímiques de les MSN estudiades són l'eficiència d'extracció de surfactant, el grau de condensació de sílice, la mesoporositat, l'estabilitat col·loidal i la reactivitat de la superfície. A més, la biocompatibilitat de les nanopartícules es va provar pel que fa a la seua citotoxicitat i la seua degradació en un entorn fisiològic simulat, per validar el seu ús en aplicacions biomèdiques.
El seté capítol recull les conclusions generals de la tesi actual, que resumeix les conclusions obtingudes en cada capítol, però també proporciona noves perspectives i una visió global de la matèria estudiada. / [EN] The present PhD thesis, entitled "Study, development and improvement of MCM-41-type mesoporous silica nanoparticles (MSN) synthesis oriented to biomedical applications" is focused on the synthesis, characterisation, study and evaluation of different MCM-41-type MSN samples to improve the knowledge of MSN as nanomaterials involved in biomedical applications.
The first chapter of this work is a general introduction about the items that are going to be treated throughout the thesis. On the one hand, the main concepts about the mesoporous silica nanoparticles, and in particular MCM-41-type MSN, are introduced, such as their discovery, their properties, advantages, and applications, their synthesis and the chemistry involved, and the possibility of being functionalised or doped to acquire additional and unique properties. On the other hand, a wide range of MSN characterisation techniques are presented highlighting their importance in the current thesis. Finally, the concepts of nanomedicine and nanomaterials are reviewed, including the set of requirements the nanomaterials must accomplish to be validated, the types of nanomaterials developed thus far, and the main bottlenecks found in clinical translation of nanomaterials. In this context, the studies of MSN in nanomedicine are reviewed, illustrating the challenges of MSN within the nanomedicine and the opportunity their offer to material science.
Second chapter exposes the general objectives of present PhD thesis, which are addressed in the following chapters.
Third chapter is based on an in-depth study of the synthesis mechanism of MCM-41-type MSN, considering the silica templating mechanism, the nucleation, the growth and the aging processes. Particularly, the early stages of the MSNs synthesis are substantially analysed. In addition, the different models reported about the silica templating mechanism, which are widely studied, are reviewed.
Fourth chapter is focused on the investigation of the effect of some disregarded parameters on the synthesis and formation of MCM-41-type MSN, such as synthesis time, stirring rate, the magnetic stir bar used, TEOS addition rate and the neutralisation method once nanoparticles are formed. A review of the influence of the most studied synthesis parameters on MCM-41-type MSN is also introduced.
Fifth chapter is based on the study of the obtaining, characterisation and manipulation of colloidal MCM-41-type MSN. First, a critical review of works that report the obtaining of colloidal, well-suspended or discrete MSN is presented. Second, a methodology to characterise the colloidal stability of MSN is introduced. Third, the colloidal behaviour of several nanoparticles under different conditions is studied and compared. And finally, a conceptual and operational framework about the principles governing the colloidal stability of nanoparticles is developed.
Sixth chapter is a comprehensive study of the implications of the use of different surfactant removal procedures on standard MCM-41-type MSN, such as calcination at different temperatures and solvent extraction. The physicochemical properties of MSN studied are the surfactant removal efficiency, the silica condensation degree, the mesostructured framework, the colloidal stability and the surface reactivity. Additionally, the biocompatibility of nanoparticles was tested regarding their cytotoxicity and their degradation in a simulated physiological environment, to validate their use in biomedical applications.
Finally, seventh chapter gathers the general conclusions of the current thesis, which summarise the conclusions obtained in each chapter, but also provide new perspectives and the big picture of the studied matter. / Candela Noguera, V. (2022). Study, development and improvement of MCM-41-type MSN synthesis oriented to biomedical applications [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/182386
|
434 |
Life Cycle Optimization Analysis of Bridge Sustainable DevelopmentZhou, Zhiwu 21 February 2023 (has links)
[ES] En el núcleo de la industria mundial de la construcción radica el uso excesivo de materiales, especialmente de combustibles fósiles. En esta línea de investigación, muchos investigadores y diseñadores han reducido significativamente la proporción de materiales y han minimizado la cantidad destinada al diseño en función de los criterios de investigación y las especificaciones de diseño. Teniendo en cuenta que las medidas anteriores pueden reducir los materiales de manera efectiva, es necesario investigar más a fondo algunas cuestiones: a) ¿En qué etapas del ciclo de vida de los materiales de construcción se consumen más? b) ¿Cómo utilizar el método científico más adecuado para reducir el consumo de materiales en la fase de mayor uso? c) ¿Cómo completar científicamente la evaluación de la optimización del consumo de materiales bajo la influencia de la superación de muchos eventos discretos y factores de influencia externos durante la etapa de diseño? d) En la fase de construcción, ¿cómo optimizar al máximo el proceso de gestión del proyecto y lograr el mayor ahorro de material para garantizar la calidad, la seguridad y el coste? e) ¿Cuánto material se puede ahorrar mediante la optimización del diseño y la gestión del proyecto? f) ¿Cuál es el impacto final del sistema teórico de investigación y de los datos de análisis mencionados en el desarrollo sostenible de la industria de la construcción?
Al examinar publicaciones relevantes sobre el ciclo de vida completo de la industria de la construcción (Capítulo 2), la tesis encontró que las etapas de diseño y construcción son clave para reducir efectivamente el consumo de materiales. El objetivo principal de esta tesis es resolver los problemas de optimización propuestos. Mediante el establecimiento de un marco de modelo de investigación multidimensional y un modelo de optimización de gestión de proyectos sistemático, la tesis reduce el peso de varios componentes estructurales del puente estáticamente indeterminado y realiza la optimización ligera de la estructura del puente.
La tesis establece varios modelos teóricos básicos de innovación en el marco del modelo de investigación: el modelo de acoplamiento bibliométrico, el modelo matemático ComplexPlot; el modelo matemático integral multifactorial; el modelo de optimización de acoplamiento micro y macrodimensional de elementos finitos, y el modelo de evaluación de optimización de la gestión de proyectos dominó del método de la entropía. El sistema de investigación teórica supera la interferencia de la discreción del objeto de investigación, la complejidad y los factores de influencia inciertos y realiza la solidez de la evaluación y la mejora. El sistema de investigación teórica supera la interferencia de la discreción del objeto de investigación, la complejidad y los factores de influencia inciertos y consigue la solidez de la evaluación y la mejora. Asimismo, mejora ampliamente la resistencia del modelo a los factores naturales, humanos, accidentales e inciertos y el problema de la interferencia externa de las emergencias. Por último, el sistema formó un conjunto completo de sistemas de modelos de optimización de prevención y control conjuntos maduros y alcanzó los objetivos y enfoques de la investigación.
El valor de la investigación de esta tesis: a) llena el vacío de la investigación en este campo. b) innova en una variedad de nuevos modelos teóricos de investigación. c) resuelve los problemas de discreción, incertidumbre e interferencia de factores externos en la optimización de la topología y la optimización de la gestión de proyectos. Las interferencias de los factores externos de mutación y la sensibilidad de las emergencias se compensan y corrigen. d) La investigación mejora la captura de datos discretos y la escasez de compensación del sistema de análisis de software Monte Carlo. / [CA] En el nucli de la indústria mundial de la construcció radica l'ús excessiu de materials, especialment de combustibles fòssils. En aquesta línia d'investigació, molts investigadors i dissenyadors han reduït significativament la proporció de materials i han minimitzat la quantitat destinada al disseny en funció dels criteris d'investigació i les especificacions de disseny. Tenint en compte que les mesures anteriors poden reduir els materials de manera efectiva, és necessari investigar més a fons algunes qüestions: a) En quines etapes del cicle de vida dels materials de construcció es consumeixen més? b) Com utilitzar el mètode científic més adequat per a reduir el consum de materials en la fase de major ús? c) Com completar científicament l'avaluació de l'optimització del consum de materials sota la influència de la superació de molts esdeveniments discrets i factors d'influència externs durant l'etapa de disseny? d) En la fase de construcció, com optimitzar al màxim el procés de gestió del projecte i aconseguir el major estalvi de material per a garantir la qualitat, la seguretat i el cost? e) Quant material es pot estalviar mitjançant l'optimització del disseny i la gestió del projecte? f) Quin és l'impacte final del sistema teòric d'investigació i de les dades d'anàlisis esmentades en el desenvolupament sostenible de la indústria de la construcció?
En examinar publicacions rellevants sobre el cicle de vida complet de la indústria de la construcció (Capítol 2), la tesi va trobar que les etapes de disseny i construcció són clau per a reduir efectivament el consum de materials. L'objectiu principal d'aquesta tesi és resoldre els problemes d'optimització proposats. Mitjançant l'establiment d'un marc de model d'investigació multidimensional i un model d'optimització de gestió de projectes sistemàtic, la tesi redueix el pes de diversos components estructurals del pont estàticament indeterminat i realitza l'optimització lleugera de l'estructura del pont.
La tesi estableix diversos models teòrics bàsics d'innovació en el marc del model d'investigació: el model d'acoblament bibliomètric, el model matemàtic ComplexPlot; el model matemàtic integral multifactorial; el model d'optimització d'acoblament micro i macrodimensional d'elements finits, i el model d'avaluació d'optimització de la gestió de projectes va dominar del mètode de l'entropia. El sistema d'investigació teòrica supera la interferència de la discreció de l'objecte d'investigació, la complexitat i els factors d'influència incerts i realitza la solidesa de l'avaluació i la millora. El sistema d'investigació teòrica supera la interferència de la discreció de l'objecte d'investigació, la complexitat i els factors d'influència incerts i aconsegueix la solidesa de l'avaluació i la millora. Així mateix, millora àmpliament la resistència del model als factors naturals, humans, accidentals i incerts i el problema de la interferència externa de les emergències. Finalment, el sistema va formar un conjunt complet de sistemes de models d'optimització de prevenció i control conjunts madurs i va aconseguir els objectius i enfocaments de la investigació.
El valor de la investigació d'aquesta tesi: a) ompli el buit de la investigació en aquest camp. b) innova en una varietat de nous models teòrics d'investigació. c) resol els problemes de discreció, incertesa i interferència de factors externs en l'optimització de la topologia i l'optimització de la gestió de projectes. Les interferències dels factors externs de mutació i la sensibilitat de les emergències es compensen i corregeixen. d) La investigació millora la captura de dades discretes i l'escassetat de compensació del sistema d'anàlisi de programari Muntanya Carlo. / [EN] At the heart of the global construction industry is the overuse of materials, especially non-renewable fossil energy raw materials. In this research direction, many researchers and designers have significantly reduced the proportion of materials and minimized the amount of design within the scope of research ideas and design specifications. Given whether the above measures can effectively reduce materials, several questions need to be further studied: a) In which stages of the life cycle of building materials are consumed more? b) How to use the most compelling scientific method to reduce the consumption of materials at the stage where materials are used the most? c) How to scientifically complete the material consumption optimization evaluation in the design stage under the influence of overcoming many discrete events and external influencing factors? d) In the construction stage, how to optimize the project management process to the greatest extent and achieve the most excellent material saving to ensure quality, safety and cost? e) How much material can be saved through design and project management optimization? f) What are the ultimate impact of the above research theoretical system and analysis data on the sustainable development of the construction industry?
Through the investigation of relevant publications on the whole life cycle of the construction industry (chapter 2), the thesis finds that the design and construction stages are the key to effectively reducing material consumption. The main goal of this thesis is to solve the proposed optimization problems. By establishing a multi-dimensional research model framework and a systematic project management optimization model, the thesis reduces the weight of various components of the statically indeterminate bridge structure and realizes the lightweight optimization of the bridge structure.
The thesis establishes several core theoretical innovation models in the research model framework: the bibliometric coupling model, ComplexPlot mathematical model; the multi-factor integral mathematical model; the multi-dimensional finite element micro and macro coupling optimization model, and the entropy weight method domino project management optimization evaluation model. The theoretical research system overcomes the interference of the research object's discreteness, complexity, and uncertain influencing factors and realizes the robustness of evaluation and improvement. It comprehensively improves the model's resistance to natural, human, accidental, and uncertain factors and the external interference problem of emergencies. Ultimately, the system formed a complete set of mature joint prevention and control optimization model systems and realized the research goals and paradigms.
The research value of this thesis: a) fills the research gap in this field. b) innovates a variety of new theoretical research models. c) solves the problems of discreteness, uncertainty, and external factor interference in topology optimization and project management optimization. Compensation and correction are made for the interference of external mutation factors and the sensitivity of emergencies. d) The research improves the Monte Carlo software analysis system's discrete data capture and compensation shortage.
In this thesis, various types of advanced project management methods and advanced construction schemes are applied in the case study, which provides a rich reference value for optimizing statically indeterminate bridges of the same type. For readers without extensive practical experience, there are some difficulties in understanding and applying the model. The reader needs to think carefully in combination with the case, which is also the insufficiency of this thesis. / This research was supported by grants from ”BIA2017-85098-R” and
“PID2020-117056RB-I00”. / Zhou, Z. (2023). Life Cycle Optimization Analysis of Bridge Sustainable Development [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/191959
|
435 |
Eficiencia Energética y Robustez en Problemas de SchedulingEscamilla Fuster, Joan 16 May 2016 (has links)
[EN] Many industrial problems can be modelled as a scheduling problem where some resources are assigned to tasks so as to minimize the completion time, to reduce the use of resources, idle time, etc. There are several scheduling problems which try to represent different kind of situations that can appear in real world problems. Job Shop Scheduling Problem (JSP) is the most used problem. In JSP there are different jobs, every job has different tasks and these tasks have to be executed by different machines. JSP can be extended to other problems in order to simulate more real problems. In this work we have used the problem job shop with operators JSO(n,p) where each task must also be assisted by one operator from a limited set of them. Additionally, we have extended the classical JSP to a job-shop scheduling problem where machines can consume different amounts of energy to process tasks at different rates (JSMS). In JSMS operation has to be executed by a machine that has the possibility to work at different speeds.
Scheduling problems consider optimization indicators such as processing time, quality and cost. However, governments and companies are also interested in energy-consumption due to the rising demand and price of fuel, the reduction in energy commodity reserves and growing concern about global warming. In this thesis, we have developed new metaheuristic search techniques to model and solve the JSMS problem.
Robustness is a common feature in real life problems. A system persists if it remains running and maintains his main features despite continuous perturbations, changes or incidences. We have developed a technique to solve the $JSO(n,p)$ problem with the aim of obtaining optimized and robust solutions.
We have developed a dual model to relate optimality criteria with energy consumption and robustness/stability in the JSMS problem. This model is committed to protect dynamic tasks against further incidences in order to obtain robust and energy-aware solutions. The proposed dual model has been evaluated with a memetic algorithm to compare the behaviour against the original model.
In the JSMS problem there are a relationship between Energy-efficiency, Robustness and Makespan. Therefore, the relationship between these three objectives is studied. Analytical formulas are proposed to analyse the relationship between these objectives. The results show the trade-off between makespan and robustness, and the direct relationship between robustness and energy-efficiency. To reduce the makespan and to process the tasks faster, energy consumption has to be increased. When the energy consumption is low it is because the machines are not working at highest speed. So, if an incidence appears, the speed of these machines can be increased in order to recover the time lost by the incidence. Hence robustness is directly related with energy consumption. Additionally, robustness is also directly related with makespan because, when makespan increases, there are more gaps in the solution, these incidences can be absorbed by these natural buffers.
The combination of robustness and stability gives the proposal an added value due to since an incidence cannot be directly absorbed by the disrupted task and it can be repaired by involving only a small number of tasks. In this work we propose two different techniques to manage rescheduling over the JSMS problem.
This work represents a breakthrough in the state of the art of scheduling problems and in particular the problem where energy consumption can be controlled by the rate of the machines. / [ES] Muchos de los problemas industriales se pueden modelar como un problema de scheduling donde algunos recursos son asignados a tareas a fin de minimizar el tiempo de finalización, para reducir el uso de los recursos, el tiempo de inactividad, etc. Job-Shop scheduling (JSP) es el problema más utilizado. En JSP hay diferentes trabajos, cada trabajo tiene diferentes tareas y estas tareas tienen que ser ejecutadas por diferentes máquinas. JSP puede ser extendido a otros problemas con el fin de simular una mayor cantidad de problemas reales. En este trabajo se ha utilizado el problema job shop scheduling con operadores JSO(n, p), donde cada tarea también debe ser asistida por un operador de un conjunto limitado de ellos. Además, hemos ampliado el clásico problema JSP a un problema donde las máquinas pueden consumir diferentes cantidades de energía al procesar tareas a diferentes velocidades (JSMS). En JSMS las operaciones tiene que ser ejecutadas por una máquina que tiene la posibilidad de trabajar a diferentes velocidades.
Los problemas de scheduling consideran indicadores de optimización tales como: el procesamiento de tiempo, la calidad y el coste. Sin embargo, hoy en día los gobiernos y los empresarios están interesados también en el control del consumo de energía debido al aumento de la demanda y del precio de los combustibles, la reducción de las reservas de materias primas energéticas y la creciente preocupación por el calentamiento global. En esta tesis, hemos desarrollado nuevas técnicas de búsqueda metaheurística para modelar y resolver el problema JSMS.
La robustez es una característica común en los problemas de la vida real. Un sistema persiste si permanece en funcionamiento y mantiene sus principales características a pesar de las perturbaciones continuas, cambios o incidencias. Hemos desarrollado una técnica para resolver el problema JSO(n, p) con el objetivo de obtener soluciones robustas y optimizadas.
Hemos desarrollado un modelo dual para relacionar los criterios de optimalidad con el consumo de energía y la robustez/estabilidad en el problema JSMS. Este modelo se ha desarrollado para proteger a las tareas dinámicas contra incidencias, con el fin de obtener soluciones sólidas y que tengan en cuenta el consumo de la energía. El modelo dual propuesto ha sido evaluado con un algoritmo memético para comparar el comportamiento frente al modelo original.
En el problema JSMS hay una relación entre la eficiencia energética, la robustez y el makespan. Por lo tanto, se estudia la relación entre estos tres objetivos. Se desarrollan fórmulas analíticas para representar la relación estimada entre estos objetivos. Los resultados muestran el equilibrio entre makespan y robustez, y la relación directa entre la robustez y eficiencia energética. Para reducir el makespan, el consumo de energía tiene que ser aumentado para poder procesar las tareas más rápido. Cuando el consumo de energía es bajo, debido a que las máquinas no están trabajando a la velocidad más alta, si una incidencia aparece, la velocidad de estas máquinas puede ser aumentada con el fin de recuperar el tiempo perdido por la incidencia. Por lo tanto la robustez está directamente relacionada con el consumo de energía. Además, la robustez también está directamente relacionada con el makespan porque, cuando el makespan aumenta hay más huecos en la solución, que en caso de surgir incidencias, estas pueden ser absorbidas por estos buffers naturales.
La combinación de robustez y estabilidad da un valor añadido debido a que si una incidencia no puede ser absorbida directamente por la tarea interrumpida, esta puede ser reparada mediante la participación un pequeño número de tareas.En este trabajo se proponen dos técnicas diferentes para gestionar el rescheduling sobre el problema JSMS.
Este trabajo representa un avance en el estado del arte en los problemas de scheduling y en el problema donde el consumo de energía p / [CA] Molts dels problemes industrials es poden modelar com un problema de scheduling on alguns recursos són assignats a tasques a fi de minimitzar el temps de finalització, per a reduir l'ús dels recursos, el temps d'inactivitat, etc. Existeixen diversos tipus de problemes de scheduling que intenten representar diferents situacions que poden aparèixer en els problemes del món real. Job-Shop scheduling (JSP) és el problema més utilitzat. En JSP hi ha diferents treballs, cada treball té diferents tasques i aquestes tasques han de ser executades per diferents màquines. JSP pot ser estès a altres problemes amb la finalitat de simular una major quantitat de problemes reals. En aquest treball s'ha utilitzat el problema job shop scheduling amb operadors JSO(n, p), on cada tasca també ha de ser assistida per un operador d'un conjunt limitat d'ells. A més, hem ampliat el clàssic problema JSP a un problema on les màquines poden consumir diferents quantitats d'energia per a processar tasques a diferents velocitats (JSMS).
Els problemes de scheduling consideren indicadors d'optimització tals com: el processament de temps, la qualitat i el cost. No obstant açò, avui en dia els governs i els empresaris estan interessats també amb el control del consum d'energia a causa de l'augment de la demanda i del preu dels combustibles, la reducció de les reserves de matèries primeres energètiques i la creixent preocupació per l'escalfament global. En aquesta tesi, hem desenvolupat noves tècniques de cerca metaheurística per a modelar i resoldre el problema JSMS.
La robustesa és una característica comuna en els problemes de la vida real. Un sistema persisteix si continua en funcionament i manté les seues principals característiques malgrat les pertorbacions contínues, canvis o incidències. Hem desenvolupat una tècnica per a resoldre el problema JSO(n, p) amb l'objectiu d'obtenir solucions robustes i optimitzades.
Hem desenvolupat un model dual per a relacionar els criteris de optimalidad amb el consum d'energia i la robustesa/estabilitat en el problema JSMS. Aquest model s'ha desenvolupat per a protegir a les tasques dinàmiques contra incidències, amb la finalitat d'obtenir solucions sòlides i que tinguen en compte el consum de l'energia. El model dual proposat ha sigut evaluat amb un algorisme memético per a comparar el comportament front un model original.
En el problema JSMS hi ha una relació entre l'eficiència energètica, la robustesa i el makespan. Per tant, s'estudia la relació entre aquests tres objectius. Es desenvolupen fórmules analítiques per a representar la relació estimada entre aquests objectius. Els resultats mostren l'equilibri entre makespan i robustesa, i la relació directa entre la robustesa i l'eficiència energètica. Per a reduir el makespan, el consum d'energia ha de ser augmentat per a poder processar les tasques més ràpid. Quan el consum d'energia és baix, a causa que les màquines no estan treballant a la velocitat més alta, si una incidència apareix, la velocitat d'aquestes màquines pot ser augmentada amb la finalitat de recuperar el temps perdut per la incidència. Per tant la robustesa està directament relacionada amb el consum d'energia. A més, la robustesa també està directament relacionada amb el makespan perquè, quan el makespan augmenta hi ha més buits en la solució, que en cas de sorgir incidències, aquestes poden ser absorbides per els buffers naturals.
La combinació de robustesa i estabilitat dóna un valor afegit a causa de que si una incidència no pot ser absorbida directament per la tasca interrompuda, aquesta pot ser reparada mitjançant la participació d'un xicotet nombre de tasques. En aquest treball es proposen dues tècniques diferents per a gestionar el rescheduling sobre el problema JSMS.
Aquest treball representa un avanç en l'estat de l'art en els problemes de scheduling i, en particular, en el problema on el consum d'energia pot ser controlat per / Escamilla Fuster, J. (2016). Eficiencia Energética y Robustez en Problemas de Scheduling [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/64062
|
436 |
Quality by Design through multivariate latent structuresPalací López, Daniel Gonzalo 14 January 2019 (has links)
La presente tesis doctoral surge ante la necesidad creciente por parte de la mayoría de empresas, y en especial (pero no únicamente) aquellas dentro de los sectores farmacéu-tico, químico, alimentación y bioprocesos, de aumentar la flexibilidad en su rango ope-rativo para reducir los costes de fabricación, manteniendo o mejorando la calidad del producto final obtenido. Para ello, esta tesis se centra en la aplicación de los conceptos del Quality by Design para la aplicación y extensión de distintas metodologías ya exis-tentes y el desarrollo de nuevos algoritmos que permitan la implementación de herra-mientas adecuadas para el diseño de experimentos, el análisis multivariante de datos y la optimización de procesos en el ámbito del diseño de mezclas, pero sin limitarse ex-clusivamente a este tipo de problemas.
Parte I - Prefacio, donde se presenta un resumen del trabajo de investigación realiza-do y los objetivos principales que pretende abordar y su justificación, así como una introducción a los conceptos más importantes relativos a los temas tratados en partes posteriores de la tesis, tales como el diseño de experimentos o diversas herramientas estadísticas de análisis multivariado.
Parte II - Optimización en el diseño de mezclas, donde se lleva a cabo una recapitu-lación de las diversas herramientas existentes para el diseño de experimentos y análisis de datos por medios tradicionales relativos al diseño de mezclas, así como de algunas herramientas basadas en variables latentes, tales como la Regresión en Mínimos Cua-drados Parciales (PLS). En esta parte de la tesis también se propone una extensión del PLS basada en kernels para el análisis de datos de diseños de mezclas, y se hace una comparativa de las distintas metodologías presentadas. Finalmente, se incluye una breve presentación del programa MiDAs, desarrollado con la finalidad de ofrecer a sus usuarios la posibilidad de comparar de forma sencilla diversas metodologías para el diseño de experimentos y análisis de datos para problemas de mezclas.
Parte III - Espacio de diseño y optimización a través del espacio latente, donde se aborda el problema fundamental dentro de la filosofía del Quality by Design asociado a la definición del llamado 'espacio de diseño', que comprendería todo el conjunto de posibles combinaciones de condiciones de proceso, materias primas, etc. que garanti-zan la obtención de un producto con la calidad deseada. En esta parte también se trata el problema de la definición del problema de optimización como herramienta para la mejora de la calidad, pero también para la exploración y flexibilización de los procesos productivos, con el objeto de definir un procedimiento eficiente y robusto de optimiza-ción que se adapte a los diversos problemas que exigen recurrir a dicha optimización.
Parte IV - Epílogo, donde se presentan las conclusiones finales, la consecución de objetivos y posibles líneas futuras de investigación. En esta parte se incluyen además los anexos. / Aquesta tesi doctoral sorgeix davant la necessitat creixent per part de la majoria d'em-preses, i especialment (però no únicament) d'aquelles dins dels sectors farmacèutic, químic, alimentari i de bioprocessos, d'augmentar la flexibilitat en el seu rang operatiu per tal de reduir els costos de fabricació, mantenint o millorant la qualitat del producte final obtingut. La tesi se centra en l'aplicació dels conceptes del Quality by Design per a l'aplicació i extensió de diferents metodologies ja existents i el desenvolupament de nous algorismes que permeten la implementació d'eines adequades per al disseny d'ex-periments, l'anàlisi multivariada de dades i l'optimització de processos en l'àmbit del disseny de mescles, però sense limitar-se exclusivament a aquest tipus de problemes.
Part I- Prefaci, en què es presenta un resum del treball de recerca realitzat i els objec-tius principals que pretén abordar i la seua justificació, així com una introducció als conceptes més importants relatius als temes tractats en parts posteriors de la tesi, com ara el disseny d'experiments o diverses eines estadístiques d'anàlisi multivariada.
Part II - Optimització en el disseny de mescles, on es duu a terme una recapitulació de les diverses eines existents per al disseny d'experiments i anàlisi de dades per mit-jans tradicionals relatius al disseny de mescles, així com d'algunes eines basades en variables latents, tals com la Regressió en Mínims Quadrats Parcials (PLS). En aquesta part de la tesi també es proposa una extensió del PLS basada en kernels per a l'anàlisi de dades de dissenys de mescles, i es fa una comparativa de les diferents metodologies presentades. Finalment, s'inclou una breu presentació del programari MiDAs, que ofe-reix la possibilitat als usuaris de comparar de forma senzilla diverses metodologies per al disseny d'experiments i l'anàlisi de dades per a problemes de mescles.
Part III- Espai de disseny i optimització a través de l'espai latent, on s'aborda el problema fonamental dins de la filosofia del Quality by Design associat a la definició de l'anomenat 'espai de disseny', que comprendria tot el conjunt de possibles combina-cions de condicions de procés, matèries primeres, etc. que garanteixen l'obtenció d'un producte amb la qualitat desitjada. En aquesta part també es tracta el problema de la definició del problema d'optimització com a eina per a la millora de la qualitat, però també per a l'exploració i flexibilització dels processos productius, amb l'objecte de definir un procediment eficient i robust d'optimització que s'adapti als diversos pro-blemes que exigeixen recórrer a aquesta optimització.
Part IV- Epíleg, on es presenten les conclusions finals i la consecució d'objectius i es plantegen possibles línies futures de recerca arran dels resultats de la tesi. En aquesta part s'inclouen a més els annexos. / The present Ph.D. thesis is motivated by the growing need in most companies, and specially (but not solely) those in the pharmaceutical, chemical, food and bioprocess fields, to increase the flexibility in their operating conditions in order to reduce production costs while maintaining or even improving the quality of their products. To this end, this thesis focuses on the application of the concepts of the Quality by Design for the exploitation and development of already existing methodologies, and the development of new algorithms aimed at the proper implementation of tools for the design of experiments, multivariate data analysis and process optimization, specially (but not only) in the context of mixture design.
Part I - Preface, where a summary of the research work done, the main goals it aimed at and their justification, are presented. Some of the most relevant concepts related to the developed work in subsequent chapters are also introduced, such as those regarding design of experiments or latent variable-based multivariate data analysis techniques.
Part II - Mixture design optimization, in which a review of existing mixture design tools for the design of experiments and data analysis via traditional approaches, as well as some latent variable-based techniques, such as Partial Least Squares (PLS), is provided. A kernel-based extension of PLS for mixture design data analysis is also proposed, and the different available methods are compared to each other. Finally, a brief presentation of the software MiDAs is done. MiDAs has been developed in order to provide users with a tool to easily approach mixture design problems for the construction of Designs of Experiments and data analysis with different methods and compare them.
Part III - Design Space and optimization through the latent space, where one of the fundamental issues within the Quality by Design philosophy, the definition of the so-called 'design space' (i.e. the subspace comprised by all possible combinations of process operating conditions, raw materials, etc. that guarantee obtaining a product meeting a required quality standard), is addressed. The problem of properly defining the optimization problem is also tackled, not only as a tool for quality improvement but also when it is to be used for exploration of process flexibilisation purposes, in order to establish an efficient and robust optimization method in accordance with the nature of the different problems that may require such optimization to be resorted to.
Part IV - Epilogue, where final conclusions are drawn, future perspectives suggested, and annexes are included. / Palací López, DG. (2018). Quality by Design through multivariate latent structures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/115489
|
437 |
Rediseño del matadero Municipal de Pacora adecuándose al decreto supremo DS Nº015-2012-AG para asegurar la inocuidad de sus productosGuerrero Villavicencio, William Ayrton January 2022 (has links)
El matadero Municipal de Pacora brinda sus instalaciones a matarifes locales para realizar el servicio
de faenado con la finalidad de abastecer de carne de ganado vacuno, porcino, caprino el mercado local,
actualmente el matadero no cuenta con las condiciones adecuadas debido a que no se cumple con el
35,29% de los requisitos generales y el 60% de los requisitos de diseño del decreto supremo DS 015-
2012-AG, afectando así la inocuidad de la carne obtenida. Para corroborar ello se realizó un análisis
microbiológico y los resultados obtenidos mostraron un recuento mayor en aerobios mesófilos de
105
ufc/g, lo cual hace al producto rechazable.
La presente investigación tiene como objetivo principal rediseñar el Matadero Municipal de Pacora
y así poder obtener un producto inocuo. Para ello se realizó un un check list de los requisitos del decreto
se analizó la demanda de ganado, los procesos, las capacidades, distribuciones actuales y la
tecnología a implementar.
Se rediseñó el matadero incluyendo la zonas, tecnología faltante y distribución idónea con los
métodos de Güerchet y SLP para su adecuado funcionamiento, teniendo en cuenta los requisitos del
decreto supremo, ampliando un área aproximada de 344m2. Finalmente se realizó el análisis beneficio
– costo del cual se obtuvo un VNA de 6 958,71 soles y un TIR de 11,69% haciéndolo un proyecto viable. / The Municipal slaughterhouse of Pacora provides its facilities to local slaughterers to carry out the
slaughter service to supply the local market with beef, pig and goat meat, currently the slaughterhouse
does not have the appropriate conditions because it is not met with 35.29% of the general requirements
and 60% of the design requirements of Supreme Decree DS N ° 015-2012-AG, thus affecting the safety
of the meat obtained. To corroborate this, a microbiological analysis was carried out and the results
obtained showed a count higher than 105
ufc / g in aerobic mesophilic, which makes the product
rejectable.
The main objective of this research is to redesign the Pacora Municipal Slaughterhouse and thus be
able to obtain a safe product. For this, a check list of the requirements of the decree was made
, the demand for livestock, the processes, capacities, current distributions, and the technology to be
implemented were analyzed.
The slaughterhouse was redesigned including the areas, missing technology, and suitable distribution
with the Güerchet and SLP methods for its proper operation, considering the requirements of the
supreme decree, expanding an area of approximately 344m2. Finally, the benefit-cost analysis was
carried out, which obtained a NPV of 6,958.71 soles and an IRR of 11.69%, making it a viable project.
|
438 |
Optimised Mix designs for Self-Healing ConcreteHermawan, Harry 23 January 2024 (has links)
[ES] El hormigón es considerado como uno de los principales materiales de construcción más ampliamente utilizado en obras de infraestructuras. Su consideración como material de gran durabilidad y su ventajosa relación calidad-precio en comparación con otros materiales le ha hecho indispensable en la era moderna. Sin embargo, las fisuras son prácticamente inevitables en las estructuras de hormigón armado y se consideran como uno de sus puntos débiles, ya que comprometen la durabilidad de las infraestructuras y pueden generar condiciones inseguras. Hay muchas técnicas de reparación para sellar y sanar las fisuras, pero suelen ser costosas y requieren tiempo de intervención. Por esta razón, en los últimos años, se han realizado muchas investigaciones buscando alternativas para resolver estos problemas desarrollando una nueva generación de hormigones que se han denominado hormigones auto sanables. Se ha demostrado que las tecnologías de auto sanado cierran eficazmente las fisuras parcial o totalmente en un sistema cementoso. Sin embargo, los estudios a nivel del hormigón son todavía bastante limitados y en la mayoría de los casos las dosificaciones de la mezcla no fueron optimizados para la introducción de agentes de autosanado.
Del estudio amplio de la literatura se aprecia que la incorporación de agentes de autosanado no siempre conllevan efectos positivos en las propiedades del hormigón. En consecuencia, según el tipo de agente de sellado/sanado, será necesario optimizar la dosificación para garantizar que no reduce en alguna medida las prestaciones del hormigón colocado. Se analiza un amplio espectro de agentes de sanado/sellado: bacterias (BAC), adiciones cristalinas (CA), biomasas y agentes incorporados en micro o macro cápsulas. Previamente a su introducción en el hormigón se evaluó su compatibilidad con los materiales cementosos, como información básica para el diseño de las mezclas. La optimización del diseño de las mezclas de hormigón se llevó a cabo dependiendo del agente elegido y los objetivos de la investigación. Al utilizar CA, se encontró que aumentar su dosis y el contenido en cemento conducía a mejorar la eficiencia de curación (HE) y la de sellado (SE). La variación de la relación agua-cemento (a/c) no produjo una mejora notable de HE y SE. Se profundizó el conocimiento sobre las propiedades de adherencia entre las armaduras y la matriz de hormigón. La inclusión de agentes de sanado (BAC, CA, biomasas) conllevó la mejora de la adherencia con un crecimiento del 57% cuando se adiciona CA. Aunque la presencia de fisuras longitudinales redujo críticamente la adherencia, se logró una recuperación importante gracias a los efectos del auto sanado. Se encontraron efectos contrapuestos del uso de microcápsulas. Se confirma una reducción significativa de la resistencia mecánica y una mejora significativa del sellado. Los parámetros de diseño de mezcla se optimizaron para compensar la reducción de resistencia, con un programa experimental con diseño factorial completo. Por la estructura inerte, las macrocápsulas tiende a perturbar el empaquetamiento de los áridos. Para la optimización de la mezcla se desarrolló un modelo de empaquetamiento de partículas modificado para predecir la proporción de huecos de las mezclas de áridos y cápsulas.
Con todo, el resultado de esta investigación puede servir como guía para comprender la contribución de los parámetros de diseño de mezclas que afectan las propiedades de auto sanado, que potencialmente ayudará a investigadores e ingenieros a formular mezclas de hormigón para aplicaciones de auto sanado. / [CA] El formigó és considerat un dels principals materials de construcció més àmpliament utilitzat en obres d'infraestructures. La seua consideració com a material de gran durabilitat i la seua relació qualitat-preu avantatjosa en comparació amb altres materials l'ha fet indispensable en l'era moderna. Tot i això, les fissures són pràcticament inevitables en les estructures de formigó armat i es consideren com un dels seus punts febles, ja que comprometen la durabilitat de les infraestructures i poden generar condicions insegures. Hi ha moltes tècniques de reparació per segellar i curar les fissures, però solen ser costoses i requereixen temps d'intervenció. Per aquesta raó, en els darrers anys, s'han realitzat moltes investigacions buscant alternatives per resoldre aquests problemes desenvolupant una nova generació de formigons que s'han anomenat formigons auto sanables. S'ha demostrat que les tecnologies de auto curat tanquen eficaçment les fissures parcialment o totalment en un sistema de ciment. Tot i això, els estudis a nivell del formigó són encara força limitats i en la majoria dels casos les dosificacions no van ser optimitzades per a la introducció d'agents d'auto curat.
De l'estudi ampli de la literatura s'aprecia que la incorporació d'agents d'auto curat no sempre comporta efectes positius en les propietats del formigó. En conseqüència, segons el tipus d'agent de segellat/curat, cal optimitzar la dosificació per garantir que no redueix en alguna mesura les prestacions del formigó. S'analitza un ampli espectre d'agents de curat / segellament: bacteris (BAC), addicions cristal·lines (CA), biomassa i agents incorporats en micro o macro càpsules. Prèviament a la seua introducció al formigó es va avaluar la compatibilitat amb els conglomerants, com a informació bàsica per al disseny de mescles. L'optimització del disseny de les mescles de formigó es va dur a terme depenent de l'agent elegit i els objectius de la investigació. En utilitzar CA, es va trobar que augmentar-ne la dosi i el contingut en ciment conduïa a millorar l'eficiència de curació (HE) i la de segellat (SE). La variació de la relació aigua-ciment (a/c) no va produir una millora notable de HE i SE. S'aprofundí el coneixement sobre les propietats d'adherència entre les armadures i la matriu de formigó. La inclusió d'agents de curació (BAC, CA, biomassa) va comportar la millora de l'adherència amb un creixement del 57% quan s'hi afegeix CA. Tot i que la presència de fissures longitudinals va reduir críticament l'adherència, es va aconseguir una recuperació important gràcies als efectes del auto curat. S'han trobat efectes contraposats de l'ús de microcàpsules. Es confirma una reducció significativa de la resistència mecànica i una millora significativa del segellat. Els paràmetres de disseny de mescla es van optimitzar per compensar la reducció de resistència, amb un programa experimental amb disseny factorial complet. Per la seua estructura inert, les macrocàpsules tendeixen a pertorbar l'empaquetament dels àrids. Per optimitzar la mescles es va desenvolupar un model d'empaquetament de partícules modificat per predir la proporció de buits de les mescles d'àrids i càpsules.
Amb tot, el resultat d'aquesta investigació pot servir com a guia per comprendre la contribució dels paràmetres de disseny de barreges que afecten les propietats de auto curat, que potencialment ajudarà investigadors i enginyers a formular barreges de formigó per a aplicacions de auto curat. / [EN] Concrete has been widely used as a major material for infrastructure works. The durable character and the advantageous price-quality ratio compared to other materials have made concrete indispensable in the modern era. However, cracks in concrete structures are inevitable and are known as one of the inherent weaknesses of concrete, thereby making a threat to the durability of infrastructure which can lead to unsafe conditions. There are many repair techniques to seal and heal the cracks, but these approaches are costly and time-consuming. Therefore, during past years, many researchers searched for alternatives to solve these problems by developing a new generation of concrete namely self-healing concrete. Self-healing technologies have proven to effectively close cracks partially or fully in the cementitious system. However, studies on the concrete level are still rather limited and in most cases, the mix designs were not optimized for the introduction of healing agents.
Based on a comprehensive literature, it was revealed that not all healing/sealing agents induce positive effects to the concrete properties. Consequently, an optimization of the mix designs is necessary to guarantee that these agents do not negatively affect the concrete properties to some extent. In this PhD dissertation, a wide range of healing/sealing agents were utilized such as bacteria (BAC), crystalline admixture (CA), biomasses, micro- and macro-encapsulated agents. Prior to the introduction of these agents into the concrete, the compatibility between healing/sealing agents and cementitious materials was evaluated to serve as a basic input for designing the concrete mixtures.
The optimizations of concrete mix designs were carried out depending on the choice of the agents and the research objectives. When using CA, it was found that increasing the CA dosage and cement content in the mix design improved the healing efficiency (HE) and sealing efficiency (SE). Varying the water-cement ratio (w/c) did not give a remarkable improvement of HE and SE. A deep insight in the bond properties between the steel reinforcement and the self-healing concrete matrix was achieved. The inclusion of healing agents (i.e., BAC, CA, biomasses) possessed a bond strength improvement with the highest enhancement of 57% attained by the CA addition. Although the presence of a longitudinal crack critically reduced the bond strength, a bond restoration was achieved due to self-healing effects. Dual effects of using microcapsules were found, confirming a significant reduction of mechanical strength and a significant sealing improvement. Therefore, the mix design parameters were optimized to compensate the strength reduction via full factorial designs. With respect to the inert structure, the incorporation of macrocapsules tended to disturb the packing of aggregates. Hence, a modified particle packing model was developed to predict the voids ratio of aggregate-capsules mixtures.
All in all, the outcome of this PhD research can serve as a guidance to understand the contribution of mix design parameters affecting the self-healing concrete properties. This potentially helps researchers and engineers to formulate their concrete mixtures for self-healing application. / This project has received funding from the European Union’s Horizon 2020
research and innovation programme under the Marie Skłodowska-Curie
grant agreement No 860006. / Hermawan, H. (2023). Optimised Mix designs for Self-Healing Concrete [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202610
|
439 |
Investigación de nuevas metodologías para la planificación de sistemas de tiempo real multinúcleo mediante técnicas no convencionalesAceituno Peinado, José María 28 March 2024 (has links)
Tesis por compendio / [ES] Los sistemas de tiempo real se caracterizan por exigir el cumplimento de unos requisitos temporales que garanticen el funcionamiento aceptable de un sistema. Especialmente, en los sistemas de tiempo real estricto estos requisitos temporales deben ser inviolables. Estos sistemas suelen aplicarse en áreas como la aviación, la seguridad ferroviaria, satélites y control de procesos, entre otros. Por tanto, el incumplimiento de un requisito temporal en un sistema de tiempo real estricto puede ocasionar un fallo catastrófico.
La planificación de sistemas de tiempo real es una área en la que se estudian y aplican diversas metodologías, heurísticas y algoritmos que intentan asignar el recurso de la CPU sin pérdidas de plazo.
El uso de sistemas de computación multinúcleo es una opción cada vez más recurrente en los sistemas de tiempo real estrictos. Esto se debe, entre otras causas, a su alto rendimiento a nivel de computación gracias a su capacidad de ejecutar varios procesos en paralelo.
Por otro lado, los sistemas multinúcleo presentan un nuevo problema, la contención que ocurre debido a la compartición de los recursos de hardware. El origen de esta contención es la interferencia que en ocasiones ocurre entre tareas asignadas en distintos núcleos que pretenden acceder al mismo recurso compartido simultáneamente, típicamente acceso a memoria compartida. Esta interferencia añadida puede suponer un incumplimiento de los requisitos temporales, y por tanto, la planificación no sería viable.
En este trabajo se proponen nuevas metodologías y estrategias de planificación no convencionales para aportar soluciones al problema de la interferencia en sistemas multinúcleo. Estas metodologías y estrategias abarcan algoritmos de planificación, algoritmos de asignación de tareas a núcleos, modelos temporales y análisis de planificabilidad.
El resultado del trabajo realizado se ha publicado en diversos artículos en revistas del área. En ellos se presentan estas nuevas propuestas que afrontan los retos de la planificación de tareas. En la mayoría de los artículos presentados la estructura es similar: se introduce el contexto en el que nos situamos, se plantea la problemática existente, se expone una propuesta para solventar o mejorar los resultados de la planificación, después se realiza una experimentación para evaluar de forma práctica la metodología propuesta, se analizan los resultados obtenidos y finalmente se exponen unas conclusiones sobre la propuesta.
Los resultados de las metodologías no convencionales propuestas en los artículos que conforman esta tesis muestran una mejora del rendimiento de las planificaciones en comparación con algoritmos clásicos del área. Especialmente la mejora se produce en términos de disminución de la interferencia producida y mejora de la tasa de planificabilidad. / [CA] Els sistemes de temps real es caracteritzen per exigir el compliment d'uns requisits temporals que garantisquen el funcionament acceptable d'un sistema. Especialment, en els sistemes de temps real estricte aquests requisits temporals han de ser inviolables. Aquests sistemes solen aplicar-se en àrees com l'aviació, la seguretat ferroviària, satèl·lits i control de processos, entre altres. Per tant, l'incompliment d'un requisit temporal en un sistema de temps real estricte pot ocasionar un error catastròfic.
La planificació de sistemes de temps real és una àrea en la qual s'estudien i apliquen diverses metodologies, heurístiques i algorismes que intenten assignar el recurs de la CPU sense pèrdues de termini.
L'ús de sistemes de computació multinucli és una opció cada vegada més recurrent en els sistemes de temps real estrictes. Això es deu, entre altres causes, al seu alt rendiment a nivell de computació gràcies a la seua capacitat d'executar diversos processos en paral·lel.
D'altra banda, els sistemes multinucli presenten un nou problema, la contenció que ocorre a causa de la compartició dels recursos de hardware. L'origen d'aquesta contenció és la interferència que a vegades ocorre entre tasques assignades en diferents nuclis que pretenen accedir al mateix recurs compartit simultàniament, típicament accés a memòria compartida. Aquesta interferència afegida pot suposar un incompliment dels requisits temporals, i per tant, la planificació no seria viable.
En aquest treball es proposen noves metodologies i estratègies de planificació no convencionals per aportar solucions al problema de la interferència en sistemes multinucli. Aquestes metodologies i estratègies comprenen algorismes de planificació, algorismes d'assignació de tasques a nuclis, models temporals i anàlisis de planificabilitat.
El resultat del treball realitzat s'ha publicat en diversos articles en revistes de l'àrea. En ells es presenten aquestes noves propostes que afronten els reptes de la planificació de tasques. En la majoria dels articles presentats l'estructura és similar: s'introdueix el context en el qual ens situem, es planteja la problemàtica existent, s'exposa una proposta per a solucionar o millorar els resultats de la planificació, després es realitza una experimentació per a avaluar de manera pràctica la metodologia proposada, s'analitzen els resultats obtinguts i finalment s'exposen unes conclusions sobre la proposta.
Els resultats de les metodologies no convencionals proposades en els articles que conformen aquesta tesi mostren una millora del rendiment de les planificacions en comparació amb algorismes clàssics de l'àrea. Especialment, la millora es produeix en termes de disminució de la interferència produïda i millora de la taxa de planificabilitat. / [EN] Real-time systems are characterised by the demand for temporal constraints that guarantee acceptable operation and feasibility of a system. Especially, in hard real-time systems these temporal constraints must be respected. These systems are typically applied in areas such as aviation, railway safety, satellites and process control, among others. Therefore, a missed deadline in a hard-real time system can lead to a catastrophic failure.
The scheduling of real-time systems is an area where various methodologies, heuristics and algorithms are studied and applied in an attempt to allocate the CPU resources without missing any deadline.
The use of multicore computing systems is an increasingly recurrent option in hard real-time systems. This is due, among other reasons, to its high computational performance thanks to the ability to run multiple processes in parallel.
On the other hand, multicore systems present a new problem, the contention that occurs due to the sharing of hardware resources. The source of this contention is the interference that sometimes happens between tasks allocated in different cores that try to access the same shared resource simultaneously, typically shared memory access. This added interference can lead to miss a deadline, and therefore, the scheduling would not be feasible.
This paper proposes new non-conventional scheduling methodologies and strategies to provide solutions to the interference problem in multicore systems. These methodologies and strategies include scheduling algorithms, task allocation algorithms, temporal models and schedulability analysis.
The results of this work have been published in several journal articles in the field. In these articles the new proposals are presented, they face the challenges of task scheduling. In the majority of these articles the structure is similar: the context is introduced, the existing problem is identified, a proposal to solve or improve the results of the scheduling is presented, then the proposed methodology is experimented in order to evaluate it in practical terms, the results obtained are analysed and finally conclusions about the proposal are expressed.
The results of the non-conventional methodologies proposed in the articles that comprise this thesis show an improvement in the performance of the scheduling compared to classical algorithms in the area. In particular, the improvement is produced in terms of reducing the interference and a higher schedulability rate. / Esta tesis se ha realizado en el marco de dos proyectos de investigación de carácter nacional. Uno
de ellos es el proyecto es PRECON-I4. Consiste en la búsqueda de sistemas informáticos predecibles y confiables para la industria 4.0. El otro proyecto es PRESECREL, que consiste en la
búsqueda de modelos y plataformas para sistemas informáticos industriales predecibles, seguros
y confiables. Tanto PRECON-I4 como PRESECREL son proyectos coordinados financiados por
el Ministerio de Ciencia, Innovación y Universidades y los fondos FEDER (AEI/FEDER, UE).
En ambos proyectos participa la Universidad Politécnica de Valencia, la Universidad de Cantabria y la Universidad Politécnica de Madrid. Además, en PRESECREL también participa
IKERLAN S. COOP I.P. Además, parte de los resultados de esta tesis también han servido
para validar la asignación de recursos temporales en sistemas críticos en el marco del proyecto
METROPOLIS (PLEC2021-007609). / Aceituno Peinado, JM. (2024). Investigación de nuevas metodologías para la planificación de sistemas de tiempo real multinúcleo mediante técnicas no convencionales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203212 / Compendio
|
440 |
On the Keyword Extraction and Bias Analysis, Graph-based Exploration and Data Augmentation for Abusive Language Detection in Low-Resource SettingsPeña Sarracén, Gretel Liz de la 07 April 2024 (has links)
Tesis por compendio / [ES] La detección del lenguaje abusivo es una tarea que se ha vuelto cada vez más importante en la era digital moderna, donde la comunicación se produce a través de diversas plataformas en línea. El aumento de las interacciones en estas plataformas ha provocado un aumento de la aparición del lenguaje abusivo. Abordar dicho contenido es crucial para mantener un entorno en línea seguro e inclusivo.
Sin embargo, esta tarea enfrenta varios desafíos que la convierten en un área compleja y que demanda de continua investigación y desarrollo. En particular, detectar lenguaje abusivo en entornos con escasez de datos presenta desafíos adicionales debido a que el desarrollo de sistemas automáticos precisos a menudo requiere de grandes conjuntos de datos anotados.
En esta tesis investigamos diferentes aspectos de la detección del lenguaje abusivo, prestando especial atención a entornos con datos limitados. Primero, estudiamos el sesgo hacia palabras clave abusivas en modelos entrenados para la detección del lenguaje abusivo. Con este propósito, proponemos dos métodos para extraer palabras clave potencialmente abusivas de colecciones de textos. Luego evaluamos el sesgo hacia las palabras clave extraídas y cómo se puede modificar este sesgo para influir en el rendimiento de la detección del lenguaje abusivo. El análisis y las conclusiones de este trabajo revelan evidencia de que es posible mitigar el sesgo y que dicha reducción puede afectar positivamente el desempeño de los modelos. Sin embargo, notamos que no es posible establecer una correspondencia similar entre la variación del sesgo y el desempeño de los modelos cuando hay escasez datos con las técnicas de reducción del sesgo estudiadas.
En segundo lugar, investigamos el uso de redes neuronales basadas en grafos para detectar lenguaje abusivo. Por un lado, proponemos una estrategia de representación de textos diseñada con el objetivo de obtener un espacio de representación en el que los textos abusivos puedan distinguirse fácilmente de otros textos. Por otro lado, evaluamos la capacidad de redes neuronales convolucionales basadas en grafos para clasificar textos abusivos.
La siguiente parte de nuestra investigación se centra en analizar cómo el aumento de datos puede influir en el rendimiento de la detección del lenguaje abusivo. Para ello, investigamos dos técnicas bien conocidas basadas en el principio de minimización del riesgo en la vecindad de instancias originales y proponemos una variante para una de ellas. Además, evaluamos técnicas simples basadas en el reemplazo de sinónimos, inserción aleatoria, intercambio aleatorio y eliminación aleatoria de palabras.
Las contribuciones de esta tesis ponen de manifiesto el potencial de las redes neuronales basadas en grafos y de las técnicas de aumento de datos para mejorar la detección del lenguaje abusivo, especialmente cuando hay limitación de datos.
Estas contribuciones han sido publicadas en conferencias y revistas internacionales. / [CA] La detecció del llenguatge abusiu és una tasca que s'ha tornat cada vegada més important en l'era digital moderna, on la comunicació es produïx a través de diverses plataformes en línia. L'augment de les interaccions en estes plataformes ha provocat un augment de l'aparició de llenguatge abusiu. Abordar este contingut és crucial per a mantindre un entorn en línia segur i inclusiu.
No obstant això, esta tasca enfronta diversos desafiaments que la convertixen en una àrea complexa i contínua de recerca i desenvolupament. En particular, detectar llenguatge abusiu en entorns amb escassetat de dades presenta desafiaments addicionals pel fet que el desenvolupament de sistemes automàtics precisos sovint requerix de grans conjunts de dades anotades.
En esta tesi investiguem diferents aspectes de la detecció del llenguatge abusiu, prestant especial atenció a entorns amb dades limitades. Primer, estudiem el biaix cap a paraules clau abusives en models entrenats per a la detecció de llenguatge abusiu. Amb este propòsit, proposem dos mètodes per a extraure paraules clau potencialment abusives de col·leccions de textos. Després avaluem el biaix cap a les paraules clau extretes i com es pot modificar este biaix per a influir en el rendiment de la detecció de llenguatge abusiu. L'anàlisi i les conclusions d'este treball revelen evidència que és possible mitigar el biaix i que esta reducció pot afectar positivament l'acompliment dels models. No obstant això, notem que no és possible establir una correspondència similar entre la variació del biaix i l'acompliment dels models quan hi ha escassetat dades amb les tècniques de reducció del biaix estudiades.
En segon lloc, investiguem l'ús de xarxes neuronals basades en grafs per a detectar llenguatge abusiu. D'una banda, proposem una estratègia de representació textual dissenyada amb l'objectiu d'obtindre un espai de representació en el qual els textos abusius puguen distingir-se fàcilment d'altres textos. D'altra banda, avaluem la capacitat de models basats en xarxes neuronals convolucionals basades en grafs per a classificar textos abusius.
La següent part de la nostra investigació se centra en analitzar com l'augment de dades pot influir en el rendiment de la detecció del llenguatge abusiu. Per a això, investiguem dues tècniques ben conegudes basades en el principi de minimització del risc en el veïnatge d'instàncies originals i proposem una variant per a una d'elles. A més, avaluem tècniques simples basades en el reemplaçament de sinònims, inserció aleatòria, intercanvi aleatori i eliminació aleatòria de paraules.
Les contribucions d'esta tesi destaquen el potencial de les xarxes neuronals basades en grafs i de les tècniques d'augment de dades per a millorar la detecció del llenguatge abusiu, especialment quan hi ha limitació de dades.
Estes contribucions han sigut publicades en revistes i conferències internacionals. / [EN] Abusive language detection is a task that has become increasingly important in the modern digital age, where communication takes place via various online platforms. The increase in online interactions has led to an increase in the occurrence of abusive language. Addressing such content is crucial to maintaining a safe and inclusive online environment.
However, this task faces several challenges that make it a complex and ongoing area of research and development. In particular, detecting abusive language in environments with sparse data poses an additional challenge, since the development of accurate automated systems often requires large annotated datasets.
In this thesis we investigate different aspects of abusive language detection, paying particular attention to environments with limited data. First, we study the bias toward abusive keywords in models trained for abusive language detection. To this end, we propose two methods for extracting potentially abusive keywords from datasets. We then evaluate the bias toward the extracted keywords and how this bias can be modified in order to influence abusive language detection performance. The analysis and conclusions of this work reveal evidence that it is possible to mitigate the bias and that such a reduction can positively affect the performance of the models. However, we notice that it is not possible to establish a similar correspondence between bias mitigation and model performance in low-resource settings with the studied bias mitigation techniques.
Second, we investigate the use of models based on graph neural networks to detect abusive language. On the one hand, we propose a text representation framework designed with the aim of obtaining a representation space in which abusive texts can be easily distinguished from other texts. On the other hand, we evaluate the ability of models based on convolutional graph neural networks to classify abusive texts.
The next part of our research focuses on analyzing how data augmentation can influence the performance of abusive language detection. To this end, we investigate two well-known techniques based on the principle of vicinal risk minimization and propose a variant for one of them. In addition, we evaluate simple techniques based on the operations of synonym replacement, random insertion, random swap, and random deletion.
The contributions of this thesis highlight the potential of models based on graph neural networks and data augmentation techniques to improve abusive language detection, especially in low-resource settings.
These contributions have been published in several international conferences and journals. / This research work was partially funded by the Spanish Ministry of Science and Innovation under the research project MISMIS-FAKEnHATE on Misinformation and Miscommunication in social media: FAKE news and HATE speech (PGC2018-096212-B-C31). The authors thank also the EU-FEDER Comunitat Valenciana 2014-2020 grant IDIFEDER/2018/025. This work was done in the framework of the research project on Fairness
and Transparency for equitable NLP applications in social media, funded by MCIN/AEI/10.13039/501100011033 and by ERDF, EU A way of making
EuropePI. FairTransNLP research project (PID2021-124361OB-C31) funded by MCIN/AEI/10.13039/501100011033 and by ERDF, EU A way of making
Europe. Part of the work presented in this article was performed during the first author’s research visit to the University of Mannheim, supported
through a Contact Fellowship awarded by the DAAD scholarship program “STIBET Doktoranden”. / Peña Sarracén, GLDL. (2024). On the Keyword Extraction and Bias Analysis, Graph-based Exploration and Data Augmentation for Abusive Language Detection in Low-Resource Settings [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203266 / Compendio
|
Page generated in 0.2752 seconds