• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 94
  • 15
  • 5
  • 4
  • 2
  • Tagged with
  • 250
  • 99
  • 98
  • 44
  • 41
  • 41
  • 40
  • 40
  • 33
  • 26
  • 26
  • 24
  • 22
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation

Vitale, Raffaele 03 November 2017 (has links)
The present Ph.D. thesis, primarily conceived to support and reinforce the relation between academic and industrial worlds, was developed in collaboration with Shell Global Solutions (Amsterdam, The Netherlands) in the endeavour of applying and possibly extending well-established latent variable-based approaches (i.e. Principal Component Analysis - PCA - Partial Least Squares regression - PLS - or Partial Least Squares Discriminant Analysis - PLSDA) for complex problem solving not only in the fields of manufacturing troubleshooting and optimisation, but also in the wider environment of multivariate data analysis. To this end, novel efficient algorithmic solutions are proposed throughout all chapters to address very disparate tasks, from calibration transfer in spectroscopy to real-time modelling of streaming flows of data. The manuscript is divided into the following six parts, focused on various topics of interest: Part I - Preface, where an overview of this research work, its main aims and justification is given together with a brief introduction on PCA, PLS and PLSDA; Part II - On kernel-based extensions of PCA, PLS and PLSDA, where the potential of kernel techniques, possibly coupled to specific variants of the recently rediscovered pseudo-sample projection, formulated by the English statistician John C. Gower, is explored and their performance compared to that of more classical methodologies in four different applications scenarios: segmentation of Red-Green-Blue (RGB) images, discrimination of on-/off-specification batch runs, monitoring of batch processes and analysis of mixture designs of experiments; Part III - On the selection of the number of factors in PCA by permutation testing, where an extensive guideline on how to accomplish the selection of PCA components by permutation testing is provided through the comprehensive illustration of an original algorithmic procedure implemented for such a purpose; Part IV - On modelling common and distinctive sources of variability in multi-set data analysis, where several practical aspects of two-block common and distinctive component analysis (carried out by methods like Simultaneous Component Analysis - SCA - DIStinctive and COmmon Simultaneous Component Analysis - DISCO-SCA - Adapted Generalised Singular Value Decomposition - Adapted GSVD - ECO-POWER, Canonical Correlation Analysis - CCA - and 2-block Orthogonal Projections to Latent Structures - O2PLS) are discussed, a new computational strategy for determining the number of common factors underlying two data matrices sharing the same row- or column-dimension is described, and two innovative approaches for calibration transfer between near-infrared spectrometers are presented; Part V - On the on-the-fly processing and modelling of continuous high-dimensional data streams, where a novel software system for rational handling of multi-channel measurements recorded in real time, the On-The-Fly Processing (OTFP) tool, is designed; Part VI - Epilogue, where final conclusions are drawn, future perspectives are delineated, and annexes are included. / La presente tesis doctoral, concebida principalmente para apoyar y reforzar la relación entre la academia y la industria, se desarrolló en colaboración con Shell Global Solutions (Amsterdam, Países Bajos) en el esfuerzo de aplicar y posiblemente extender los enfoques ya consolidados basados en variables latentes (es decir, Análisis de Componentes Principales - PCA - Regresión en Mínimos Cuadrados Parciales - PLS - o PLS discriminante - PLSDA) para la resolución de problemas complejos no sólo en los campos de mejora y optimización de procesos, sino también en el entorno más amplio del análisis de datos multivariados. Con este fin, en todos los capítulos proponemos nuevas soluciones algorítmicas eficientes para abordar tareas dispares, desde la transferencia de calibración en espectroscopia hasta el modelado en tiempo real de flujos de datos. El manuscrito se divide en las seis partes siguientes, centradas en diversos temas de interés: Parte I - Prefacio, donde presentamos un resumen de este trabajo de investigación, damos sus principales objetivos y justificaciones junto con una breve introducción sobre PCA, PLS y PLSDA; Parte II - Sobre las extensiones basadas en kernels de PCA, PLS y PLSDA, donde presentamos el potencial de las técnicas de kernel, eventualmente acopladas a variantes específicas de la recién redescubierta proyección de pseudo-muestras, formulada por el estadista inglés John C. Gower, y comparamos su rendimiento respecto a metodologías más clásicas en cuatro aplicaciones a escenarios diferentes: segmentación de imágenes Rojo-Verde-Azul (RGB), discriminación y monitorización de procesos por lotes y análisis de diseños de experimentos de mezclas; Parte III - Sobre la selección del número de factores en el PCA por pruebas de permutación, donde aportamos una guía extensa sobre cómo conseguir la selección de componentes de PCA mediante pruebas de permutación y una ilustración completa de un procedimiento algorítmico original implementado para tal fin; Parte IV - Sobre la modelización de fuentes de variabilidad común y distintiva en el análisis de datos multi-conjunto, donde discutimos varios aspectos prácticos del análisis de componentes comunes y distintivos de dos bloques de datos (realizado por métodos como el Análisis Simultáneo de Componentes - SCA - Análisis Simultáneo de Componentes Distintivos y Comunes - DISCO-SCA - Descomposición Adaptada Generalizada de Valores Singulares - Adapted GSVD - ECO-POWER, Análisis de Correlaciones Canónicas - CCA - y Proyecciones Ortogonales de 2 conjuntos a Estructuras Latentes - O2PLS). Presentamos a su vez una nueva estrategia computacional para determinar el número de factores comunes subyacentes a dos matrices de datos que comparten la misma dimensión de fila o columna y dos planteamientos novedosos para la transferencia de calibración entre espectrómetros de infrarrojo cercano; Parte V - Sobre el procesamiento y la modelización en tiempo real de flujos de datos de alta dimensión, donde diseñamos la herramienta de Procesamiento en Tiempo Real (OTFP), un nuevo sistema de manejo racional de mediciones multi-canal registradas en tiempo real; Parte VI - Epílogo, donde presentamos las conclusiones finales, delimitamos las perspectivas futuras, e incluimos los anexos. / La present tesi doctoral, concebuda principalment per a recolzar i reforçar la relació entre l'acadèmia i la indústria, es va desenvolupar en col·laboració amb Shell Global Solutions (Amsterdam, Països Baixos) amb l'esforç d'aplicar i possiblement estendre els enfocaments ja consolidats basats en variables latents (és a dir, Anàlisi de Components Principals - PCA - Regressió en Mínims Quadrats Parcials - PLS - o PLS discriminant - PLSDA) per a la resolució de problemes complexos no solament en els camps de la millora i optimització de processos, sinó també en l'entorn més ampli de l'anàlisi de dades multivariades. A aquest efecte, en tots els capítols proposem noves solucions algorítmiques eficients per a abordar tasques dispars, des de la transferència de calibratge en espectroscopia fins al modelatge en temps real de fluxos de dades. El manuscrit es divideix en les sis parts següents, centrades en diversos temes d'interès: Part I - Prefaci, on presentem un resum d'aquest treball de recerca, es donen els seus principals objectius i justificacions juntament amb una breu introducció sobre PCA, PLS i PLSDA; Part II - Sobre les extensions basades en kernels de PCA, PLS i PLSDA, on presentem el potencial de les tècniques de kernel, eventualment acoblades a variants específiques de la recentment redescoberta projecció de pseudo-mostres, formulada per l'estadista anglés John C. Gower, i comparem el seu rendiment respecte a metodologies més clàssiques en quatre aplicacions a escenaris diferents: segmentació d'imatges Roig-Verd-Blau (RGB), discriminació i monitorització de processos per lots i anàlisi de dissenys d'experiments de mescles; Part III - Sobre la selecció del nombre de factors en el PCA per proves de permutació, on aportem una guia extensa sobre com aconseguir la selecció de components de PCA a través de proves de permutació i una il·lustració completa d'un procediment algorítmic original implementat per a la finalitat esmentada; Part IV - Sobre la modelització de fonts de variabilitat comuna i distintiva en l'anàlisi de dades multi-conjunt, on discutim diversos aspectes pràctics de l'anàlisis de components comuns i distintius de dos blocs de dades (realitzat per mètodes com l'Anàlisi Simultània de Components - SCA - Anàlisi Simultània de Components Distintius i Comuns - DISCO-SCA - Descomposició Adaptada Generalitzada en Valors Singulars - Adapted GSVD - ECO-POWER, Anàlisi de Correlacions Canòniques - CCA - i Projeccions Ortogonals de 2 blocs a Estructures Latents - O2PLS). Presentem al mateix temps una nova estratègia computacional per a determinar el nombre de factors comuns subjacents a dues matrius de dades que comparteixen la mateixa dimensió de fila o columna, i dos plantejaments nous per a la transferència de calibratge entre espectròmetres d'infraroig proper; Part V - Sobre el processament i la modelització en temps real de fluxos de dades d'alta dimensió, on dissenyem l'eina de Processament en Temps Real (OTFP), un nou sistema de tractament racional de mesures multi-canal registrades en temps real; Part VI - Epíleg, on presentem les conclusions finals, delimitem les perspectives futures, i incloem annexos. / Vitale, R. (2017). Novel chemometric proposals for advanced multivariate data analysis, processing and interpretation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90442
232

Quality by Design through multivariate latent structures

Palací López, Daniel Gonzalo 14 January 2019 (has links)
La presente tesis doctoral surge ante la necesidad creciente por parte de la mayoría de empresas, y en especial (pero no únicamente) aquellas dentro de los sectores farmacéu-tico, químico, alimentación y bioprocesos, de aumentar la flexibilidad en su rango ope-rativo para reducir los costes de fabricación, manteniendo o mejorando la calidad del producto final obtenido. Para ello, esta tesis se centra en la aplicación de los conceptos del Quality by Design para la aplicación y extensión de distintas metodologías ya exis-tentes y el desarrollo de nuevos algoritmos que permitan la implementación de herra-mientas adecuadas para el diseño de experimentos, el análisis multivariante de datos y la optimización de procesos en el ámbito del diseño de mezclas, pero sin limitarse ex-clusivamente a este tipo de problemas. Parte I - Prefacio, donde se presenta un resumen del trabajo de investigación realiza-do y los objetivos principales que pretende abordar y su justificación, así como una introducción a los conceptos más importantes relativos a los temas tratados en partes posteriores de la tesis, tales como el diseño de experimentos o diversas herramientas estadísticas de análisis multivariado. Parte II - Optimización en el diseño de mezclas, donde se lleva a cabo una recapitu-lación de las diversas herramientas existentes para el diseño de experimentos y análisis de datos por medios tradicionales relativos al diseño de mezclas, así como de algunas herramientas basadas en variables latentes, tales como la Regresión en Mínimos Cua-drados Parciales (PLS). En esta parte de la tesis también se propone una extensión del PLS basada en kernels para el análisis de datos de diseños de mezclas, y se hace una comparativa de las distintas metodologías presentadas. Finalmente, se incluye una breve presentación del programa MiDAs, desarrollado con la finalidad de ofrecer a sus usuarios la posibilidad de comparar de forma sencilla diversas metodologías para el diseño de experimentos y análisis de datos para problemas de mezclas. Parte III - Espacio de diseño y optimización a través del espacio latente, donde se aborda el problema fundamental dentro de la filosofía del Quality by Design asociado a la definición del llamado 'espacio de diseño', que comprendería todo el conjunto de posibles combinaciones de condiciones de proceso, materias primas, etc. que garanti-zan la obtención de un producto con la calidad deseada. En esta parte también se trata el problema de la definición del problema de optimización como herramienta para la mejora de la calidad, pero también para la exploración y flexibilización de los procesos productivos, con el objeto de definir un procedimiento eficiente y robusto de optimiza-ción que se adapte a los diversos problemas que exigen recurrir a dicha optimización. Parte IV - Epílogo, donde se presentan las conclusiones finales, la consecución de objetivos y posibles líneas futuras de investigación. En esta parte se incluyen además los anexos. / Aquesta tesi doctoral sorgeix davant la necessitat creixent per part de la majoria d'em-preses, i especialment (però no únicament) d'aquelles dins dels sectors farmacèutic, químic, alimentari i de bioprocessos, d'augmentar la flexibilitat en el seu rang operatiu per tal de reduir els costos de fabricació, mantenint o millorant la qualitat del producte final obtingut. La tesi se centra en l'aplicació dels conceptes del Quality by Design per a l'aplicació i extensió de diferents metodologies ja existents i el desenvolupament de nous algorismes que permeten la implementació d'eines adequades per al disseny d'ex-periments, l'anàlisi multivariada de dades i l'optimització de processos en l'àmbit del disseny de mescles, però sense limitar-se exclusivament a aquest tipus de problemes. Part I- Prefaci, en què es presenta un resum del treball de recerca realitzat i els objec-tius principals que pretén abordar i la seua justificació, així com una introducció als conceptes més importants relatius als temes tractats en parts posteriors de la tesi, com ara el disseny d'experiments o diverses eines estadístiques d'anàlisi multivariada. Part II - Optimització en el disseny de mescles, on es duu a terme una recapitulació de les diverses eines existents per al disseny d'experiments i anàlisi de dades per mit-jans tradicionals relatius al disseny de mescles, així com d'algunes eines basades en variables latents, tals com la Regressió en Mínims Quadrats Parcials (PLS). En aquesta part de la tesi també es proposa una extensió del PLS basada en kernels per a l'anàlisi de dades de dissenys de mescles, i es fa una comparativa de les diferents metodologies presentades. Finalment, s'inclou una breu presentació del programari MiDAs, que ofe-reix la possibilitat als usuaris de comparar de forma senzilla diverses metodologies per al disseny d'experiments i l'anàlisi de dades per a problemes de mescles. Part III- Espai de disseny i optimització a través de l'espai latent, on s'aborda el problema fonamental dins de la filosofia del Quality by Design associat a la definició de l'anomenat 'espai de disseny', que comprendria tot el conjunt de possibles combina-cions de condicions de procés, matèries primeres, etc. que garanteixen l'obtenció d'un producte amb la qualitat desitjada. En aquesta part també es tracta el problema de la definició del problema d'optimització com a eina per a la millora de la qualitat, però també per a l'exploració i flexibilització dels processos productius, amb l'objecte de definir un procediment eficient i robust d'optimització que s'adapti als diversos pro-blemes que exigeixen recórrer a aquesta optimització. Part IV- Epíleg, on es presenten les conclusions finals i la consecució d'objectius i es plantegen possibles línies futures de recerca arran dels resultats de la tesi. En aquesta part s'inclouen a més els annexos. / The present Ph.D. thesis is motivated by the growing need in most companies, and specially (but not solely) those in the pharmaceutical, chemical, food and bioprocess fields, to increase the flexibility in their operating conditions in order to reduce production costs while maintaining or even improving the quality of their products. To this end, this thesis focuses on the application of the concepts of the Quality by Design for the exploitation and development of already existing methodologies, and the development of new algorithms aimed at the proper implementation of tools for the design of experiments, multivariate data analysis and process optimization, specially (but not only) in the context of mixture design. Part I - Preface, where a summary of the research work done, the main goals it aimed at and their justification, are presented. Some of the most relevant concepts related to the developed work in subsequent chapters are also introduced, such as those regarding design of experiments or latent variable-based multivariate data analysis techniques. Part II - Mixture design optimization, in which a review of existing mixture design tools for the design of experiments and data analysis via traditional approaches, as well as some latent variable-based techniques, such as Partial Least Squares (PLS), is provided. A kernel-based extension of PLS for mixture design data analysis is also proposed, and the different available methods are compared to each other. Finally, a brief presentation of the software MiDAs is done. MiDAs has been developed in order to provide users with a tool to easily approach mixture design problems for the construction of Designs of Experiments and data analysis with different methods and compare them. Part III - Design Space and optimization through the latent space, where one of the fundamental issues within the Quality by Design philosophy, the definition of the so-called 'design space' (i.e. the subspace comprised by all possible combinations of process operating conditions, raw materials, etc. that guarantee obtaining a product meeting a required quality standard), is addressed. The problem of properly defining the optimization problem is also tackled, not only as a tool for quality improvement but also when it is to be used for exploration of process flexibilisation purposes, in order to establish an efficient and robust optimization method in accordance with the nature of the different problems that may require such optimization to be resorted to. Part IV - Epilogue, where final conclusions are drawn, future perspectives suggested, and annexes are included. / Palací López, DG. (2018). Quality by Design through multivariate latent structures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/115489
233

Aportaciones al modelado de la indisponibilidad de componentes y la fiabilidad humana para la mejora de la seguridad de las centrales nucleares informada en el riesgo

Martorell Aigües, Pablo 22 March 2019 (has links)
[ES] La seguridad ha sido, es y seguirá siendo una prioridad en la operación de las centrales nucleares para la producción de energía eléctrica. Uno de los grandes retos a los que se enfrenta la industria nuclear es el envejecimiento de las estructuras, sistemas y componentes (ESC) de seguridad. Actualmente, este hecho cobra especial relevancia porque un gran número de reactores está alcanzando el fin de su vida de diseño, debiendo afrontar próximamente una Revisión Periódica de Seguridad (RPS), que garantice el funcionamiento seguro de la central durante un periodo adicional denominado Opera-ción a Largo Plazo (OLP). El Análisis Probabilista de Seguridad (APS) es una herramienta fundamental para la gestión integral de la seguridad de una planta, tanto en el marco de la RPS como en la Toma de Decisiones Informada en el Riesgo (TDIR), siendo capaz de evaluar el incremento o disminución en el riesgo producido por un cambio determinado. Sin embargo, los modelos y datos actuales que lo integran no tienen en cuenta factores que influyen de forma determinante en el riesgo de una central. Por un lado, no tienen en cuenta el envejecimiento o la estrategia de pruebas y mantenimiento, en el caso del modelado de la fiabilidad e indisponibilidad de componentes. Por otro lado, no con-templan la imprecisión en el modelado de las acciones humanas, ni la inexactitud en la cuantificación de sus probabilidades de error. La presente tesis doctoral pretende actualizar y mejorar los modelos del APS, con vistas a su aplicación en el contexto de la RPS y de la TDIR. En este sentido, se establecen dos objetivos principales. En primer lugar, el desarrollo de un modelo RAM (fiabilidad, mantenibilidad y disponibilidad) dependiente del tiempo para componentes de seguridad, ajustado con datos reales de planta y con un nivel de detalle suficiente para recoger explícitamente en la edad del mismo, el efecto de las pruebas y el mantenimiento. En segundo lugar, mostrar las aplicaciones del APS para la TDIR. En primer término, se define un modelo de riesgo dependiente de la edad, a partir del mode-lo RAM previamente formulado, con el que seleccionar la mejor estrategia de pruebas y mantenimiento en un horizonte temporal dado. En segundo término, para mejorar el modelado del APS y la cuantificación de las probabilidades de error humano (PEH), se propone una metodología de evaluación de impacto en el riesgo para cambios en las acciones humanas y las Especificaciones Técnicas de Funcionamiento, que aprovecha los resultados del uso conjunto de los análisis de seguridad determinista y probabilista. Las aportaciones que conforman esta tesis doctoral se integran en la línea de investigación financiada por el Ministerio de Economía y Empresa en el proyecto ENE2016-80401-R, "Armonización de requisitos de vigilancia y mantenimiento en centrales nucleares con información en el riesgo" y la ayuda para contratos predoctorales para la formación de doctores BES-2014-067602. / [CA] La seguretat ha sigut, és i continuarà sent una prioritat en l'operació de les centrals nuclears par a la producció d'energia elèctrica. Un del grans reptes als que s'enfronta la industria nuclear es l'envelliment de les estructures, sistemes i components de seguretat. Actualment, aquest fet té especial rellevància perquè un gran nombre de reactors està arribant a la fi de la seua vida de disseny, havent d'afrontar pròximament una Revisió Periòdica de Seguretat (RPS), que garantirà el funcionament segur de la central durant un període addicional conegut com Operació a Llarg Termini (OLP). L'Anàlisi Probabilista de Seguretat es una ferramenta fonamental per a la gestió integral de la seguretat d'una planta, tant en el marc de la RPS com en la presa de decisions informades en el risc (TDIR), sent capaç d'avaluar l'increment o disminució en el risc produït per un canvi determinat. No obstant això, els models i dades actuals que ho integren no tenen en compte factors que influeixen de forma determinant en el risc d'una central. Per una banda, no consideren l'envelliment o l'estratègia de proves i manteniment, en el cas del modelat de la fiabilitat i indisponiblitat de components. Per altra banda, no contemplen la imprecisió en el modelat de les acciones humanes, ni la inexactitud en la quantificació de la probabilitat d'error de les mateixes. La present tesi doctoral pretén actualitzar i millorar els models APS, amb la intenció d'aplicar-los en el context de la RPS y la TDIR. En aquest sentit, s'estableixen dos objectius principals. En primer lloc, el desenvolupament d'un model RAM (fiabilitat, mantenibilitat i disponibilitat) dependent del temps per a components de seguretat, ajustat amb dades reals de planta i amb un nivell de detall suficient per a recollir explícitament en l'edat del mateix, la política de proves i manteniment a la que es sotmès. En segon lloc, mostrar les aplicacions de l'APS per a la TDIR. En primer terme, es defineix un model de risc dependent de l'edat, a partir del model RAM prèviament formulat, amb el qual seleccionar la millor estratègia de proves i manteniment en un horitzó temporal determinat. En segon terme, per a millorar el modelat de l'APS i la quantificació de les probabilitats d'error humà (PEH), es proposa una metodologia d'avaluació d'impacte en el risc per a canvis en les accions humanes i en les Especificacions Tècniques de Funcionament, que aprofita els resultats de l'ús conjunt dels anàlisis determinista i probabilista. Les aportacions que formen part d'aquesta tesi doctoral s'integren en la línia d'investigació finançada pel Ministeri d'Economia i Empresa en el projecte ENE2016-80401-R, "Armonización de requisitos de vigilancia y mantenimiento en centrales nucleares con información en el riesgo" i l'ajuda per a contractes predoctorals per a la formació de doctors BES-2014-067602. / [EN] Safety always has been and always will be a priority in nuclear power plant operation to generate electricity. One of the major challenges of nuclear industry is the ageing of safety-related structures, systems and components (SSC). Presently, this fact gains relevance due to several reactors are reaching their design life, having to conduct a Periodic Safety Review (PSR) that assures safety operation for an additional period better-known as Long Term Operation (LTO) Probabilistic Safety Assessment (PSA) is an essential tool in an integral NPP safety management, both PSR framework and Risk Informed Decision Making (RIDM), being able to evaluate a risk increase or decrease for any specific change on the plant. However, current PSA models and data do not consider factors, which have an impact in the overall risk of the plant. On the one hand, they do not take into account the effect of ageing nor maintenance and testing program, in the case of reliability and unavailability modelling. On the other hand, human actions modelling and their associated error probabilities are characterized by its inaccuracy and uncertainty. This Ph. Dissertation aims to update and improve PSA models, in order to apply with-in the framework of PSR and RIDM. In this sense, two main objectives are established. Firstly, the development of a time dependent RAM (reliability, availability and maintainability) for safety-related components, fitted with a historical plant data and with enough level of detail to include the effects of testing and maintenance activities in the age of the component. Secondly, it shows PSA applications of new models in RIDM. In the first place, it defines an age-dependent risk model based on the RAM model previously formulated, which helps to select the best approach of maintenance and testing activities for a specific timeline. In the second place, to improve PSA modelling and human error probabilities (HEP) quantification, a methodology is pro-posed to evaluate the risk impact of human actions and TS changes, taking advantage of combining DSA and PSA insights. The work of this thesis is part of the research supported by the Ministry of Economy and Business in the project ENE2016-80401-R, "Risk Informed Harmonization of Surveillance Requirements and Maintenance in Nuclear Power Plants", and in the Doctoral Fellowship BES-2014-067602. / Las aportaciones que conforman esta tesis doctoral se integran en la línea de investigación financiada por el Ministerio de Economía y Empresa en el proyecto ENE2016- 80401-R, “Armonización de requisitos de vigilancia y mantenimiento en centrales nucleares con información en el riesgo” y la ayuda para contratos predoctorales para la formación de doctores BES-2014-067602. / Martorell Aigües, P. (2019). Aportaciones al modelado de la indisponibilidad de componentes y la fiabilidad humana para la mejora de la seguridad de las centrales nucleares informada en el riesgo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/118794
234

Affective computing framework for social emotion elicitation and recognition using artificial intelligence

Llanes Jurado, José 02 September 2024 (has links)
Tesis por compendio / [ES] El campo de la computación afectiva es un área que ha surgido con gran impulso y está en constante evolución. Este campo logra integrar psicofisiología, informática, ingeniería biomédica e inteligencia artificial, desarrollando sistemas capaces de inducir y reconocer emociones de manera automática. Su enfoque principal es el estudio del comportamiento humano a través de las emociones, las cuales desempeñan un papel fundamental en acciones como la interacción social, la toma de decisiones o la memoria. Recientemente, los avances tecnológicos han posibilitado el desarrollo de sistemas inteligentes humano-máquina que antes no eran factibles. Elementos como la realidad virtual y los modelos generativos de inteligencia artificial están adquiriendo un papel relevante en el campo de la computación afectiva. La combinación de estas tecnologías puede dar lugar a experimentaciones mucho más realistas que, junto con el reconocimiento automático de respuestas fisiológicas, podrían constituir una metodología robusta para evocar e identificar estados emocionales en entornos de dinámicas sociales. Esta tesis se centra en la evocación y reconocimiento de emociones en realidad virtual mediante la creación del primer humano virtual, basado en un modelo de lenguaje generativo, que permite mantener conversaciones a tiempo real con un humano. Se han medido diversas señales fisiológicas y desarrollado herramientas de procesamiento de señales para monitorizar las respuestas de manera automática. A partir de esto, se ha evaluado y validado no solo la evocación y reconocimiento de emociones mediante aprendizaje automático, sino también el reconocimiento de sujetos con síntomas depresivos. El trabajo desarrollado en esta tesis presenta contribuciones relevantes, tanto para el campo de la computación afectiva, como para otras áreas afines como el procesamiento de señales y las interacciones humano-máquina. Las herramientas desarrolladas junto con modelos novedosos de la inteligencia artificial consiguen realizar una experimentación, en entornos de dinámicas sociales humanas, nunca antes diseñada. Los resultados muestran como este trabajo es capaz de modelizar información tan relevante como emociones y síntomas depresivos de la persona con la que se habla. Campos como la psicología, medicina o educación pueden utilizar muchas de las herramientas desarrolladas en esta tesis con tal de aportar más información en la toma de decisiones o en la interacción social. / [CA] El camp de la computació afectiva és un àmbit que ha sorgit amb gran impuls i està en constant evolució. Aquest camp aconsegueix integrar psicofisiologia, informàtica, enginyeria biomèdica i intel·ligència artificial, desenvolupant sistemes capaços d'induir i reconèixer emocions de manera automàtica. El seu enfocament principal és l'estudi del comportament humà a través de les emocions, les quals juguen un paper fonamental en accions com la interacció social, la presa de decisions o la memòria. Recentment, els avanços tecnològics han possibilitat el desenvolupament de sistemes intel·ligents humà-màquina que abans no eren factibles. Elements com la realitat virtual i els models generatius d'intel·ligència artificial estan adquirint un paper rellevant en el camp de la computació afectiva. La combinació d'aquestes tecnologies pot donar lloc a experimentacions molt més realistes que, juntament amb el reconeixement automàtic de respostes fisiològiques, podrien constituir una metodologia robusta per evocar i identificar estats emocionals en entorns de dinàmiques socials. Aquesta tesi es centra en la evocació i reconeixement d'emocions en realitat virtual mitjançant la creació del primer humà virtual, basat en un model de llenguatge generatiu, que permet mantenir converses en temps real amb un humà. S'han mesurat diverses senyals fisiològiques i desenvolupat eines de processament de senyals per monitoritzar les respostes de manera automàtica. A partir d'això, s'ha avaluat i validat no només la evocació i reconeixement d'emocions mitjançant aprenentatge automàtic, sinó també el reconeixement de subjectes amb símptomes depressius. El treball desenvolupat en aquesta tesi presenta contribucions rellevants, tant per al camp de la computació afectiva com per a altres àrees afins com el processament de senyals i les interaccions humà-màquina. Les eines desenvolupades juntament amb models innovadors d'intel·ligència artificial aconsegueixen realitzar una experimentació en entorns de dinàmiques socials humanes que mai abans s'havia dissenyat. Els resultats mostren com aquest treball és capaç de modelitzar informació tan rellevant com emocions i símptomes depressius de la persona amb la qual es parla. Àrees com la psicologia, la medicina o l'educació poden utilitzar moltes de les eines desenvolupades en aquesta tesi per a proporcionar més informació en la presa de decisions o en la interacció social. / [EN] The field of affective computing is an area that has emerged with great momentum and is constantly evolving. This field integrates psychophysiology, computer science, biomedical engineering, and artificial intelligence, developing systems capable of inducing and recognizing emotions automatically. Its main focus is the study of human behavior through emotions, which play a fundamental role in actions such as social interaction, decision-making, or memory. Recently, technological advances have made possible the development of human-machine intelligent systems that were previously unattainable. Elements such as virtual reality and generative models of artificial intelligence are becoming increasingly relevant in the field of affective computing. The combination of these technologies could lead to much more realistic experiments that, along with automatic recognition of physiological responses, could constitute a robust methodology for evoking and identifying emotional states in social dynamic environments. This thesis focuses on the elicitation and recognition of emotions in virtual reality through the creation of the first virtual human, based on a generative language model, capable of engaging real-time conversations with a human. Various physiological signals have been measured, and signal processing tools have been developed to monitor responses automatically. Based on this, the elicitation and recognition of emotions through machine learning have been evaluated and validated, as well as the recognition of subjects with depressive symptoms. The work developed in this thesis presents relevant contributions, not only to the field of affective computing but also, to related areas such as signal processing and human-machine interactions. The tools developed, along with innovative artificial intelligence models, enable experimentation in human social dynamics environments that have never been designed before. The results demonstrate how this work is capable of modeling such relevant information as emotions and depressive symptoms of the person being interacted with. Fields such as psychology, medicine, or education can utilize many of the tools developed in this thesis to provide more information in decision-making or social interaction processes. / Llanes Jurado, J. (2024). Affective computing framework for social emotion elicitation and recognition using artificial intelligence [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/207112 / Compendio
235

Experimentación y modelación de mezcla de vapor y gases no-condensables

Córdova Chávez, Yaisel 02 September 2024 (has links)
[ES] La descarga de vapor en forma de chorro en piscinas con agua subenfriada es una forma muy eficiente de condensar vapor y es muy utilizada en diversas aplicaciones industriales, como la industria farmacéutica, metalúrgica, química, sistemas de propulsión sumergida y nuclear. Siendo especialmente esencial en los sistemas de seguridad de las centrales nucleares, concretamente en la piscina de supresión de presión de los Reactores de Agua en Ebullición (BWR, Boiling Water Reactor) y en el tanque de almacenamiento de agua de reabastecimiento en la contención de los reactores avanzados de agua a presión. La eficiencia de esta técnica, denominada Condensación por Contacto Directo (DCC, Direct Contact Condensation), radica en la rápida condensación del vapor proporcionando una alta capacidad de transferencia de calor e intercambio de masa. En las últimas décadas, se han llevado a cabo muchos experimentos sobre los chorros sumergidos de gases no condensables y vapor puro en piscinas, que han proporcionado mucha información de interés, aunque continúan los esfuerzos para adquirir información adicional. Para estudiar en detalle el comportamiento de las descargas de chorros turbulentos se han llevado a cabo una serie de experimentos en una instalación que ha sido diseñada para representar diversos entornos de interés crítico para la seguridad en centrales nucleares. Su singularidad radica en la capacidad de poder reproducir fenomenologías similares a situaciones específicas que podrían surgir en una central nuclear, desde sistemas de despresurización hasta roturas con pérdida de refrigerante. La instalación posibilita el estudio con vapor, aire o una mezcla de ambos utilizando geometrías simples (boquilla) o complejas (sparger) en una piscina con agua en reposo. Se ha utilizado una cámara de alta velocidad con Dispositivo de Carga Acoplada (CCD, Charged-Coupled Device) para capturar imágenes de la descarga del chorro en la piscina y así determinar la interfase entre el gas y el líquido, utilizando técnicas de visualización directa. Para llevar a cabo el procesamiento de dichas imágenes, se han aplicado una serie de procedimientos de procesado, filtrado y post-procesado utilizando una subrutina implementada en MATLAB. Tras la adquisición de las imágenes, se ha caracterizado el comportamiento del chorro de vapor y aire, el efecto de la fracción volumétrica de aire sobre la mezcla y el efecto de la variación del tamaño de la boquilla. Además, se ha medido la longitud del momento del chorro y se ha comprobado su estrecha relación con el diámetro de la boquilla, la velocidad del chorro y el porcentaje de la mezcla. Por otro lado, se ha caracterizado el comportamiento del chorro horizontal en la zona de transición. La transición indica el cambio de un chorro dominado exclusivamente por la fuerza de momento a un régimen en el que las fuerzas de flotación prevalecen. Esta prueba se ha realizado utilizando cinco boquillas intercambiables y para cada caudal de vapor se ha determinado el porcentaje de aire en el que ocurre la transición. Otro de los principales objetivos de esta tesis es la modelación utilizando herramientas de códigos de Dinámica de Fluidos Computacional (CFD), específicamente descargas de chorros de aire en agua subenfriada. Para esto se ha empleado el software ANSYS CFX. El comportamiento del flujo multifásico se ha simulado utilizando el modelo euleriano-euleriano no homogéneo; debido a que es más conveniente para estudiar fluidos interpenetrados. Los resultados CFD se han validado con datos experimentales y resultados teóricos. Las cifras de mérito de la longitud de penetración adimensional y la longitud de flotabilidad adimensional muestran una buena concordancia con las mediciones experimentales. Las correlaciones para estas variables se obtuvieron en función de números adimensionales para dar generalidad utilizando sólo condiciones iniciales de contorno. / [CA] La descàrrega de vapor en forma de xorrat en piscines amb aigua subrefredada és una forma molt eficient de condensar vapor i s'utilitza àmpliament en diverses aplicacions industrials, com la indústria farmacèutica, metal·lúrgica, química, sistemes de propulsió submergida i nuclear. És especialment essencial en els sistemes de seguretat de les centrals nuclears, concretament en la piscina de supressió de pressió dels Reactors d'Aigua en Bulliment (BWR) i en el dipòsit d'aigua de reaprovisionament a la contenció dels reactors avançats d'aigua a pressió. L'eficiència d'aquesta tècnica, anomenada Condensació per Contacte Directe (DCC), rau en la ràpida condensació del vapor proporcionant una alta capacitat de transferència de calor i intercanvi de massa. En les últimes dècades, s'han realitzat molts experiments sobre els raigs submergits de gasos no condensables i vapor pur en piscines, que han proporcionat molta informació d'interès, tot i que continuen els esforços per adquirir informació addicional. Per estudiar amb detall el comportament de les descàrregues de raigs turbulents s'han dut a terme una sèrie d'experiments en una instal·lació que ha estat dissenyada per representar diversos entorns d'interès crític per a la seguretat en centrals nuclears. La seua singularitat rau en la capacitat de poder reproduir fenomenologies semblants a situacions específiques que podrien sorgir en una central nuclear, des de sistemes de despressurització fins a ruptures amb pèrdua de refrigerant. La instal·lació possibilita l'estudi amb vapor, aire o una barreja de tots dos utilitzant geometries simples (busseta) o complexes (sparger) en una piscina amb aigua en repòs. A més, és possible combinar aquestes situacions amb diferents condicions de cabal, pressió o temperatura. S'ha utilitzat una càmera de alta velocitat (CCD) per capturar imatges de la descàrrega del raig a la piscina i així determinar la interfase entre el gas i el líquid, emprant tècniques de visualització directa. Per dur a terme el processament d'aquestes imatges, s'han aplicat una sèrie de procediments complexes de processat, filtrat i post-processat mitjançant una subrutina implementada en MATLAB. Després de l'adquisició de les imatges, s'ha caracteritzat el comportament del raig de vapor i aire, l'efecte de la fracció volumètrica d'aire sobre la barreja i l'efecte de la variació de la grandària de la busseta. A més, s'ha mesurat la longitud del moment del raig i s'ha comprovat la seua estreta relació amb el diàmetre de la busseta, la velocitat del raig i el percentatge de la barreja. D'altra banda, s'ha caracteritzat el comportament del raig horitzontal en la zona de transició. La transició indica el canvi d'un raig dominat exclusivament per la força de moment a un règim en què les forces de flotació prevalen. Aquesta prova s'ha realitzat utilitzant cinc bussetes intercanviables i per a cada cabal de vapor s'ha determinat el percentatge d'aire en què ocorre la transició. Un altre dels principals objectius d'aquesta tesi és la modelització utilitzant eines de codis de Dinàmica de Fluids Computacionals (CFD), específicament descàrregues de xorrades d'aire en aigua subrefredada. Per a això s'ha utilitzat el software ANSYS CFX. El comportament del flux multifàsic s'ha simulat utilitzant el model eulerià-eulerià no homogeni, ja que és més convenient per estudiar fluids interpenetrats. Els resultats CFD s'han validat amb dades experimentals i resultats teòrics. Les figures de mèrit de la longitud de penetració adimensional i la longitud de flotabilitat adimensional mostren una bona concordança amb les mesures experimentals. Les correlacions per a aquestes variables s'han obtingut en funció de nombres adimensionals per donar generalitat utilitzant només condicions inicials de contorn. El model numèric CFD desenvolupat té la capacitat de simular el comportament de gasos no condensables descarregats en aigua. / [EN] The discharge of steam in the form of a jet in pools with subcooled water is a highly efficient way to condense steam and is widely used in various industrial applications, such as the pharmaceutical, metallurgical, chemical, submerged propulsion, and nuclear industries. It is particularly essential in the safety systems of nuclear power plants, specifically in the pressure suppression pool of Boiling Water Reactors (BWR) and in the water replenishment tank in the containment of advanced pressurized water reactors. The efficiency of this technique, known as Direct Contact Condensation (DCC), lies in the rapid condensation of steam, providing a high heat transfer and mass exchange capacity. In recent decades, numerous experiments have been conducted on submerged jets of non-condensable gases and pure steam in pools, yielding valuable information, although efforts continue to gather additional data. To study in detail the behavior of turbulent jet discharges, a series of experiments have been carried out in a facility designed to simulate various critical environments for safety in nuclear power plants. Its uniqueness lies in the ability to reproduce phenomenologies like specific situations that could arise in a nuclear power plant, from depressurization systems to ruptures with coolant loss. The facility enables the study with steam, air, or a mixture of both using simple geometries (nozzle) or complex geometries (sparger) in a pool with quiescent water. Additionally, it is possible to combine these situations with different flow, pressure, or temperature conditions. A high-speed camera with Charge-Couple Device (CCD) has been used to capture images of the jet discharge in the pool, aiming to determine the gas-liquid interface through direct visualization techniques. Following the image acquisition, a series of complex processing, filtering, and post-processing procedures have been applied using a subroutine implemented in MATLAB. After obtaining the images, the behavior of the steam and air jet, the effect of the volumetric fraction of air on the mixture, and the impact of varying the nozzle size have been characterized. Additionally, the length of the jet momentum has been measured, establishing its close relationship with the nozzle diameter, jet velocity, and mixture percentage. Furthermore, the behavior of the horizontal jet in the transition zone has been characterized. The transition denotes the shift from a jet dominated exclusively by momentum force to a regime where buoyancy forces prevail. This test has been conducted using five interchangeable nozzles, and for each steam flow rate, the percentage of air at which the transition occurs has been determined. Another main objective of this thesis is modeling using Computational Fluid Dynamics (CFD) tools, specifically jet discharges of air into subcooled water. The ANSYS CFX software has been employed for this purpose. Multiphase flow behavior has been simulated using the non-homogeneous Eulerian-Eulerian model, as it is more convenient for studying interpenetrated fluids. CFD results have been validated with experimental data and theoretical results. The dimensionless penetration length and dimensionless buoyancy length merit figures show good agreement with experimental measurements. Correlations for these variables were obtained as a function of dimensionless numbers to provide generality using only initial boundary conditions. The developed CFD numerical model has the capability to simulate the behavior of non-condensable gases discharged into water. / Córdova Chávez, Y. (2024). Experimentación y modelación de mezcla de vapor y gases no-condensables [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/207266
236

Medida de la eficiencia en atención primaria: fronteras eficientes y modelos no paramétricos condicionados

González de Julián, Silvia 07 September 2023 (has links)
[ES] La buena gestión de la atención primaria como puerta de entrada al sistema sanitario condiciona el funcionamiento de la atención especializada y la hospitalización, lo cual repercute directamente sobre la salud de la población. La sostenibilidad del sistema de salud público implica que los servicios de atención primaria sean eficientes. Objetivo Desarrollar un modelo para evaluar la eficiencia en cuanto a actividad realizada y resultados de salud de las unidades funcionales (UF) de atención primaria del Departamento de Salud Valencia Clínico - La Malvarrosa en los años 2015 a 2019. Metodología Se han integrado las bases de datos de la Conselleria de Sanitat Universal i Salut Pública y el Departamento de Salud Valencia Clínico - La Malvarrosa para obtener para cada UF: características de la población asignada, actividad asistencial y recursos humanos de los centros y consultorios de atención primaria. El análisis factorial pone de manifiesto las principales diferencias y similitudes encontradas entre las UF y permite reducir el número de variables utilizadas para elaborar los modelos de evaluación de la eficiencia, de manera que no se pierda poder explicativo, y facilite la interpretación de los resultados. Se ha utilizado el Análisis Envolvente de Datos (DEA) con orientación input y output y rendimientos variables a escala para la evaluación de la eficiencia. Los inputs incluidos han sido las tasas por 10.000 habitantes de: personal facultativo y personal de enfermería (inputs no discrecionales) y coste farmacéutico; como outputs se han incluido las tasas por 10.000 habitantes de: urgencias hospitalarias, consultas externas, derivaciones, hospitalizaciones evitables, mortalidad evitable y el indicador de eficiencia en la prescripción. Urgencias, hospitalizaciones evitables y mortalidad evitables se consideran outputs no deseables. Y como variables exógenas se han incluido el porcentaje de población mayor de 65 y 80 años y un indicador de morbilidad (case-mix). Se han analizado las puntuaciones de eficiencia de cada UF según tres modelos. Todos los modelos incorporan los mismos inputs y diferentes combinaciones de outputs relacionados con: Actividad asistencial (primer modelo), outcomes o resultados de salud (segundo modelo) y actividad asistencial + outcomes (tercer modelo, en el que se incluyen todos los outputs). Cada modelo se analiza con y sin variables exógenas. Resultados Se han evaluado los tres modelos con sus diferentes especificaciones para identificar las diferencias entre ellos y ver cuál de ellos permite diferenciar más claramente la eficiencia de las UF, teniendo en cuenta variables de calidad, y las características de la población. Se ha obtenido la puntuación de eficiencia de cada UF y se han identificado las UF que forman parte de la frontera eficiente del grupo estudiado. Los resultados han mostrado que existen diferencias en las puntuaciones de eficiencia estimadas en función de las variables introducidas como outputs. Determinadas UF se encuentran siempre en la frontera eficiente o muy cerca, mientras que otras UF son siempre ineficientes. Por otra parte, cuando se consideran outputs de actividad asistencial, las puntuaciones de eficiencia de todas las UF mejoran y aumenta el número de UF eficientes. Se detecta que la puntuación de eficiencia de las UF desciende, en general, a lo largo del periodo evaluado. Esta disminución es más pronunciada cuando se incluyen sólo los outputs de actividad. Conclusiones Se han obtenido diferentes resultados en función del modelo utilizado. El DEA permite analizar las ineficiencias de los centros de atención primaria, aunque es necesario identificar los objetivos esperados de las UF, ya que la perspectiva de los análisis influye en los resultados. / [CA] La bona gestió de l'atenció primària com a porta d'entrada al sistema sanitari condiciona el funcionament de l'atenció especialitzada i l'hospitalització, la qual cosa repercuteix directament sobre la salut de la població. La sostenibilitat del sistema de salut públic implica que els serveis d'atenció primària siguen eficients. Objectiu Desenvolupar un model per a avaluar l'eficiència quant a activitat realitzada i resultats de salut de les unitats funcionals (UF) d'atenció primària del Departament de Salut València Clínic - La Malva-rosa en els anys 2015 a 2019. Metodologia S'han integrat les bases de dades de la Conselleria de Sanitat Universal i Salut Pública i el Departament de Salut València Clínic - La Malva-rosa per a obtindre per a cada UF: característiques de la població assignada, activitat assistencial i recursos humans dels centres i consultoris d'atenció primària. L'anàlisi factorial posa de manifest les principals diferències i similituds trobades entre les UF i permet reduir el nombre de variables utilitzades per a elaborar els models d'avaluació de l'eficiència, de manera que no es perda poder explicatiu, i facilite la interpretació dels resultats. S'ha utilitzat l'Anàlisi Envolupant de Dades (DEA) amb orientació input i output i rendiments variables a escala per a l'avaluació de l'eficiència. Els inputs inclosos han sigut les taxes per 10.000 habitants de personal facultatiu i personal d'infermeria (inputs no discrecionals) i cost farmacèutic; com a outputs s'han inclòs les taxes per 10.000 habitants de consultes, urgències hospitalàries, derivacions, hospitalitzacions evitables, mortalitat evitable i l'indicador d'eficiència en la prescripció. Urgències, hospitalitzacions evitables i mortalitat evitables es consideren outputs no desitjables. I com a variables exògenes s'han inclòs el percentatge de població major de 65 i 80 anys i un indicador de morbiditat (case-mix). S'han analitzat les puntuacions d'eficiència de cada UF segons tres models. Tots els models incorporen els mateixos inputs i diferents combinacions d'outputs relacionats amb activitat assistencial (primer model), outcomes o resultats de salut (segon model) i activitat assistencial + outcomes (tercer model, en el qual s'inclouen tots els outputs). Cada model s'analitza amb i sense variables exògenes. Resultats S'han avaluat els tres models amb les seues diferents especificacions per a identificar les diferències entre ells i veure quin d'ells permet diferenciar més clarament l'eficiència de les UF, tenint en compte variables de qualitat, i les característiques de la població. S'ha obtingut la puntuació d'eficiència de cada UF i s'han identificat les UF que formen part de la frontera eficient del grup estudiat. Els resultats han mostrat que existeixen diferències en les puntuacions d'eficiència estimades en funció de les variables introduïdes com a outputs. Determinades UF es troben sempre en la frontera eficient o molt a prop, mentre que unes altres UF són sempre ineficients. D'altra banda, quan es consideren outputs d'activitat assistencial, les puntuacions d'eficiència de totes les UF milloren i augmenta el número d'UF eficients. Es detecta que la puntuació d'eficiència de les UF descendeix, en general, al llarg del període avaluat. Aquesta disminució és més pronunciada quan s'inclouen només els outputs d'activitat. Conclusions S'han obtingut diferents resultats en funció del model utilitzat. El DEA permet analitzar les ineficiències dels centres d'atenció primària, encara que és necessari identificar els objectius esperats de les UF, ja que la perspectiva de les anàlisis influeix en els resultats. / [EN] The proper management of primary healthcare as the gateway to the health system determines the performance of specialised healthcare and hospitalisation, which has a direct impact on the health of the population. The sustainability of the public health system requires the efficiency of primary healthcare services. Objectives To develop a model to evaluate the efficiency in terms of activity and health outcomes of the functional units (FU) of primary healthcare of the Valencia Clínico - La Malvarrosa Health District in the years 2015 to 2019. Methodology The databases of the Conselleria de Sanitat Universal i Salut Pública and the Valencia Clínico - La Malvarrosa Health District have been integrated to obtain for each FU: characteristics of the covered population, healthcare activity and human resources of the primary healthcare centres. The factorial analysis reveals the main differences and similarities found between the FUs and makes it possible to reduce the number of variables used to develop the efficiency evaluation models, so as not to lose explanatory power and to facilitate the interpretation of the results. Data Envelopment Analysis (DEA) with input and output orientation and variable returns to scale has been used to assess the efficiency. The inputs included were the rates per 10,000 inhabitants of: professional and nursing staff (non-discretionary inputs) and pharmaceutical cost; outputs included the rates per 10,000 inhabitants of: consultations, hospital emergencies, referrals, avoidable hospitalisations, avoidable mortality and the prescription efficiency indicator. Emergencies, avoidable hospitalisations and avoidable mortality are considered undesirable outputs. As exogenous variables we have included the percentage of the population over 65 and 80 years old and a morbidity indicator (case-mix). The efficiency scores of each FU have been analysed according to three models. All models incorporate the same inputs and different combinations of outputs related to: healthcare activity (first model), outcomes (second model) and healthcare activity + outcomes (third model, in which all outputs are included). Each model is analysed with and without exogenous variables. Results The three models have been evaluated with their different specifications to identify the differences between them and to see which of them allows the efficiency of the FU to be differentiated more clearly, considering quality variables and the characteristics of the population. The efficiency score of each FU has been obtained and the FUs that form part of the efficient frontier of the group studied have been identified. The results show that there are differences in the estimated efficiency scores depending on the variables introduced as outputs. Certain FUs are always on the efficient frontier or very close to it, while other FUs are always inefficient. On the other hand, when healthcare activity outputs are considered, the efficiency scores of all FUs improve and the number of efficient FUs increases. It is found that the efficiency score of the FU generally decreases over the period under evaluation. This decline is more pronounced when only activity outputs are included. Conclusions Different results have been obtained depending on the model used. The DEA makes it possible to analyse the inefficiencies of primary healthcare centres, although it is necessary to identify the expected objectives of the FU, as the perspective of the analysis influences the results. / González De Julián, S. (2023). Medida de la eficiencia en atención primaria: fronteras eficientes y modelos no paramétricos condicionados [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196735
237

Análisis del impacto del sistema de calidad ISO 9001 y del sistema de calidad turística española en empresas y organizaciones turísticas: un estudio empírico en Baleares

Sidonie, Djofack 22 June 2012 (has links)
En la literatura encontramos muchos trabajos acerca de los efectos de la implantación de la certificación ISO 9001, en los que se destaca mayoritariamente sus numerosos beneficios. Sin embargo, son bastante escasos los que analizan el Sistema de Calidad Turística Española (marca Q). Por tanto, nos proponemos establecer un análisis comparativo entre estos dos modelos preponderantes en el sector turístico. Primero, pretendemos averiguar los determinantes de la implantación de estos dos modelos de calidad, y segundo, los factores que influyen en la elección de uno u otro, siendo unos internacional y genérico (ISO 9001) y el otro nacional y específico (Q) en las empresas turísticas situadas en Baleares. El trabajo de campo se realizó en febrero 2011 con la participación de 120 empresas certificadas con la ISO 9001 y 52 certificadas con la Q. Los principales resultados nos muestran que existen importantes beneficios y satisfacción generada por los certificados y que la ISO 9001 es elegida por los beneficios organizativos y de control y la Q, por el posicionamiento, ganar cuota de mercado y competir.
238

[en] OPERATING RESERVE ASSESSMENT IN MULTI-AREA SYSTEMS WITH RENEWABLE SOURCES VIA CROSS ENTROPY METHOD / [pt] PLANEJAMENTO DA RESERVA OPERATIVA EM SISTEMAS MULTIÁREA COM FONTES RENOVÁVEIS VIA MÉTODO DA ENTROPIA CRUZADA

JOSÉ FILHO DA COSTA CASTRO 11 January 2019 (has links)
[pt] A reserva girante é a parcela da reserva operativa provida por geradores sincronizados, e interligados à rede de transmissão, aptos a suprir a demanda na ocorrência de falhas de unidades de geração, erros na previsão da demanda, variações de capacidade de fontes renováveis ou qualquer outro fator inesperado. Dada sua característica estocástica, essa parcela da reserva operativa é mais adequadamente avaliada por meio de métodos capazes de representar as incertezas inerentes ao seu dimensionamento e planejamento. Por meio do risco de corte de carga é possível comparar e classificar distintas configurações do sistema elétrico, garantindo a não violação dos requisitos de confiabilidade. Sistemas com elevada penetração de fontes renováveis apresentam comportamento mais complexo devido ao aumento das incertezas envolvidas, à forte dependência de fatores energético-climáticos e às variações de capacidade destas fontes. Para avaliar as correlações temporais e representar a cronologia de ocorrência dos eventos no curto-prazo, um estimador baseado na Simulação Monte Carlo Quase Sequencial é apresentado. Nos estudos de planejamento da operação de curto-prazo o horizonte em análise é de minutos a algumas horas. Nestes casos, a ocorrência de falhas em equipamentos pode apresentar baixa probabilidade e contingências que causam corte de carga podem ser raras. Considerando a raridade destes eventos, as avaliações de risco são baseadas em técnicas de amostragem por importância. Os parâmetros de simulação são obtidos por um processo numérico adaptativo de otimização estocástica, utilizando os conceitos de Entropia Cruzada. Este trabalho apresenta uma metodologia de avaliação dos montantes de reserva girante em sistemas com participação de fontes renováveis, em uma abordagem multiárea. O risco de perda de carga é estimado considerando falhas nos sistemas de geração e transmissão, observando as restrições de transporte e os limites de intercâmbio de potência entre as diversas áreas elétricas. / [en] The spinning reserve is the portion of the operational reserve provided by synchronized generators and connected to the transmission network, capable of supplying the demand considering generating unit failures, errors in load forecasting, capacity intermittency of renewable sources or any other unexpected factor. Given its stochastic characteristic, this portion of the operating reserve is more adequately evaluated through methods capable of modeling the uncertainties inherent in its design and planning. Based on the loss of load risk, it is possible to compare different configurations of the electrical system, ensuring the non-violation of reliability requirements. Systems with high penetration of renewable sources present a more complex behavior due to the number of uncertainties involved, strong dependence of energy-climatic factors and variations in the capacity of these sources. In order to evaluate the temporal correlations and to represent the chronology of occurrence of events in the short term, an estimator based on quasi-sequential Monte Carlo simulation is presented. In short-term operation planning studies, the horizon under analysis is from minutes to a few hours. In these cases, the occurrence of equipment failures may present low probability and contingencies that cause load shedding may be rare. Considering the rarity of these events, risk assessments are based on importance sampling techniques. The simulation parameters are obtained by an adaptive numerical process of stochastic optimization, using the concept of Cross Entropy. This thesis presents a methodology for evaluating the amounts of spinning reserve in systems with high penetration of renewable sources, in a multi-area approach. The risk of loss of load is estimated considering failures in the generation and transmission systems, observing the network restrictions and the power exchange limits between the different electric areas.
239

Aplicación de métodos estadísticos multivariantes para la modelación y la monitorización de un reactor discontinuo secuencial para el tratamiento de aguas residuales

Aguado García, Daniel 06 May 2008 (has links)
Como consecuencia del incremento de los problemas de eutrofización en ríos, lagos y costas, se ha producido en las últimas décadas un notable aumento del interés por la eliminación de nutrientes en las aguas residuales previamente a su vertido en los sistemas naturales. Inicialmente, la eliminación de la materia orgánica y el nitrógeno presente en el agua residual se realizaba por medio de procesos biológicos mientras que el fósforo se eliminaba mediante procesos químicos. Sin embargo, las ventajas que presenta la eliminación biológica de fósforo han contribuido a que gradualmente este proceso haya sido implantado cada vez en más estaciones depuradoras de aguas residuales (EDARs). El control de un proceso tan complejo como es el tratamiento de las aguas residuales con eliminación biológica de fósforo, exige conocer las variables de calidad que definen la eficacia del mismo (concentración de ortofosfatos, de amonio, demanda química de oxígeno, ...). Los métodos existentes para la medición de estas variables en tiempo real suponen fuertes inversiones y elevados costes de mantenimiento. Por otro lado, existen otras variables (variables de proceso: pH, conductividad, ...) que se pueden medir en tiempo real por medio de sensores robustos, de bajo coste y que requieren poco mantenimiento, pero que no suministran de forma directa información del funcionamiento del proceso. El elevado número de variables de proceso que actualmente se registran en tiempo real en EDARs modernas, hace necesaria la utilización de técnicas que permitan extraer la información contenida en la gran cantidad de datos registrados. El objetivo principal de la presente tesis ha sido estudiar las posibilidades de utilización de las variables de proceso para obtener información acerca de la evolución de las variables de calidad, así como sobre la evolución del proceso a lo largo del tiempo, mediante la aplicación de métodos estadísticos multivariantes. De esta forma, se pretende detectar cualquier ano / Aguado García, D. (2005). Aplicación de métodos estadísticos multivariantes para la modelación y la monitorización de un reactor discontinuo secuencial para el tratamiento de aguas residuales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1910
240

Diseño y caracterización de metamateriales acústicos basados en guías de onda

Graciá Salgado, Rogelio 14 July 2014 (has links)
En la realización de este trabajo se obtendrán las expresiones analíticas que permiten describir las propiedades acústicas de una red de elementos dispersivos en el interior de una guía de ondas, permitiendo así, obtener en el límite de homogenización los parámetros efectivos que caracterizan al metamaterial y la verificación experimental de las propiedades acústicas del metamaterial. Matemáticamente este problema se tratará con la teoría de la dispersión múltiple, ya que las geometrías a tratar en este trabajo van a ser cilíndricas y dicha teoría se ha demostrado ser la mas efectiva para esos casos y usando la técnica de ¿mode matching ¿para la resolución general del problema de la dispersión de campo acústico en el interior de una guía de ondas. / Graciá Salgado, R. (2014). Diseño y caracterización de metamateriales acústicos basados en guías de onda [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/38759

Page generated in 0.0783 seconds