Spelling suggestions: "subject:"bajo"" "subject:"bara""
131 |
Overtopping flow on mound breakwaters under depth-limited breaking wave conditionsMares Nasarre, Patricia 22 February 2021 (has links)
[ES] El cambio climático y la conciencia social sobre el impacto de las infraestructuras en el medio está llevando a la necesidad de diseñar diques en talud con cotas de coronación reducidas frente a eventos de rebase más extremos. Además, la mayoría de estos diques se construyen en zonas de profundidades reducidas, donde el oleaje rompe a causa de la limitación por fondo. Estudios recientes apuntan a la necesidad de considerar no sólo la caudal medio de rebase (q) sino también el máximo volumen individual de rebase (Vmax), el espesor de lámina de agua (OLT) y la velocidad del flujo de rebase (OFV) en el diseño de la cota de coronación de un dique en talud según criterios de rebase. No obstante, existen pocos estudios en la literatura científica centrados en Vmax en estructuras costeras sometidas a oleaje limitado por fondo. Además, estos estudios proporcionan resultados contradictorios en relación a la influencia de la limitación por fondo del oleaje sobre Vmax. En cuanto a OLT y OFV, no se han encontrado estudios en la literatura científica que permitan su predicción en diques en talud. En esta tesis doctoral, se han realizado ensayos físicos 2D en diques en talud rebasables (0.3≤Rc/Hm0≤2.5) sin espaldón y con tres mantos principales (Cubípodo®-1L, cubo-2L y escollera-2L) sobre dos pendientes de fondo suaves (m=2% and 4%) en condiciones de oleaje limitado por fondo (0.2≤Hm0/h≤0.9). Vmax junto con q son las variables más recomendadas en la literatura científica para diseñar la cota de coronación de diques en talud según criterios de rebase. En el presente estudio, los mejores resultados en la estimación de Vmax*=Vmax/(gHm0T012) se han obtenido empleando la función de distribución Weibull de dos parámetros con un coeficiente de determinación R2=0.833. Durante la fase de diseño de un dique en talud, es necesario predecir q para calcular Vmax cuando se emplean los métodos dados en la literatura científica. Por tanto, se debe estimar q con fines de diseño si no se dispone de observaciones directas. En caso de emplear la red neuronal CLASH NN para estimar q (R2=0.636), la bondad de ajuste de la función de distribución Weibull de dos parámetros propuesta en esta tesis para predecir Vmax* es R2=0.617. Así, el ratio entre Vmax* medido y estimado cae dentro del rango de 1/2 a 2 (banda de confianza del 90%) cuando se emplea q estimado con CLASH NN. Los nuevos estimadores desarrollados en la presente disertación proporcionan resultados satisfactorios en la predicción de Vmax* con un método más simple que aquellos propuestos en la literatura científica. No se ha encontrado una influencia significativa de la pendiente de fondo ni de la limitación por fondo del oleaje sobre Vmax* en este estudio. OLT y OFV están directamente relacionados con la estabilidad hidráulica de la coronación del dique y la seguridad peatonal frente a rebase. Por tanto, se requiere estimar OLT y OFV en la coronación del dique para diseñar apropiadamente su cota de coronación empleando criterios de rebase. En este estudio, se han empleado redes neuronales para desarrollar nuevos estimadores explícitos que permiten predecir OLT y OFV superados por el 2% del oleaje incidente con un alto coeficiente de determinación (0.866≤R2≤0.867). El número de cifras significativas apropiado para los coeficientes experimentales de dichos estimadores se ha determinado en base a su variabilidad. El punto óptimo en el que las características del oleaje deben ser estimadas para predecir OLT y OFV se ha identificado a una distancia de 3h desde el pie de la estructura (siendo h la profundidad a pie de dique). La pendiente de fondo tiene influencia sobre OLT y OFV. Los valores más extremos de OLT y OFV se han descrito empleando las distribuciones Exponencial de un parámetro y Rayleigh, respectivamente, con resultados satisfactorios (0.803≤R2≤0.812). / [CA] El canvi climàtic i la consciència social sobre l'impacte de les infraestructures al medi està portant a la necessitat de dissenyar dics en talús amb cotes de coronació reduïdes front a esdeveniments d'ultrapassament més extrems. A més, la majoria dels dics es construeixen en zones amb profunditats reduïdes on l'onatge es trenca a causa de la limitació per fons. Estudis recents apunten a la necessitat de considerar no solament el cabal mitjà de sobrepasse (q) sinó també el màxim volum individual de sobrepasse (Vmax), l'espessor de la làmina d'aigua (OLT) i la velocitat del flux de sobrepasse (OFV) pel disseny de la cota de coronació d'un dic en talús segons criteris de sobrepasse. No obstant, existeixen pocs estudis a la literatura científica centrats en Vmax en estructures costeres sotmeses a onatge limitat per fons. Addicionalment, aquests estudis proporcionen resultats contradictoris en relació a la influència de la limitació per fons de l'onatge sobre Vmax. Quant a OLT i OFV, no s'han trobat estudis a la literatura científica que permeten la seua predicció a dics en talús. En aquesta tesi doctoral, s'han realitzat assajos físics 2D amb dics en talús amb sobrepassos rellevants (0.3≤Rc/Hm0≤2.5) sense espatlló i amb tres elements al mantell principal (Cubípode-1L, cubs-2L i esculleres-2L) ubicats sobre pendents de fons suaus (m=2% i 4%) en condicions d'onatge limitat pel fons (0.2≤Hm0/h≤0.9). Vmax conjuntament amb q són les variables més recomanades a la literatura científica per dissenyar la cota de coronació en dics en talús segons criteris d'ultrapassament. Al present estudi, els millors resultats en l'estimació de Vmax*=Vmax/(gHm0T012) s'han obtingut utilitzant la funció de distribució Weibull de dos paràmetres amb un elevat coeficient de determinació R2=0.833. Durant la fase de disseny d'un dic en talús, és necessari predir q per calcular Vmax quan s'utilitzen els mètodes donats a la literatura científica. Per tant, es deu estimar q amb fins de disseny si no es disposa d'observacions directes. Si s'aplica la xarxa neuronal de CLASH NN per estimar q (R2=0.636), la bondat d'ajust de la funció de distribució Weibull de dos paràmetres proposada a aquesta tesi per predir Vmax* és R2=0.617. Així doncs, el ràtio entre el Vmax* mesurat i estimat es troba dins del rang de 1/2 a 2 (banda de confiança del 90%) quan s'usa q predit amb CLASH NN. Els nous estimadors desenvolupats a aquesta dissertació proporcionen resultats satisfactoris en la predicció de Vmax* amb un mètode més senzill que aquells proposats a la literatura científica. No s'ha trobat una influència significativa de la pendent de fons ni de la limitació de l'onatge per fons sobre Vmax* a aquest estudi. OLT i OFV estan directament relacionats amb l'estabilitat hidràulica de la coronació de dics i la seguretat de vianants front a ultrapassaments. Per tant, es requereix estimar OLT i OFV en la coronació de dics per dissenyar apropiadament la seua cota de coronació utilitzant criteris de sobrepasse. En aquest estudi, s'han usat xarxes neuronals per desenvolupar nous estimadors explícits que permeten predir OLT i OFV superats pel 2% de l'onatge incident amb un elevat coeficient de determinació (0.866≤R2≤0.867). El nombre de xifres significatives apropiat per als coeficients experimentals dels mencionats estimadors s'ha determinat basant-se en la seua variabilitat. El punt òptim on determinar les característiques de l'onatge deuen ser estimades per predir OLT i OFV s'ha identificat a una distància de 3h des del peu de l'estructura (on h és la profunditat a peu de dic). La pendent de fons té influència sobre OLT i OFV. Els valors més extrems de OLT i OFV s'han descrit amb les distribucions Exponencial d'un paràmetre i Rayleigh, respectivament, amb resultats satisfactoris (0.803≤R2≤0.812). / [EN] Climate change and the social concern about the impact of infrastructures is leading to mound breakwaters with reduced crest freeboards facing higher extreme overtopping events. In addition, most mound breakwaters are built in the surf zone where depth-limited wave breaking takes place. Recent studies point out the need of considering not only the mean wave overtopping discharge (q) but also the maximum individual wave overtopping volume (Vmax), the overtopping layer thickness (OLT) and the overtopping flow velocity (OFV) when designing mound breakwater crest elevation using overtopping criteria. However, few studies in the literature are focused on Vmax on coastal structures under depth-limited breaking wave conditions. In addition, those few studies report contradictory conclusions regarding the significance of depth-limited breaking waves on Vmax. With respect to OLT and OFV, no studies are found in the literature for their prediction on mound breakwaters. In this PhD thesis, 2D physical model tests were conducted on overtopped mound breakwaters (0.3≤Rc/Hm0≤2.5) without a crown wall armored with three armor layers (Cubipod®-1L, cube-2L and rock-2L) on two gentle bottom slopes (m=2% and 4%) in depth-limited breaking wave conditions (0.2≤Hm0/h≤0.9). Vmax together with q are the most recommended variables in the literature to design mound breakwater crest elevation based on overtopping criteria. In the present study, the 2-parameter Weibull distribution provides the best results when estimating Vmax*=Vmax/(gHm0T012) with coefficient of determination R2=0.833. During the design phase of a mound breakwater, q is needed to predict Vmax using methods given in the literature. Thus, q must be estimated for design purposes when direct observations are not available. If CLASH NN is used to estimate q (R2=0.636), the goodness-of-fit of the 2-parameter Weibull distribution proposed in this thesis to predict Vmax* is R2=0.617. Hence, the ratio between the estimated and measured Vmax* falls within the range 1/2 to 2 (90% error band) when q is predicted using CLASH NN. The new estimators derived in this study provide satisfactory estimations of Vmax* with a method simpler than those found in the literature. Neither the bottom slope nor the depth-induced wave breaking seem to significantly influence the dimensionless Vmax* in this study. OLT and OFV are directly related to the hydraulic stability of the armored crest and the pedestrian safety. Thus, OLT and OFV are required to properly design crest elevation using overtopping criteria. Neural Networks (NNs) are used in this study to develop new explicit unbiased estimators for the OLT and OFV exceeded by 2% of the incoming waves with a high coefficient of determination (0.866≤R2≤0.867). The appropriate number of significant figures of the empirical coefficients of such estimators is selected according to their variability. The optimum point where wave characteristics are determined to predict OLT and OFV was identified at a distance of 3h from the toe of the structure (where h is the water depth at the toe of the structure). The bottom slope does influence both OLT and OFV. The most extreme values of OLT and OFV are described with the 1-parameter Exponential and Rayleigh distribution functions, respectively, with satisfactory results (0.803≤R2≤0.812). / Al Ministerio de Educación, Cultura y Deporte, por la financiación brindada con el
programa de Formación de Profesorado Universitario (FPU16/05081).
Al Ministerio de Economía y Competitividad, por la financiación de los proyectos
ESBECO (EStabilidad hidráulica del manto, BErmas y COronación de diques en talud
con rebase y rotura por fondo, BIA2015-70436-R) y HOLOBREAK (Estabilidad
Hidráulica y Transmisión de Diques Rompeolas Homogéneos de Baja Cota Diseñados
a Rotura por Fondo, RTI2018-101073-B-I00-AR). / Mares Nasarre, P. (2021). Overtopping flow on mound breakwaters under depth-limited breaking wave conditions [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/163154
|
132 |
Experimental and analytical study of the mechanical friction losses in the piston-cylinder liner tribological pair in internal combustion engines (ICE)Bastidas Moncayo, Kared Sophia 02 September 2021 (has links)
[ES] Con el aumento de la demanda de soluciones más amigables con el medio ambiente en la industria de la automoción, el motor de combustión interna alternativo (MCIA) enfrenta actualmente grandes desafíos para minimizar su consumo de recursos no renovables y especialmente, para reducir sus emisiones contaminantes. Debido a que el aporte de los MCIAs es fundamental para cubrir las necesidades de movilidad y de generación de energía alrededor de todo el mundo, y el hecho de que diferentes alternativas, como los motores eléctricos e hibrido, están y continuaran enfrentado múltiples obstáculos para su implementación masiva en el futuro cercano, la investigación continua en MCIA es fundamental para cumplir con los propósitos de reducción de emisiones.
En este aspecto, una aproximación para el aumento de la eficiencia del motor y la reducción del consumo de combustible es mediante la implementación de alternativas dirigidas a reducir las pérdidas mecánicas por fricción. Estas alternativas tribológicas incluyen aquellas que requieren modificaciones en los componentes del motor, como materiales y acabados superficiales, y el uso de formulaciones de aceite lubricante de menor viscosidad o aditivos que mejoren las condiciones de lubricación del motor. Con la contante evolución y mejoras en el MCIA y las condiciones de trabajo cada vez más severas, también surgen nuevas alternativas tribológicas para enfrentar los nuevos desafíos del motor, y por tanto se requiere de investigaciones adicionales en este tema.
Durante el desarrollo de esta Tesis, uno de los objetivos consistió en contribuir a la investigación del uso de aceites de baja viscosidad para el ahorro de combustible como un efecto conjunto con las condiciones de conducción del vehículo. Para llevar a cabo este objetivo, se desarrollaron ensayos experimentales bajo condiciones estacionarias en un banco de motor con formulaciones de aceite de diferente viscosidad HTHS, algunas de ellos con aditivo modificador de fricción para expandir el rango de reducción de fricción a condiciones de lubricación más severas. Los mapas de consumo de combustible resultantes de estos ensayos fueron utilizados en un modelo de simulación del vehículo para estimar su consumo de combustible como función del aceite y las condiciones de trabajo de tres ciclos de conducción.
Con el objetivo de expandir los conocimientos en los fundamentos de lubricación de los MCIAs y tener la capacidad de evaluar otras alternativas para reducir las pérdidas por fricción, se consideró necesario enfocar la investigación en el conjunto pistón-camisa, que es el par tribológico con mayor aporte a las perdidas por fricción. Para conseguir este objetivo, durante esta Tesis se desarrolló una maqueta específica para el ensamble pistón-camisa, y un modelo teórico para simular la lubricación del segmento de compresión. Para la primera parte, la maqueta se desarrolló basada en el método de camisa flotante, en el cual la camisa fue aislada del resto del motor y la fuerza de fricción generada en la interfaz pistón-camisa pudo ser medida mediante sensores de fuerza. En esta instalación se desarrollaron diferentes ensayos los cuales permitieron llevar a cabo un análisis exhaustivo de los fundamentos de lubricación de este par tribológico como función de diferentes parámetros que tiene impacto en las condiciones de lubricación. Este estudio se complementó con el desarrollo de un modelo de lubricación para el segmento de compresión basado en el método de diferencias finitas. Finalmente, se llevó a cabo una comparativa de resultados experimentales y teóricos para el segmento de compresión, lo cual permitió validar los ensayos experimentales en la maqueta de camisa flotante, así como el modelo de simulación desde el punto de vista de datos de entrada, condiciones de contorno y supuestos. / [CA] Amb l'augment de la demanda de solucions més amigables amb el medi ambient en la indústria de l'automoció, el motor de combustió interna alternatiu (MCIA) s'enfronta actualment a grans desafiaments per minimitzar el seu consum de recursos no renovables i especialment, per reduir les seves emissions contaminants . Tenint en compte que l'aportació dels MCIA és fonamental per a cobrir les necessitats de mobilitat i generació d'energia arreu de tot el món, i el fet que diferents alternatives, com els motors elèctrics i híbrids, estan i continuaran enfrontat múltiples obstacles per a la seva implementació massiva al proper futur, la investigació contínua en MCIA és fonamental per complir amb els propòsits de reducció d'emissions.
En aquest aspecte, una aproximació per a l'augment de l'eficiència del motor i la reducció de consum de combustible és mitjançant la implementació d'alternatives dirigides a reduir les pèrdues mecàniques per fricció. Aquestes alternatives tribològiques inclouen aquelles que requereixen modificacions de components del motor, com materials i acabats superficials, i l'ús de formulacions d'oli lubricant de menor viscositat o additius que milloren les condicions de lubricació del motor. Amb la constant evolució i millores en el MCIA i les condicions de treball cada vegada més severes, també sorgeixen noves alternatives tribològiques per enfrontar els nous desafiaments del motor, i per tant es requereix d'investigacions addicionals en aquest tema.
Durant el desenvolupament d'aquesta Tesi, un dels objectius va consistir a contribuir a la investigació de l'ús d'olis de baixa viscositat per a l'estalvi de combustible com un efecte conjunt amb les condicions de conducció de vehicle. Per dur a terme aquest objectiu, es van desenvolupar assajos experimentals sota condicions estacionàries en un banc de motor amb formulacions d'oli de diferent viscositat HTHS, algunes d'elles amb additiu modificador de fricció per expandir el rang de reducció de fricció a condicions de lubricació més severes . Els mapes de consum de combustible resultants d'aquests assajos van ser utilitzats en un model de simulació del vehicle per estimar el seu consum de combustible com a funció de l'oli i les condicions de treball de tres cicles de conducció.
Amb l'objectiu d'expandir els coneixements en els fonaments de lubricació dels MCIAs i tenir la capacitat d'avaluar altres alternatives per reduir les pèrdues per fricció, es va considerar necessari enfocar la recerca al conjunt pistó-camisa, que és el parell tribològic amb major aportació a les perdudes per fricció. Per aconseguir aquest objectiu, durant aquesta Tesi es va desenvolupar una maqueta específica per al acoblament pistó-camisa, i un model teòric per simular la lubricació del segment de compressió. Per a la primera part, la maqueta es va desenvolupar basada en el mètode de camisa flotant, en el qual la camisa va ser aïllada de la resta del motor i la força de fricció generada en la interfície pistó-camisa va poder ser mesurada mitjançant sensors de força. En aquesta instal·lació es van desenvolupar diferents assajos els quals van permetre dur a terme una anàlisi exhaustiva dels fonaments de lubricació d'aquest parell tribològic com a funció de diferents paràmetres que tenen impacte en les condicions de lubricació. Aquest estudi es va complementar amb el desenvolupament d'un model de lubricació per al segment de compressió basat en el mètode de diferències finites. Finalment, es va dur a terme una comparativa de resultats experimentals i teòrics per al segment de compressió, la qual cosa va permetre validar els assajos experimentals a la maqueta de camisa flotant, així com el model de simulació des del punt de vista de dades d'entrada, condicions de contorn i hipòtesis. / [EN] With the increasing demand for greener solutions in the automotive industry, the ICE is currently facing great challenges to minimize the consumption of nonrenewable resources and specially to reduce its harmful emissions. Given that the contribution of the ICE is fundamental to cover the actual mobility and power generation needs worldwide, and the fact that different power-train alternatives, such as electric and hybrid vehicles, are and will continue facing multiple obstacles for their large-scale implementation in the near future, the continuous research on the ICE is fundamental in order to meet the emissions reduction targets.
In this regard, one approach to increase the engine efficiency and reduce the fuel consumption, is through the implementation of alternatives aimed to reduce the friction mechanical losses. These tribological alternatives include those that require modifications to the engine components, such as materials and surface finishes, and the use of lubricant oil formulation of lower viscosity or additives that improve the lubrication performance of the engine. With the ongoing evolution and improvement of the ICE and the increasingly severe working conditions, new tribological solutions also emerge to face the new challenges in the ICE, and therefore further research is required on this subject.
During the development of this Thesis, one of the objectives was to contribute to the research on low viscosity engine oils for fuel economy as a joint effect with the driving conditions of the vehicle. To accomplish this, experimental tests were performed under stationary conditions in an engine bench test for oil formulations of different HTHS viscosity, some of them with friction modifier additive to expand the friction reduction effect to more severe lubrication conditions. The resultant fuel consumption maps were then employed in a vehicle model to estimate the fuel consumption of the vehicle as function of the oil formulation and the working conditions of the three driving cycles.
With the aim of expanding the knowledge on the lubrication fundamentals of the engine and to have the capability to assess other alternatives to further reduce the friction mechanical losses, it was deemed necessary to focus the research on the piston-cylinder liner assembly, the tribo-pair of major friction share. In order to achieve this objective, a test rig was developed in this Thesis specific for the piston-liner assembly, and a theoretical model to estimate the lubrication of the piston compression ring. For the first part, the test rig was designed based on the floating liner method, where the cylinder liner was isolated from the rest of the engine and the friction force generated in the piston-liner conjunction could be measured by means of force sensors. Different tests were developed in this test rig which allowed a comprehensive analysis of the piston lubrication fundamentals as function of different parameters having an impact on the lubrication performance of this assembly. This study was complemented with the development of a piston compression ring lubrication model based on the finite differences method. A comparison of experimental and theoretical results was performed for the piston compression ring that helped to validate both the experimental tests in the floating liner and the simulation model from the point of view of input data, boundary conditions and assumptions. / Bastidas Moncayo, KS. (2021). Experimental and analytical study of the mechanical friction losses in the piston-cylinder liner tribological pair in internal combustion engines (ICE) [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/172188
|
133 |
Numerical study of EGR mixing and distribution in a piston engine intake lineGarcía Olivas, Guillermo 10 January 2022 (has links)
[ES] Teniendo en cuenta la cantidad de motores de combustión interna que se encuentran en activo actualmente, y sus potenciales emisiones de contaminación si se realizaran de forma incontrolada por el parque automovilístico, las normativas internacionales son cada vez más estrictas en cuanto a la cantidad de gases perjudiciales para el medio ambiente que pueden emitir dichos motores de manera unitaria. Debido a ello, se han ido desarrollando e implantando técnicas de reducción de contaminantes como el downsizing en el cual se reduce el tamaño del motor para reducir el consumo, la implantación de motores híbridos y la Recirculación de Gases de Escape. Esta técnica de recirculación puede abordarse de dos maneras alternativas: la Recirculación de Gases de Escape de Ruta Larga inyecta dichos gases antes del compresor, mientras que la Recirculación de Gases de Escape de Ruta Corta (o alta presión) los reinyecta después del compresor, en el mismo colector de admisión del motor. Dado que en ambas configuraciones se produce una inyección directa del flujo recirculado en la corriente principal, en el presente trabajo se propone un estudio numérico de la mezcla entre las corrientes de aire y gases recirculados usando un software comercial de mecánica de fluidos computacional (STAR-CCM+).
En la configuración de Ruta Larga se ha propuesto en primer lugar estudiar el efecto en los parámetros globales del compresor de una entrada heterogénea compuesta por aire y gases de escape. Para ello, se han analizado 9 puntos de funcionamiento distintos, tratando de abarcar el mapa completo del compresor centrífugo con una tasa de inyección constante. Se ha demostrado, por un lado, la necesidad de un esquema transitorio de cálculo para la obtención de resultados confiables en todo el dominio del compresor. Por otro lado, se ha demostrado que, con tasas de penetración de flujo estándar, la inyección de gases recirculados no tiene un impacto reseñable en las prestaciones del compresor, con excepción de la zona de bombeo. En segundo lugar, se ha desarrollado un diseño numérico de experimentos en configuración de Ruta Larga con el objetivo de encontrar correlaciones entre la condensación generada en dichas uniones (la cual puede aparecer bajo ciertas condiciones de operación del motor) y la mezcla entre las corrientes de aire y gases de escape. Se ha demostrado que la penetración de los gases en la corriente principal es un factor clave en la condensación generada, aumentando la cantidad de mezcla entre ambas corrientes.
En la configuración de Ruta Corta se han realizado estudios de configuración numérica tratando de estudiar la influencia de factores como malla, tamaño del paso temporal y modelos de turbulencia en la distribución final de los gases de escape entre los diferentes cilindros del motor. Se ha demostrado que los submodelos RANS pueden predecir la mayor parte de puntos de operación tanto en variables medias como instantáneas comparando resultados numéricos con mediciones experimentales. Fijando una configuración numérica, posteriormente se han analizado diferentes mezcladores en colectores de motores de 4 y 6 cilindros, demostrando la aplicabilidad de los índices de mezclado desarrollados y cuantificando la influencia de los diferentes efectos físicos que influyen en la distribución y mezcla de los gases de escape en la corriente principal. / [CA] Tenint en compte la quantitat de motors de combustió interna que es troben en actiu actualment, i les seues potencials emissions de contaminació si es realitzaren de manera incontrolada pel parc automobilístic, les normatives internacionals són cada vegada més estrictes quant a la quantitat de gasos perjudicials per al medi ambient que poden emetre aquests motors de manera unitària. A causa d'això, s'han anat desenvolupant i implantant tècniques de reducció de contaminants com el downsizing en el qual es redueix la grandària del motor per a reduir el consum, la implantació de motors híbrids i la Recirculació de Gasos de Fuita. Aquesta tècnica de recirculació pot abordar-se de dues maneres alternatives: la Recirculació de Gasos de Fuita de Ruta Llarga injecta aquests gasos abans del compressor, mentre que la Recirculació de Gasos de Fuita de Ruta Curta (o alta pressió) els reinjecta després del compressor, en el mateix collector d'admissió del motor. Atés que en totes dues configuracions es produeix una injecció directa del flux recirculat en el corrent principal, en el present treball es proposa un estudi numèric de la mescla entre els corrents d'aire i gasos recirculats usant un programari comercial de mecànica de fluids computacional (STAR-CCM+).
En la configuració de Ruta Llarga s'ha proposat en primer lloc estudiar l'efecte en els paràmetres globals del compressor d'una entrada heterogènia composta per aire i gasos de fuita. Per a això, s'han analitzat 9 punts de funcionament diferents, tractant d'abastar el mapa complet del compressor centrífug amb una taxa d'injecció constant. S'ha demostrat, d'una banda, la necessitat d'un esquema transitori de càlcul per a l'obtenció de resultats de confiança en tot el domini del compressor. D'altra banda, s'ha demostrat que, amb taxes de penetració de flux estàndard, la injecció de gasos recirculats no té un impacte ressenyable en les prestacions del compressor, amb excepció de la zona de bombament. En segon lloc, s'ha desenvolupat un disseny numèric d'experiments en configuració de Ruta Llarga amb l'objectiu de trobar correlacions entre la condensació generada en aquestes unions (la qual pot aparéixer sota unes certes condicions d'operació del motor) i la mescla entre els corrents d'aire i gasos de fuita. S'ha demostrat que la penetració dels gasos en el corrent principal és un factor clau en la condensació generada, augmentant la quantitat de mescla entre tots dos corrents.
En la configuració de Ruta Curta s'han realitzat estudis de configuració numèrica tractant d'estudiar la influència de factors com a malla, grandària del pas temporal i models de turbulència en la distribució final dels gasos de fuita entre els diferents cilindres del motor. S'ha demostrat que els submodelos RANS poden predir la major part de punts d'operació tant en variables mitjanes com instantànies comparant resultats numèrics amb mesuraments experimentals. Fixant una configuració numèrica, posteriorment s'han analitzat diferents mescladors en col·lectors de motors de 4 i 6 cilindres, demostrant l'aplicabilitat dels índexs de barrejat desenvolupats i quantificant la influència dels diferents efectes físics que influeixen en la distribució i mescla dels gasos de fuita en el corrent principal. / [EN] Considering the amount of internal combustion engines (ICEs) existing nowadays, and the pollutants that they could potentially emit, it is no surprise that international standards are getting increasingly severe regarding the allowed limits of pollutants that can be released by such engines. For this reason, different techniques have been developed in order to diminish pollutants, as downsizing in which the engine size is reduced to decrease the consumption, the hybridation of engines and the exhaust gases recirculation (EGR). This recirculation technique can be addressed by 2 different paths: Low Pressure EGR (LP-EGR) which reintroduce the exhaust gases before the compressor, while High Pressure EGR (HP-EGR) injects exhaust gases after the compressor in the intake manifold. Since both configurations deal with a direct injection of the recirculated flow in the main stream, in the present work a numerical study of the mixing between air and EGR flows is proposed, using a commercial code of computational fluid dynamics (STAR-CCM+).
In LP-EGR configuration has been proposed the study of the influence of a heterogeneous inlet (composed by air and exhaust gases) on the main performance of a centrifugal compressor. To do that, 9 different operating points have been analyzed, trying to cover the whole map of the compressor with a constant injection rate. It has been demonstrated the necessity of a transient scheme for obtaining reliable results in the complete domain of the compressor. On the other hand, it has been proved that, with standard penetration rates of the flow, EGR do not have a remarkable impact in the performance of the compressor, besides the surge zone. In LP-EGR scheme, a numerical design of experiments has been developed with the aim to find correlations between the generated volume condensation (which can appear under some operating points of the engine) and the mixing between air and exhaust gases. It has been proved that the penetration of the EGR in the main stream is a key factor in volume condensation, increasing the amount of mixing between the streams.
In HP-EGR configuration, different studies of numerical configuration have been conducted trying to find the influence of factors like mesh, time-step size, and turbulence models in the final distribution of exhaust gases between the cylinders of the engine. RANS submodels have demonstrated that can predict most of the operating points both average and instantaneous variables in comparison with experimental measurements. After that, fixing a numerical setup, different mixers in 4 and 6 cylinder manifolds have been calculated, showing the applicability of the developed mixing indexes, and quantifying the influence of the different physical effects that can influence in the mixing and distribution between air and exhaust gases streams. / García Olivas, G. (2021). Numerical study of EGR mixing and distribution in a piston engine intake line [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/179406
|
134 |
Desarrollo de técnicas avanzadas de seguimiento de posturas para reconocimiento de comportamientos de C. elegansLayana Castro, Pablo Emmanuel 26 October 2023 (has links)
Tesis por compendio / [ES] El objetivo principal de esta tesis es el desarrollo de técnicas avanzadas de seguimiento de posturas para reconocimiento de comportamientos del Caenorhabditis elegans o C. elegans. El C. elegans es una clase de nematodo utilizado como organismo modelo para el estudio y tratamientos de diferentes enfermedades patológicas así como neurodegenerativas. Su comportamiento ofrece información valiosa para la investigación de nuevos fármacos (o productos alimenticios y cosméticos saludables) en el estudio de lifespan y healthspan. Al día de hoy, muchos de los ensayos con C. elegans se realizan de forma manual, es decir, usando microscopios para seguirlos y observar sus comportamientos o en laboratorios más modernos utilizando programas específicos. Estos programas no son totalmente automáticos, requieren ajuste de parámetros. Y en otros casos, son programas para visualización de imágenes donde el operador debe etiquetar maualmente el comportamiento de cada C. elegans. Todo esto se traduce a muchas horas de trabajo, lo cual se puede automatizar utilizando técnicas de visión por computador. Además de poder estimar indicadores de movilidad con mayor precisión que un operador humano.
El problema principal en el seguimiento de posturas de C. elegans en placas de Petri son las agregaciones entre nematodos o con ruido del entorno. La pérdida o cambios de identidad son muy comunes ya sea de forma manual o usando programas automáticos/semi-automáticos. Y este problema se vuelve más complicado aún en imágenes de baja resolución. Los programas que automatizan estas tareas de seguimiento de posturas trabajan con técnicas de visión por computador usando técnicas tradicionales de procesamiento de imágenes o técnicas de aprendizaje profundo. Ambas técnicas han demostrado excelentes resultados en la detección y seguimiento de posturas de C. elegan}. Por un lado, técnicas tradicionales utilizan algoritmos/optimizadores para obtener la mejor solución, mientras que las técnicas de aprendizaje profundo aprenden de forma automática características del conjunto de datos de entrenamiento. El problema con las técnicas de aprendizaje profundo es que necesitan un conjunto de datos dedicado y grande para entrenar los modelos.
La metodología utilizada para el desarrollo de esta tesis (técnicas avanzadas de seguimiento de posturas) se encuadran dentro del área de investigación de la visión artificial. Y ha sido abordada explorando ambas ramas de visión por computador para resolver los problemas de seguimiento de posturas de C. elegans en imágenes de baja resolución. La primera parte, es decir, secciones 1 y 2, capítulo 2, utilizó técnicas tradicionales de procesamiento de imágenes para realizar la detección y seguimiento de posturas de los C. elegans. Para ello se propuso una nueva técnica de esqueletización y dos nuevos criterios de evaluación para obtener mejores resultados de seguimiento, detección, y segmentación de posturas. Las siguientes secciones del capítulo 2 utilizan técnicas de aprendizaje profundo, y simulación de imágenes sintéticas para entrenar modelos y mejorar los resultados de detección y predicción de posturas. Los resultados demostraron ser más rápidos y más precisos en comparación con técnicas tradicionales. También se demostró que los métodos de aprendizaje profundo son más robustos ante la presencia de ruido en la placa. / [CA] L'objectiu principal d'aquesta tesi és el desenvolupament de tècniques avançades de seguiment de postures per a reconeixement de comportaments del Caenorhabditis elegans o C. elegans. El C. elegans és una classe de nematodo utilitzat com a organisme model per a l'estudi i tractaments de diferents malalties patològiques així com neurodegeneratives. El seu comportament ofereix informació valuosa per a la investigació de nous fàrmacs (o productes alimentosos i cosmètics saludables) en l'estudi de lifespan i healthspan. Al dia de hui, molts dels assajos amb C. elegans es realitzen de manera manual, és a dir, usant microscopis per a seguir-los i observar els seus comportaments o en laboratoris més moderns utilitzant programes específics. Aquests programes no són totalment automàtics, requereixen ajust de paràmetres. I en altres casos, són programes per a visualització d'imatges on l'operador ha d'etiquetar maualment el comportament de cada C. elegans. Tot això es tradueix a moltes hores de treball, la qual cosa es pot automatitzar utilitzant tècniques de visió per computador. A més de poder estimar indicadors de mobilitat amb major precisió que un operador humà.
El problema principal en el seguiment de postures de C. elegans en plaques de Petri són les agregacions entre nematodes o amb soroll de l'entorn. La pèrdua o canvis d'identitat són molt comuns ja siga de manera manual o usant programes automàtics/semi-automàtics. I aquest problema es torna més complicat encara en imatges de baixa resolució. Els programes que automatitzen aquestes tasques de seguiment de postures treballen amb tècniques de visió per computador usant tècniques tradicionals de processament d'imatges o tècniques d'aprenentatge profund. Totes dues tècniques han demostrat excel·lents resultats en la detecció i seguiment de postures de C. elegans. D'una banda, tècniques tradicionals utilitzen algorismes/optimizadors per a obtindre la millor solució, mentre que les tècniques d'aprenentatge profund aprenen de manera automàtica característiques del conjunt de dades d'entrenament. El problema amb les tècniques d'aprenentatge profund és que necessiten un conjunt de dades dedicat i gran per a entrenar els models.
La metodologia utilitzada per al desenvolupament d'aquesta tesi (tècniques avançades de seguiment de postures) s'enquadren dins de l'àrea d'investigació de la visió artificial. I ha sigut abordada explorant totes dues branques de visió per computador per a resoldre els problemes de seguiment de postures de C. elegans en imatges de baixa resolució. La primera part, és a dir, secció 1 i 2, capítol 2, va utilitzar tècniques tradicionals de processament d'imatges per a realitzar la detecció i seguiment de postures dels C. elegans. Per a això es va proposar una nova tècnica de esqueletizació i dos nous criteris d'avaluació per a obtindre millors resultats de seguiment, detecció i segmentació de postures. Les següents seccions del capítol 2 utilitzen tècniques d'aprenentatge profund i simulació d'imatges sintètiques per a entrenar models i millorar els resultats de detecció i predicció de postures. Els resultats van demostrar ser més ràpids i més precisos en comparació amb tècniques tradicionals. També es va demostrar que els mètodes d'aprenentatge profund són més robustos davant la presència de soroll en la placa. / [EN] The main objective of this thesis is the development of advanced posture-tracking techniques for behavioural recognition of Caenorhabditis elegans or C. elegans. C. elegans is a kind of nematode used as a model organism for the study and treatment of different pathological and neurodegenerative diseases. Their behaviour provides valuable information for the research of new drugs (or healthy food and cosmetic products) in the study of lifespan and healthspan. Today, many of the tests on C. elegans are performed manually, i.e. using microscopes to track them and observe their behaviour, or in more modern laboratories using specific software. These programmes are not fully automatic, requiring parameter adjustment. And in other cases, they are programmes for image visualisation where the operator must label the behaviour of each C. elegans manually. All this translates into many hours of work, which can be automated using computer vision techniques. In addition to being able to estimate mobility indicators more accurately than a human operator.
The main problem in tracking C. elegans postures in Petri dishes is aggregations between nematodes or with noise from the environment. Loss or changes of identity are very common either manually or using automatic/semi-automatic programs. And this problem becomes even more complicated in low-resolution images. Programs that automate these pose-tracking tasks work with computer vision techniques using either traditional image processing techniques or deep learning techniques. Both techniques have shown excellent results in the detection and tracking of C. elegans postures. On the one hand, traditional techniques use algorithms/optimizers to obtain the best solution, while deep learning techniques automatically learn features from the training dataset. The problem with deep learning techniques is that they need a dedicated and large dataset to train the models.
The methodology used for the development of this thesis (advanced posture-tracking techniques) falls within the research area of computer vision. It has been approached by exploring both branches of computer vision to solve the posture-tracking problems of C. elegans in low-resolution images. The first part, i.e. sections 1 and 2, chapter 2, used traditional image processing techniques to perform posture detection and tracking of C. elegans. For this purpose, a new skeletonization technique and two new evaluation criteria were proposed to obtain better posture-tracking, detection, and segmentation results. The next sections of chapter 2 use deep learning techniques, and synthetic image simulation to train models and improve posture detection and prediction results. The results proved to be faster and more accurate compared to traditional techniques. Deep learning methods were also shown to be more robust in the presence of plate noise. / This research was supported by Ministerio de Ciencia, Innovación y Universidades
[RTI2018-094312-B-I00 (European FEDER funds); FPI PRE2019-088214], and also was
supported by Universitat Politècnica de València [“Funding for open access charge: Uni-
versitat Politècnica de València”].
The author received a scholarship from the grant: Ayudas para contratos predoctorales
para la formación de doctores 2019. / Layana Castro, PE. (2023). Desarrollo de técnicas avanzadas de seguimiento de posturas para reconocimiento de comportamientos de C. elegans [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/198879 / Compendio
|
135 |
Construire les archives. Du temps des Foix-Béarn à celui des rois de Navarre. Pratiques de l'écrit et enjeux de pouvoir. / Build archives, times(weathers) of Foix-Béarn to those of the kings of Navarre. Practices of the paper and the stakes in power. / Construir los archivos, de los tiempos de los Foix-Béarn à los de los reyes de Navarra. Prácticas del escrito y retos de poder.Adot Lerga, Álvaro 24 February 2017 (has links)
Cette thèse de dimension internationale, n'a pas seulement l'objectif de restituer une histoire de la famille Foix-Béarn-Navarre à partir de leurs archives. Il s'agit plutôt de mettre en évidence les liens complexes entre la famille royale de Navarre et ses archives notamment entre le XVe siècle et le XVIIe siècle, en envisageant le statut et le rôle des archives constituées dans la construction de l'histoire, l'identité et la mémoire de cette maison entre la fin du Moyen Âge et le début de la période moderne.Pour la réalisation de cette thèse, nous avons étudié, entre autre, deux volumineux inventaires réalises au XVIe siècle qui nous ont permis de connaitre l'évolution de l'histoire des archives conservés à l'époque dans le trésor du château de Pau. Concrètement ces deux inventaires marquent une époque importante d'auto-affirmation du pouvoir de la famille royale de Navarre, car le premier des ces inventaires fut d'un grand intérêt pour cette famille dans le processus de création d'un État moderne en Béarn, sous le règne d'Henri II de Navarre, et le deuxième (réalise vers 1580-1582) fut le dernier inventaire de la souveraineté, car à partir de l'arrivé d'Henri III de Navarre au trône de France, les archives du trésor de ce château se fossilisèrent.Nous avons souligner au début de cette résumé la dimension internationale du sujet de cette thèse puisqu'une partie des archives de cette maison royale, conservée actuellement dans les ADPA est en étroite relation avec documents gardés à l'heure actuelle dans l'Archivo General de Navarre, situé à Pampelune. Ce sujet a été aussi peu étudiée que l'histoire, l'identité et la mémoire de la famille royale de Navarre sous les règnes de Catherine de Foix (1483-1517) et Henri II (1517-1555).L'organisation des archives fait partie de la construction politique des rois de Navarre, d'une identité politique dans laquelle le Béarn (avec la Navarre) exerce depuis la fin du XVe siècle un rôle prépondérant en tant que territoire indépendant au marge de France. C'est la politique menée par ces rois, qui explique le processus de centralisation dans le chartrier de Pau d'archives procédant de leurs divers domaines (même si la plupart d'entre eux sont des territoires dépendants de la Couronne de France).Enfin, nous voulons citer l'étude réalisé de l'évolution des techniques ou systèmes d'archivage de la documentation du trésor de chartes de Pau dans la longue durée : En ce qui concerne tout d’abord l'évolution des modèles de conservation, classement et description archivistique entre la fin du Moyen Âge et l'époque moderne, se met en place une organisation des archives de plus en plus claire et efficace. L'inventaire de la première moitié du XVIe siècle est divisée par les divers domaines familiales mais nous montre une pauvre organisation pauvre qui ne suit aucun ordre thématique et méthodique dans la façon dont les documents avaient été répertoriés. En revanche, le registre élaboré au début de la décennie 1580 suit une organisation plus méthodique, comme le prouve la division de chaque titre par chapitres thématiques, et la subdivision de chaque chapitre en liasses numérotés. En plus, à la différence des nombreux systèmes de cotation documentaire utilisés par les archivistes dans la première moitié du XVIe siècle, ceux qui ont élaboré l'inventaire du début de la décennie 1580 ont opté pour l’uniformisation d’un système de cotation numérique en chiffres romains.En ce qui concerne l'évolution des modèles de conservation, de classement et de description archivistique, cette étude nous explique aussi les systèmes successifs de cotation de la documentation du trésor de chartes de Pau en fonction des contextes dans lesquels ils ont été réalisés à l’époque moderne et plus particulièrement au XIXe siècle, à l'époque de la naissance de la dénommée comme l'archivistique moderne. / This international-wide thesis(theory), has not only the objective to restore a history(story) of the family Foix-Béarn-Navarre from their archives. It is rather a question of highlighting the complex links between the royal family of Navarre and its archives in particular between XVth century and the XVIIth century, by envisaging the status and the role of archives established(constituted) in the construction of the history(story), the identity and the memory of this house between the end of the Middle Ages and the beginning of modern period.For the realization of this thesis(theory), we studied, among others, two voluminous inventories realize in the XVIth century who allowed us to know the evolution of the history(story) of archives kept(preserved) in the time(period) in the treasure of the castle of Pau. Concretely these two inventories mark an important time(period) of auto-assertion of the power of the royal family of Navarre, because the first one of these inventories was of a big interest for this family in the process of creation of a modern State with Béarn, under Henri II de Navarre's reign, and the second (realize by 1580-1582) was the last inventory of the sovereignty, because from the arrived of Henri III de Navarre in the throne of France, the archives of the treasure of this castle fossilized.We have to underline at the beginning of this summary the international dimension(size) of the subject of this thesis(theory) because a part(party) of the archives of this royal house, kept(preserved) at present in the ADPA is in narrow relation with documents kept(guarded) at the moment in Archivo General of Navarre, situated in Pamplona. This subject was little studied as well as the history(story), the identity and the memory of the royal family of Navarre under the reigns of Catherine de Foix ( 1483-1517 ) and Henri II ( 1517-1555 ).The organization of archives is a part of the political construction of kings of Navarre, of a political identity in which Béarn (with Navarre) exercises since the end of the XVth century a leading role as independent territory in margin of France. It is the politics led by these kings, that explains the process of centralization in the chartrier of Pau of archives proceeding of their diverse domains (even if most of them are territories dependent on the Crown of France).Finally, we want to quote the study realized by the evolution of techniques or archive systems of the documentation of the treasure of charters of Pau in the long lasting: as regards first of all the evolution of the models of preservation, classification(ranking) and the archival description between the end of the Middle Ages and the modern time(period), is set up an organization of the more and more clear and effective archives. The inventory of the first half of the XVIth century is divided by the diverse domains station wagons but shows us a poor poor organization which follows no thematic and methodical order in the way documents had been listed. On the other hand, the register developed at the beginning of decade 1580 follows a more methodical organization, as proves him(it) the division of every title by thematic chapters, and subdivision of every chapter in bundles numbered. Besides, unlike the numerous systems of documentary quotation used by the archivists in the first half of the XVIth century, those who developed the inventory of the beginning of decade 1580 opted for the standardization of a system of digital quotation in Roman numerals.As regards the evolution of the models of preservation, classification(ranking) and archival description, this study also explains us the successive systems of quotation of the documentation of the treasure of charters of Pau according to the contexts in which they were realized in the modern time(period) and more particularly in the XIXth century, at the time of the birth of the called(mentioned) as archival modern. / Esta tesis de dimensión internacional no tiene como único objetivo restituir une historia de la familia Foix-Bearne-Navarra, a partir de sus archivos. Se trata más bien de poner en evidencia los complejos lazos entre la familia real de Navarra y sus archivos, principalmente entre los siglos XV -XVII, abordando el estatus y el papel de los archivos constituidos en la construcción de la historia, la identidad y la memoria de esta casa real entre el final de la Edad Media y el comienzo de la Edad Moderna.Para la realización de esta tesis, hemos estudiado, entre otros aspectos, dios voluminosos inventarios realizados en el siglo XVI, que nos han permitido conocer la evolución de los archivos conservados en el "trésor" del castillo de Pau. Ambos inventarios marcan una época importante de autoafirmación del poder de la familia real de Navarra, ya que el primero tuvo un gran interés para dicha familia en el proceso de creación de un Estado Moderno en Bearne, bajo el reinado de Enrique II de Navarra, y el segundo (realizado hacia 1580-1582) fue el último inventario de la soberanía, ya que a partir de la llegada de Enrique III de Navarra al trono de Francia, los archivos de Pau se fosilizaron.Hemos comentado al inicio de este resumen la dimensión internacional del sujeto de esta tesis, ya que una parte de los archivos de esta casa real, conservado actualmente en los ADPA está en estrecha relación con documentos custodiados en el Archivo General de Navarra, situado en Pamplona. Este tema ha sido tan poco estudiado como la historia, identidad y memoria de la familia real de Navarra bajo los reinados de Catalina de Foix (1483-1517) y Enrique II (1517-1555). La organización de los archivos forma parte de la construcción política de los reyes de los reyes de Navarra, de una identidad política en la que Bearne ejerce desde fines del siglo XV un papel preponderante (junto a Navarra) en tanto que territorio independiente al margen de Francia. La política desarrollada por estos reyes explica el proceso de centralización en el cartulario de Pau de archivos procedentes de sus diversos dominios (incluso si la mayor parte de los mismos son territorios dependientes de la Corona de Francia).Finalmente, queremos citar el estudio realizado de la evolución de las técnicas de archivo de la documentación del "tresor de chartes" de Pau en el tiempo : En primer lugar, en lo concerniente a la evolución de los modelos de conservación, clasificación y descripción archivística entre el fin de la Edad Media y la época moderna, se lleva a cabo una organización cada vez más clara y eficaz. El inventario de la primera mitad del siglo XVI está dividido por los diversos dominios familiares pero nos muestra una pobre organización que no sigue ningún orden temático ni metódico en la manera en la que los documentos son clasificados. Por el contrario, el registro elaborado a inicios de la década 1580 sigue una organización más metódica, como lo prueba la división de cada título en capítulos temáticos, y la subdivisión de cada capítulo en legajos numerados. Además, a diferencia de los numerosos sistemas de signaturas utilizados por los archivistas en la primera mitad del siglo XVI, quienes elaboraron el inventario de comienzos de los años 1580 optaron por la uniformización en un único sistema de signatura (utilizando las cifras romanas).En lo que concierne a la evolución de los modelos de conservación, de clasificación y de descripción archivística, este estudio nos explica también los sucesivos sistemas de signaturas de la documentación del "trésor de chartes" de Pau, en función de los contextos en los que fueron realizados en la época moderna y más particularmente en el siglo XIX, época del nacimiento de lo que conocemos como la archivística moderna.
|
136 |
Scenario-Based Model Predictive Control for Systems with Correlated UncertaintiesGonzález Querubín, Edwin Alonso 26 April 2024 (has links)
[ES] La gran mayoría de procesos del mundo real tienen incertidumbres inherentes, las cuales, al ser consideradas en el proceso de modelado, se puede obtener una representación que describa con la mayor precisión posible el comportamiento del proceso real. En la mayoría de casos prácticos, se considera que éstas tienen un comportamiento estocástico y sus descripciones como distribuciones de probabilidades son conocidas.
Las estrategias de MPC estocástico están desarrolladas para el control de procesos con incertidumbres de naturaleza estocástica, donde el conocimiento de las propiedades estadísticas de las incertidumbres es aprovechado al incluirlo en el planteamiento de un problema de control óptimo (OCP). En éste, y contrario a otros esquemas de MPC, las restricciones duras son relajadas al reformularlas como restricciones de tipo probabilísticas con el fin de reducir el conservadurismo. Esto es, se permiten las violaciones de las restricciones duras originales, pero tales violaciones no deben exceder un nivel de riesgo permitido. La no-convexidad de tales restricciones probabilísticas hacen que el problema de optimización sea prohibitivo, por lo que la mayoría de las estrategias de MPC estocástico en la literatura se diferencian en la forma en que abordan tales restricciones y las incertidumbres, para volver el problema computacionalmente manejable.
Por un lado, están las estrategias deterministas que, fuera de línea, convierten las restricciones probabilísticas en unas nuevas de tipo deterministas, usando la propagación de las incertidumbres a lo largo del horizonte de predicción para ajustar las restricciones duras originales. Por otra parte, las estrategias basadas en escenarios usan la información de las incertidumbres para, en cada instante de muestreo, generar de forma aleatoria un
conjunto de posibles evoluciones de éstas a lo largo del horizonte de predicción. De esta manera, convierten las restricciones probabilísticas en un conjunto de restricciones deterministas que deben cumplirse para todos los escenarios generados. Estas estrategias se destacan por su capacidad de incluir en tiempo real información actualizada de las incertidumbres. No obstante, esta ventaja genera inconvenientes como su gasto computacional, el cual aumenta conforme lo hace el número de escenarios y; por otra parte, el efecto no deseado en el problema de optimización, causado por los escenarios con baja probabilidad de ocurrencia, cuando se usa un conjunto de escenarios pequeño.
Los retos mencionados anteriormente orientaron esta tesis hacia los enfoques de MPC estocástico basado en escenarios, produciendo tres contribuciones principales.
La primera consiste en un estudio comparativo de un algoritmo del grupo determinista con otro del grupo basado en escenarios; se hace un especial énfasis en cómo cada uno de estos aborda las incertidumbres, transforma las restricciones probabilísticas y en la estructura de su OCP, además de señalar sus aspectos más destacados y desafíos.
La segunda contribución es una nueva propuesta de algoritmo MPC, el cual se basa en escenarios condicionales, diseñado para sistemas lineales con incertidumbres correlacionadas. Este esquema aprovecha la existencia de tal correlación para convertir un conjunto de escenarios inicial de gran tamaño en un conjunto de escenarios más pequeño con sus probabilidades de ocurrencia, el cual conserva las características del conjunto inicial. El conjunto reducido es usado en un OCP en el que las predicciones de los estados y entradas del sistema son penalizadas de acuerdo con las probabilidades de los escenarios que las componen, dando menor importancia a los escenarios con menores probabilidades de ocurrencia.
La tercera contribución consiste en un procedimiento para la implementación del nuevo algoritmo MPC como gestor de la energía en una microrred en la que las previsiones de las energías renovables y las cargas están correlacionadas. / [CA] La gran majoria de processos del món real tenen incerteses inherents, les quals, en ser considerades en el procés de modelatge, es pot obtenir una representació que descriga amb la major precisió possible el comportament del procés real. En la majoria de casos pràctics, es considera que aquestes tenen un comportament estocàstic i les seues descripcions com a distribucions de probabilitats són conegudes.
Les estratègies de MPC estocàstic estan desenvolupades per al control de processos amb incerteses de naturalesa estocàstica, on el coneixement de les propietats estadístiques de les incerteses és aprofitat en incloure'l en el plantejament d'un problema de control òptim (OCP). En aquest, i contrari a altres esquemes de MPC, les restriccions dures són relaxades en reformulades com a restriccions de tipus probabilístiques amb la finalitat de reduir el conservadorisme. Això és, es permeten les violacions de les restriccions dures originals, però tals violacions no han d'excedir un nivell de risc permès. La no-convexitat de tals restriccions probabilístiques fan que el problema d'optimització siga computacionalment immanejable, per la qual cosa la majoria de les estratègies de MPC estocàstic en la literatura es diferencien en la forma en què aborden tals restriccions i les incerteses, per a tornar el problema computacionalment manejable.
D'una banda, estan les estratègies deterministes que, fora de línia, converteixen les restriccions probabilístiques en unes noves de tipus deterministes, usant la propagació de les incerteses al llarg de l'horitzó de predicció per a ajustar les restriccions dures originals. D'altra banda, les estratègies basades en escenaris usen la informació de les incerteses per a, en cada instant de mostreig, generar de manera aleatòria un conjunt de possibles evolucions d'aquestes al llarg de l'horitzó de predicció. D'aquesta manera, converteixen les restriccions probabilístiques en un conjunt de restriccions deterministes que s'han de complir per a tots els escenaris generats. Aquestes estratègies es destaquen per la seua capacitat d'incloure en temps real informació actualitzada de les incerteses. No obstant això, aquest avantatge genera inconvenients com la seua despesa computacional, el qual augmenta conforme ho fa el nombre d'escenaris i; d'altra banda, l'efecte no desitjat en el problema d'optimització, causat pels escenaris amb baixa probabilitat d'ocurrència, quan s'usa un conjunt d'escenaris xicotet.
Els reptes esmentats anteriorment van orientar aquesta tesi cap als enfocaments de MPC estocàstic basat en escenaris, produint tres contribucions principals.
La primera consisteix en un estudi comparatiu d'un algorisme del grup determinista amb un altre del grup basat en escenaris; on es fa un especial èmfasi en com cadascun d'aquests aborda les incerteses, transforma les restriccions probabilístiques i en l'estructura del seu problema d'optimització, a més d'assenyalar els seus aspectes més destacats i desafiaments.
La segona contribució és una nova proposta d'algorisme MPC, el qual es basa en escenaris condicionals, dissenyat per a sistemes lineals amb incerteses correlacionades. Aquest esquema aprofita l'existència de tal correlació per a convertir un conjunt d'escenaris inicial de gran grandària en un conjunt d'escenaris més xicotet amb les seues probabilitats d'ocurrència, el qual conserva les característiques del conjunt inicial. El conjunt reduït és usat en un OCP en el qual les prediccions dels estats i entrades del sistema són penalitzades d'acord amb les probabilitats dels escenaris que les componen, donant menor importància als escenaris amb menors probabilitats d'ocurrència.
La tercera contribució consisteix en un procediment per a la implementació del nou algorisme MPC com a gestor de l'energia en una microxarxa en la qual les previsions de les energies renovables i les càrregues estan correlacionades. / [EN] The vast majority of real-world processes have inherent uncertainties, which, when considered in the modelling process, can provide a representation that most accurately describes the behaviour of the real process. In most practical cases, these are considered to have stochastic behaviour and their descriptions as probability distributions are known.
Stochastic model predictive control algorithms are developed to control processes with uncertainties of a stochastic nature, where the knowledge of the statistical properties of the uncertainties is exploited by including it in the optimal control problem (OCP) statement. Contrary to other model predictive control (MPC) schemes, hard constraints are relaxed by reformulating them as probabilistic constraints to reduce conservatism. That is, violations of the original hard constraints are allowed, but such violations must not exceed a permitted level of risk.
The non-convexity of such probabilistic constraints renders the optimisation problem computationally unmanageable, thus most stochastic MPC strategies in the literature differ in how they deal with such constraints and uncertainties to turn the problem computationally tractable. On the one hand, there are deterministic strategies that, offline, convert probabilistic constraints into new deterministic ones, using the propagation of uncertainties along the prediction horizon to tighten the original hard constraints.
Scenario-based approaches, on the other hand, use the uncertainty information to randomly generate, at each sampling instant, a set of possible evolutions of uncertainties over the prediction horizon. In this fashion, they convert the probabilistic constraints into a set of deterministic constraints that must be fulfilled for all the scenarios generated. These strategies stand out for their ability to include real-time updated uncertainty information. However, this advantage comes with inconveniences such as computational effort, which grows as the number of scenarios does, and the undesired effect on the optimisation problem caused by scenarios with a low probability of occurrence when a small set of scenarios is used.
The aforementioned challenges steered this thesis toward stochastic scenario-based MPC approaches, and yielded three main contributions. The first one consists of a comparative study of an algorithm from the deterministic group with another one from the scenario-based group, where a special emphasis is made on how each of them deals with uncertainties, transforms the probabilistic constraints and on the structure of the optimisation problem, as well as pointing out their most outstanding aspects and challenges.
The second contribution is a new proposal for a MPC algorithm, which is based on conditional scenarios, developed for linear systems with correlated uncertainties. This scheme exploits the existence of such correlation to convert a large initial set of scenarios into a smaller one with their probabilities of occurrence, which preserves the characteristics of the initial set. The reduced set is used in an OCP in which the predictions of the system states and inputs are penalised according to the probabilities of the scenarios that compose them, giving less importance to the scenarios with lower probabilities of occurrence.
The third contribution consists of a procedure for the implementation of the new MPC algorithm as an energy manager in a microgrid in which the forecasts of renewables and loads are correlated. / González Querubín, EA. (2024). Scenario-Based Model Predictive Control for Systems with Correlated Uncertainties [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203887
|
137 |
La Reforma eclesiàstica i religiosa de les diòcesis de la Tarraconense al llarg de la Baixa Edat Mitjana (a través dels qüestionaris de visites pastorals)Monjas Manso, Luis 19 April 2005 (has links)
A través de la transcripción, edición y estudio exhaustivo de los cuestionarios de visita pastoral de Tortosa de 1314, de Gerona de 1329, del sínodo de Tarragona de 1372, de Valencia de 1383-1388, de Tortosa de 1409, de Jaume Marquilles (Barcelona) de 1413-1414, del "llibre de la cadena" (Barcelona) de 1425 y de Zaragoza de 1435, se pone de manifiesto la existencia de unas mismas directrices reformadoras de la iglesia y de la religión católica en todas las diócesis de la provincia eclesiàstica Tarraconense y de los antiguos reinos de la Corona de Aragón desde la celebración del IV Concilio de Letrán (1215) hasta el inicio del Concilio de Trento (1545). La reforma se concreta en los siguientes puntos de forma paralela en todas las diócesis de la Tarraconense, aunque podemos distinguir dos períodos claramente diferenciados: a) Desde el concilio de Lérida de 1229 hasta la vigilia del Cisma de Occidente: el esfuerzo reformador se centró en la moralidad del clero y su misión pastoral, y en la moralidad personal y social de los laicos, las visitas se asemejan a procesos eclesiásticos; b) Desde los inicios del Cisma de Occidente hasta la vigilia del concilio de Trento: el esfuerzo reformador se centró en los aspectos jurídicos y económicos de los beneficios, en la formación teológica sacramental de los curados y, muy especialmente, en la visitatio rerum, con la finalidad de implantar una política de la decoración que dirigía y promovía el incipiente culto eucarístico propio de las devociones populares del momento que, en muchos aspectos, se avanzó a la reforma del Concilio de Trento. No obstante, entre estos dos períodos y el que se inicia con el concilio de Trento, hay más continuidades que rupturas. / Through transcription, edition and exhaustive study of pastoral visits questionnaires of Tortosa in 1314, of Girona in 1329, of the synod of Tarragona in 1372, of Valencia from 1383 until 1388, of Tortosa in 1409, of Jaume Marquilles (Barcelona) from 1413 until 1414, of the "Llibre de la cadena" (Barcelona) in 1425 and of Zaragoza in 1435, the existence of the same church reformation directions and of the Catholic religion in all the diocese of the ecclesiastical province of Tarragona and of the ancient Kingdoms of the Crown of Aragon from the celebration of the Ivth Council of Letran (1215) until the begining of the Council of Trento (1545) is stated. The reformation is produced in a parallel way in all the diocese of Tarragona, although we can single out two clearly distinctive periods: a) From the Lleida Council in 1229 until the vigil of the western schism: the reformation effort was centered in the morality of the clergy and their pastoral mission, and in the social and personal morality of the laymen, the visits are similar to ecclesiastical processes; b) From the initial times of the western schism until the vigil of the Trento Council: the reformation effort was centered in the legal and economic sides of the benefits, in the theological and sacramental education of the priests and especially in the "visitatio rerum" with the intention of stating a decoration policy that was ruling and was promoting the incipient eucharistic cult typical from the popular devotions of the times, and in many ways, it was put forward to the reform of the Trento Council. There is more continuity rather than breaking.
|
Page generated in 0.0382 seconds