• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 131
  • 39
  • 6
  • 2
  • 2
  • Tagged with
  • 180
  • 71
  • 51
  • 37
  • 32
  • 32
  • 29
  • 19
  • 19
  • 19
  • 19
  • 18
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modelado de la oxidación del hollín en filtros de partículas diésel

Sanchis Pacheco, Enrique José 13 May 2019 (has links)
[ES] El continuo endurecimiento de las normativas que regulan las emisiones contaminantes de los motores de combustión ha obligado a su desarrollo ininterrumpido, buscando mejorar su consumo y reducir su impacto medioambiental. Esto ha provocado la introducción progresiva de sistemas de post-tratamiento de gases de escape en los motores de combustión a fin de limitar la emisión de sustancias contaminantes a la atmósfera. En el caso concreto de la emisión de partículas, se ha estandarizado el empleo de filtros de partículas de flujo de pared como solución tecnológica para el cumplimiento de las normativas vigentes tanto en motores diésel (DPF) como gasolina (GPF). Por el propio mecanismo de funcionamiento de estos filtros se produce una acumulación de hollín dentro y sobre sus paredes porosas. Esta acumulación tiene un gran efecto sobre el comportamiento fluidodinámico del filtro, afectando a la pérdida de presión y, de ahí, aumentando el consumo específico del motor. Por este motivo, y dada la limitada capacidad de acumulación del filtro, se realizan procesos de regeneración para eliminar las partículas de hollín almacenadas. Se recurre para ello a dos estrategias complementarias. Por un lado, se tienen las estrategias de regeneración activa, que se realizan de forma periódica, mediante un aporte externo de energía. De entre estas estrategias, el método más habitual es el uso de post-inyecciones de combustible. Por otro lado, existen estrategias pasivas, que conducen a la oxidación del hollín sin fuentes de energía externa y reducen la frecuencia de los eventos de regeneración activa. La definición de dichas estrategias, así como su control, requieren del uso de herramientas computacionales para lograr una mayor comprensión y permitir la optimización de estos procesos. En este contexto, la presente tesis doctoral ofrece una contribución al modelado de los procesos de regeneración. Parte importante de este trabajo ha consistido en el desarrollo y validación de un modelo de regeneración que se ha implementado en un modelo termofluidodinámico 1D de DPF ya existente. Esta herramienta se ha desarrollado proponiendo una definición detallada del mecanismo de oxidación de hollín, presentándose un análisis del efecto de las etapas que lo componen. El modelo propuesto también se ha adaptado para su uso en un modelo de valor medio de DPF, que junto al modelo de reactividad química de catalizadores de oxidación desarrollado en el contexto de esta tesis, ha sido empleado en el análisis de la influencia de la variación de los parámetros básicos de la estrategia de post-inyección sobre la regeneración del DPF. Por otra parte, es sabido que el balance entre las etapas de carga y regeneración del filtro determina la distribución de las partículas en su interior. Así, esta tesis se completa con un estudio acerca del efecto de la distribución de las partículas sobre el comportamiento del DPF y cómo la distribución no homogénea de las partículas en el filtro condiciona el proceso de regeneración activa, afectando también a las hipótesis a considerar para su correcto modelado. Como consecuencia de estos trabajos se ha definido un conjunto de herramientas computacionales que facilitan la comprensión de los procesos de regeneración y que son aplicables al amplio rango de casos de estudio considerados. / [CA] El continu enduriment de les normatives que regulen les emissions contaminants dels motors de combustió ha obligat al seu desenvolupament ininterromput, buscant millorar el seu consum i reduir el seu impacte mediambiental. Açò ha provocat la introducció progressiva de sistemes de post-tractament de gasos de fuga en els motors de combustió a fi de limitar l'emissió de substàncies contaminants a l'atmosfera. En el cas de l'emissió de partícules, s'ha estandarditzat l'utilització de filtres de partícules de flux de paret com a solució tecnològica per al compliment de les normatives vigents tant en motors dièsel (DPF) com gasolina (GPF). Pel propi mecanisme de funcionament estos filtres es produïx una acumulació de sutja dins i sobre les seues parets porosas. Esta acumulació té un gran efecte sobre el comportament fluidodinàmic del filtre, afectant la pèrdua de pressió i, d'aci, augmentant el consum específic del motor. Per este motiu, i per la limitada capacitat d'acumulació del filtre, es realitzen processos de regeneració per a eliminar les partícules de sutja emmagatzemades. Es recorre per a això a dos estratègies complemetaries. Per una banda, es tenen les estratègies de regeneració activa, que es realitzen de forma periòdica, per mitjà d'una aportació externa d'energia. D'entre estes estratègies, el mètode més habitual es l'ús de post-injeccions de combustible. D'altra banda, hi ha estratègies passives, que conduïxen a l'oxidació de la sutja sense fonts externes d'energia i reduïxen la freqüència dels esdeveniments de regeneració activa. La definició de les estratègies, així com el seu control, requerixen de l'ús de ferramentes computacionals per a aconseguir una mitjor comprensió i permetre l'optimització d'estos proccesos. En este context, la present tesi doctoral oferix una contribució al modelatge dels processos de regeneració. Part important d'este treball ha consistit en el desenvolupament i validació d'un model de regeneració que s'ha implementat en un model termofluidodinàmic 1D de DPF ja existent. Esta ferramenta s'ha desenvolupat proposant una definició detallada del mecanisme d'oxidació de sutja, presentant-se una anàlisi de l'efecte de les etapes que ho componen. El model proposat també s'ha adaptat per al seu ús en un model de valor mitjà de DPF, que junt amb el model de reactivitat química de catalitzadors d'oxidació desenvolupat en el context d'esta tesi, ha sigut empleat en l'anàlisi de la influència de la variació dels paràmetres bàsics de l'estratègia de post-injecció sobre la regeneració del DPF. D'altra banda, és sabut que el balanç entre les etapes de càrrega i regeneració del filtre determina la distribució de les partícules en el seu interior. Així, esta tesi es completa amb un estudi sobre l'efecte de la distribució de les partícules sobre el comportament del DPF i com la distribució no homogènia de les partícules en el filtre condiciona el procés de regeneració activa, afectant també les hipòtesis a considerar per al seu correcte modelatge. Com a conseqüència d'estos treballs s'ha definit un conjunt de ferramentes computacionals que faciliten la comprensió dels processos de regeneració i que són aplicables a l'ampli rang de casos d'estudi considerats. / [EN] The continuous tightening of emission regulations for internal combustion engines has forced their uninterrupted development, seeking to improve their fuel consumption and reduce their environmental impact. This fact has led to the progressive introduction of exhaust aftertreatment systems in combustion engines in order to limit the emission of polluting substances into the atmosphere. In the specific case of particle emission, the use of wall flow particle filters has been standardized as a technological solution to comply with current regulations both in diesel (DPF) and gasoline (GPF). The operating principle of these filters results in an accumulation of soot inside and on their porous walls. This accumulation has an important effect on the fluid-dynamic behavior of the filter, affecting the pressure drop and, hence, increasing the specific consumption of the engine. For this reason, and due to the limited accumulation capacity of the filter, regeneration processes are carried out to remove the stored soot particles, where two main strategies can be found. On the one hand, there are active regeneration strategies, that are performed periodically, through an external supply of energy. Among these strategies, the most common method is the use of post-injections. On the other hand, there are passive strategies that lead to soot oxidation without external energy sources and reduce the frequency of active regeneration events. The definition of the strategies, as well as their control, require the use of computational tools to achieve a comprehensive understanding and optimization of these processes. In this context, this doctoral thesis offers a contribution to the modeling of regeneration processes. An important part of this work was dedicated to the development and validation of a regeneration model that was implemented in an existing DPF thermofluid dynamic 1D model. This tool proposes a detailed definition of the soot oxidation mechanism, presenting an analysis of the effect of the steps that comprise it. The proposed model was also adapted for its use in a DPF mean value model and, together with the oxidation catalysts chemical reactivity model developed in the context of this thesis, has been used in the analysis of the influence of variation in the basic parameters of the post-injection strategy. Furthermore, it is known that the balance between the filter loading and regeneration stages determines the soot distribution. Thus, this thesis is completed with a study about the effect of the particle distribution on the behavior of the DPF and how the non-homogeneous distribution of the particles determines the active regeneration process, also affecting the hypotheses to be considered for its correct modeling. As a result of these studies, a set of computational tools was defined to allow the understanding of regeneration processes that are applicable in the wide range of case studies considered. / Sanchis Pacheco, EJ. (2019). Modelado de la oxidación del hollín en filtros de partículas diésel [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/120455
72

Contributions to modelling and control for improved hypoglycaemia and variability mitigation by dual-hormone artificial pancreas systems

Moscardó García, Vanessa 13 May 2019 (has links)
[ES] Las personas con diabetes tipo 1 carecen de la capacidad de secretar insulina y, por lo tanto, necesitan regular su glucosa en sangre con la administración de insulina exógena. El páncreas artificial se presenta como la solución tecnológica ideal para alcanzar los objetivos terapéuticos de la normoglucemia, liberando al paciente de la carga actual de autocontrol y manejo. Sin embargo, el riesgo de hipoglucemia y la variabilidad glucémica siguen siendo factores limitantes en los algoritmos de control actuales integrados en el páncreas artificial. El propósito de la presente tesis es profundizar en el conocimiento de la hipoglucemia y avanzar los algoritmos de control del páncreas artificial para minimizar la incidencia de hipoglucemia y reducir la variabilidad glucémica. Después de proporcionar una visión general del estado del arte del control de la glucosa y el páncreas artificial, esta tesis aborda temas relacionados con el modelado y el control, con las siguientes contribuciones: Se presenta una extensión del modelo de Bergman Minimal que tiene en cuenta la respuesta contrarreguladora a la hipoglucemia. Este modelo explica la relación entre los diversos cambios fisiológicos producidos durante la hipoglucemia, con la adrenalina y los ácidos grasos libres como actores principales. Como resultado, se obtiene una mejor comprensión de la hipoglucemia, lo que permite explicar una auto-potenciación paradójica de la hipoglucemia como se modela a través de enfoques funcionales en el ampliamente utilizado simulador de diabetes tipo 1 UVA-Padova, que se utilizará en esta tesis para la validación in silico de los controladores desarrollados. Se realiza una evaluación de las métricas de variabilidad de la glucosa y los índices de calidad de control. La evaluación de la variabilidad glucémica en el desempeño de los controladores es necesaria; pero todavía no hay un conjunto de métricas de variabilidad glucémica que sea considerado como el "gold estándar". Por tanto, se lleva a cabo un análisis de las métricas de variabilidad disponibles en la literatura para definir un conjunto de indicadores recomendables. Debido a las limitaciones de los sistemas de páncreas artificiales unihormonales para mitigar la hipoglucemia en escenarios difíciles como el ejercicio, esta tesis se centra en el desarrollo de nuevos algoritmos de control bihormonales, con infusión simultanea de insulina y glucagón. Se propone un controlador coordinado bihormonal con estructuras de control paralelas como un algoritmo de control factible para la mitigación de la hipoglucemia y la reducción de la variabilidad glucémica, demostrando un rendimiento superior al de las estructuras de control utilizadas actualmente con lazos de control independientes de insulina y glucagón. Los controladores están diseñados y evaluados in silico en escenarios desafiantes y su rendimiento se evalúa principalmente con el conjunto de métricas definidas previamente como las recomendables. / [CA] Les persones amb diabetis tipus 1 no tenen la capacitat de secretar insulina secreta i per tant, necessiten regular la seva glucosa en sang amb l'administració d'insulina exògena. El Pàncrees Artificial es presenta com la solució tecnològica ideal per assolir els objectius terapèutics de la normoglucèmia, alliberant al pacient de la càrrega actual d'autocontrol. No obstant, el risc d'hipoglucèmia i l'alta variabilitat glucèmica continuen sent un factor limitant en els algoritmes de control actuals integrats en el Pàncrees Artificials. El propòsit de la present tesi és aprofundir en el coneixement de la hipoglucèmia i millorar els algoritmes de control per corregir amb antelació la dosi excessiva d'insulina, minimitzant la incidència d'hipoglucèmia i reduint la variabilitat glucèmica. Després de donar una visió general de l'estat de l'art del control de la glucosa i el pàncrees artificial, aquesta tesi aborda aspectes de modelització i control, amb les següents contribucions: Es presenta una extensió del model Minimal de Bergman amb la contrarregulació. Aquest model explica la relació entre els diversos canvis siològics produïts durant la hipoglucèmia. Així, permet comprendre millor la hipoglucèmia i comparar els resultats amb els proporcionats per l'enfocament funcional del simulador de diabetis tipus 1 més utilitzat a la comunitat científica. Es realitza una avaluació de les mètriques de variabilitat glucèmica i dels índexs de qualitat de control. Es necessària l'avaluació de la variabilitat glucèmica en el rendiment dels controladors; però encara no hi ha un conjunt de mètriques considerades com les "gold standard". Per tant, es realitza una anàlisi de les mètriques de variabilitat disponibles a la literatura per definir un conjunt d'indicadors recomanables. Es proposa un controlador bi-hormonal coordinat amb estructures de control paral.leles com un algoritme de control viable per a la mitigació d'hipoglucèmia i la reducció de la variabilitat glucèmica. Els controladors estan dissenyats i avaluats in-silico en escenaris desafiadors i el seu rendiment es valora principalment amb el conjunt de mètriques definides prèviament com les mètriques recomanables. / [EN] People with Type 1 Diabetes lack the ability to secrete insulin and therefore need to regulate their blood glucose with exogenous insulin delivery. The Artificial Pancreas is presented as the ideal technological solution to reach the therapeutic goals of normoglycaemia, freeing the patient from the current burden of self-control and management. Nevertheless, the risk of hypoglycaemia and the high glycaemic variability are still a limiting factors in the current control algorithms integrated in the Artificial Pancreas. The purpose of the present thesis is to delve into knowledge of hypoglycaemia and to advance in the artificial pancreas control algorithms in order to minimise hypoglycaemia incidence and reduce glycaemic variability. After providing an overview of the state of the art in the eld of glucose control and articial pancreas, this thesis addresses issues on modelling and control, with the following contributions: An extension of the Bergman Minimal model accounting for counterregulatory response to hypoglycaemia is presented. This model explains the relationship between the several physiological changes produced during hypoglycaemia, with adrenaline and free fatty acids as main players. As a result, a better understanding of hypoglycaemia is gained, allowing to explain a paradoxical auto-potentiation of hypoglycaemia as modeled through functional approaches in the widespread used UVA-Padova Type 1 Diabetes simulator, which will be used in this thesis for in silico validation of the developed controllers. An assessment of glucose variability metrics and control quality indices is carried out. The evaluation of the glycaemic variability on the controllers performance is necessary; but there is not a gold standard variability metrics yet. Therefore, an analysis of the variability metrics available in literature is conducted in order to define a recommendable set of indicators. Due to the limitations of single-hormone artificial pancreas systems in mitigating hypoglycaemia in challenging scenarios such as exercise, this thesis focuses on the developement of new dual-hormone control algorithms, with concomitant infusion of insulin and glucagon. A coordinated dual-hormone controller with parallel control structures is proposed as a feasible control algorithm for hypoglycaemia mitigation and glycaemic variability reduction, demonstrating superior performance as currently used control structures with independent insulin and glucagon control loops. The controllers are designed and evaluated in-silico under challenging scenarios and their performance are assessed mainly with the set of metrics defined previously as the recommendable ones. / Moscardó García, V. (2019). Contributions to modelling and control for improved hypoglycaemia and variability mitigation by dual-hormone artificial pancreas systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/120456
73

Modelado y simulación de la distribución de energía eléctrica en sistemas genéricos consistentes en diversas fuentes y múltiples modos de transmisión. Optimización del uso de las fuentes con criterios de sostenibilidad

Valdivieso-Sarabia, Rafael J. 13 February 2014 (has links)
Esta investigación aborda el problema de la distribución eléctrica en sistemas genéricos compuestos por varias fuentes de energía (hidroeléctrica, eólica, solar, etc.), múltiples medios de transmisión (líneas de transmisión, medios de almacenamiento, convertidores, etc.) y varios centros de consumo (edificios, viviendas, electrodomésticos, portátiles, teléfonos móviles, etc.), concretamente, haciendo uso de criterios sostenibles que aprovechen las bondades de las fuentes de energía renovables. La aportación global de este trabajo es la generalidad del modelo formal de sistema eléctrico, basado en sistemas multiagente, y las estrategias de gestión parametrizadas, que permiten obtener sistemas de gestión de la distribución acordes a un problema concreto. En consecuencia, esta investigación abre una línea metodológica e instrumental para la obtención de soluciones al problema de la distribución eléctrica a todos los niveles, desde las redes de alta energía, hasta el microabastecimiento que requieren los dispositivos "wearable", desde las sencillas redes con fuente única de suministro, hasta las configuraciones híbridas multifrecuenciales e incluso multimedia (coexistencia de transporte de energía con datos e información de control).
74

Diseño del proceso de purificación de estireno mediante adsorción en alúmina

Rivero Martínez, María José 15 July 2002 (has links)
En este trabajo se ha realizado el diseño del proceso de purificación deestireno mediante adsorción en alúmina. Esta purificación consiste básicamente enla separación de agua y el inhibidor de la polimerización, 4-terc-butil catecol (TBC),presentes en el estireno como etapa previa en la obtención del caucho sintético, yaque la presencia de estos compuestos dificulta y encarece dicha operación.Para determinar las condiciones experimentales de trabajo, se ha tomadocomo referencia un proceso operativo actualmente a escala industrial en la plantade fabricación de caucho sintético que la empresa Dynasol Elastómeros posee enGajano (Cantabria). Así mismo, se ha empleado el estireno que esta empresautiliza como materia prima que posee alrededor de 150 mg/kg de agua y 15 mg/kgde TBC.En primer lugar, se ha procedido a la determinación de los equilibrios deadsorción agua-alúmina y TBC-alúmina. A continuación, se ha efectuado una seriede experimentos dinámicos a escala de laboratorio en los que se han obtenido laevolución de la concentración de cada uno de los adsorbatos en el estireno a lasalida de la columna de adsorción en función del tiempo. Posteriormente, se hallevado a cabo el desarrollo del modelo matemático para lo que se han analizadolas distintas etapas en el proceso de transferencia de materia, así como susconsecuentes resistencias, y se han obtenido los parámetros correspondientes.A continuación, se ha realizado un análisis del cambio de escala, para lo quese ha procedido a la construcción de una planta piloto en la propia factoría queproduce el caucho sintético, en la que se han realizado diversos experimentos quehan sido contrastados con las simulaciones que predecía el modelo matemático. Lacomparación ha permitido validar el modelo y los parámetros cinéticos.Finalmente, utilizando el modelo y los parámetros obtenidos en las etapasanteriores se ha simulado el proceso de purificación de estireno operativo a escalaindustrial. / In this work, the design of the purification process of styrene by adsorptiononto activated alumina, has been carried out. The purification consists basically ofremoving water and a polimerisation inhibitor, 4-terc-butyl catechol (TBC), as aprevious step in the manufacture of synthetic rubber.To determine the experimental working conditions, a real process thatoperates on industrial scale in a factory which produces synthetic rubber in Spain(Dynasol Elastómeros) has been taken as reference. The styrene used in this workis the industrial raw material and contains approximately 150 mg/kg of water and 15mg/kg of polimerisation inhibitor.First, adsorption equilibrium water-alumina and TBC-alumina have beenstudied. Then, some dynamic experiments on laboratory scale have been carriedout in order to obtain breakthrough curves for both adsorbates. A mathematicalmodel that describes the mass transfer process has been developed analysing thepossible resistances, and the corresponding parameters have been obtained.To analise the scale-up of the adsorption process a pilot plant has been builtin the synthetic rubber factory and the experimental results have been comparedwith the results predicted by the mathematical model. Finally, thanks to themathematical model, the parameters that have been obtained during the laboratoryscale experiments and its validation on pilot plant scale, a model that can describethe industrial process and can be useful to find the best operation conditions hasbeen developed.
75

Contribuciones al alineamiento de nubes de puntos 3d para su uso en aplicaciones de captura robotizada de objetos

Torre Ferrero, Carlos 08 November 2010 (has links)
En aplicaciones de captura robotizada se ha hecho necesario el uso de información tridimensional de los objetos que son manipulados. Esta información puede obtenerse mediante dispositivos de adquisición 3D, tales como escáneres láser o cámaras de tiempo de vuelo, que proporcionan imágenes de rango de los objetos. En este trabajo de tesis se presenta un nuevo enfoque para encontrar, sin disponer de una estimación previa, la transformación rígida que produzca una alineación adecuada de las nubes de puntos obtenidas con esos dispositivos. El algoritmo realiza una búsqueda iterativa de correspondencias mediante la comparación de descriptores 2D en varios niveles de resolución utilizando para ello una medida de similitud específicamente diseñada para el descriptor propuesto en esta tesis. Este algoritmo de alineamiento se puede utilizar tanto para modelado 3D como para aplicaciones de manipulación de objetos en situaciones en las que los objetos estén parcialmente ocluidos o presenten simetrías. / In applications of robotic manipulation of objects, the use of three-dimensional information of objects being manipulated has been made necessary. This information can be obtained by 3D acquisition devices, such as laser scanners or cameras of flight time, providing range images of objects. This thesis presents a new approach to find, without having a previous estimate, the Euclidean transformation that produces a proper alignment of point clouds obtained with these devices. The algorithm performs an iterative search for correspondences by comparing 2D descriptors at various levels of resolution using a similarity measure specifically designed for the descriptor proposed in this thesis. This alignment algorithm can be used for both 3D modelling and robotic manipulation applications when objects are partially occluded or have symmetries.
76

Viewpoint-driven Simplification of Polygonal Models using Information Theoretic measures

Castelló Boscá, Pascual 26 October 2007 (has links)
Los modelos poligonales actualmente dominan el campo de los gráficos interactivos. Esto es debido a su simplicidad matemática que permite que los más comunes algoritmos de visualización se implementen directamente en el hardware. Sin embargo la complejidad de estos modelos (medidos por el número de polígonos) crece más rápido que la capacidad del hardware grafico para visualizarlos interactivamente. Las técnicas de simplificación de polígonos ofrecen una solución para tratar estos modelos complejos. Estos métodos simplifican la geometría poligonal reduciendo el coste de visualización del modelo sin una pérdida del contenido visual del objeto. Esta idea aun sigue vigente aunque es una idea ya antigua en gráficos por ordenador. Durante los últimos años ha surgido un gran abanico de métodos de simplificación. La mayoría ha abordado el problema de la simplificación desde el punto de vista geométrico. Es decir, elaborando métricas que permiten guiar la simplificación calculando el error cometido en cada paso utilizando una medida puramente geométrica. Recientemente se han desarrollado nuevos métodos que intentan guiar el proceso de simplificación mediante una medida de similitud visual. En otras palabras, que los modelos simplificados se vean de forma parecida cuando se visualizan.El error geométrico es uno de los factores que influye en la similitud visual pero no es el único. Otros factores como las siluetas, las propias oclusiones y transparencias, los atributos de superficie, etc. influyen notablemente. En esta tesis se presenta un nuevo método de simplificación de mallas de polígonos. Este método realiza una simplificación guiada por el punto de vista, acometiendo una simplificación cuyo objetivo es garantizar la similitud visual. Esto permite que muchas aplicaciones cuyo objetivo sea la visualización interactiva como por ejemplo los juegos de ordenador se beneficien en buena medida. Se han propuesto diferentes métricas para conducir el método de simplificación desarrollado, todas ellas están basadas en la Teoría de la Información. El empleo de una métrica u otra permite llevar a cabo tres grandes tipos de simplificaciones. En el primer grupo se consigue una simplificación cuyo factor primordial es la similitud visual lo que conduce a la obtención de modelos simplificados cuya geometría oculta ha sido simplificada en gran medida o en su totalidad.En el segundo grupo de métricas se aborda la simplificación con el objetivo de la similitud visual pero respetando en mayor medida la geometría oculta del modelo. Con lo que el error geométrico es menor que en grupo anterior a costa de un mayor error visual. Finalmente, el tercer grupo permite que se pueda acometer una simplificación que intenta preservar las regiones visualmente salientes de la malla mediante la aplicación del concepto de saliency de malla, definido a partir de la divergencia de Jeshen-Shannon. Estas pequeñas regiones se mantienen mejor si se hace uso de este método, de otra forma serían eliminadas ya que tienen un coste de simplificación bajo.
77

Estimación estadística, modelado y análisis de la trasmisión y coste de la variabilidad en procesos multi-etapa. Aplicación en la fabricación de baldosas cerámicas

Gras Llopis, Matias Alberto 20 December 2010 (has links)
Metodología para estimar un modelo matemático desarrollado y validado a partir de la información obtenida en un proceso, para explicar y predecir la variación observable en una característica de calidad así como un modelo que explique el coste de la variación. Los modelos se obtienen utilizando herramientas de control estadístico y los conceptos de costes de calidad y su combinación permite identificar las actuaciones más eficaces para la mejora del proceso y predecir su resultado. La aplicación práctica se realiza en un proceso de fabriación de baldosas cerámicas para reducir la variación dimensional.
78

Comportamiento característico de la estructura vertical de la ionosfera en condiciones de calma y perturbadas

Blanch Llosa, Estefania 23 December 2009 (has links)
Aquesta investigació s'ha centrat en profunditzar en el coneixement del comportament de l'estructura vertical de la regió F de la ionosfera, tant en condicions de calma com pertorbades, i en la seva modelització mitjançant funcions analítiques. Les pretensions d'aquesta investigació han estat motivades per les discrepàncies existents entre les prediccions ionosfèriques del gruix i la forma del perfil de densitat de la regió F en condicions de calma i la seva variació característica, i per l'absència d'un model capaç de reproduir la resposta de l'altura del màxim de ionització en condiciones pertorbades. En aquesta investigació s'ha determinat el comportament patró del gruix i la forma del perfil de densitat electrònica de la regió F en condicions de calma (determinats pels paràmetres B0 i B1 del model Internacional de Referència de la Ionosfera, IRI) en un ampli rang de longituds i latituds. Amb això, s'ha desenvolupat un model global per a cada paràmetre mitjançant una formulació analítica simple que simula les variacions temporals d'aquests en condiciones de calma. La simulació d'aquests models millora (en termes de l'error quadràtic mig, RMSE) les prediccions de l'IRI en un 40% per a B0 i en un 20% per a B1. També s'ha caracteritzat la reacció de l'altura del màxim de ionització, hmF2, a latituds mitges i condicions magnèticament pertorbades, i s'ha determinat un comportament sistemàtic d'aquesta pertorbació, ∆hmF2, la morfologia de la qual depèn del camp magnètic interplanetari (IMF), del temps local, de l'estació de l'any i la latitud. Amb això, s'ha desenvolupat un model empíric que simula la pertorbació d'hmF2 resultant durant tempestes geomagnètiques intenses mitjançant funcions analítiques. Aquest model prediu els esdeveniments d'∆hmF2 amb un 86 % d'encert sense generar falses alarmes i amb un RMSE de 40 km respecte els valors experimentals, que és equivalent al rang de variació experimental obtingut en condicions de calma. Finalment, destacar que també han estat objecte d'estudi en aquesta investigació els mecanismes responsables del comportament ionosfèric tant en condiciones de calma com pertorbades i, especialment, el model de tempesta basat en el paper rector de la circulació del vent neutre termosfèric. / Esta investigación se ha centrado en profundizar en el conocimiento del comportamiento de la estructura vertical de la región F de la ionosfera, tanto en condiciones de calma como perturbadas, y en su modelado mediante funciones analíticas. Las pretensiones de esta investigación han estado motivadas por las discrepancias existentes entre las predicciones ionosféricas del espesor y la forma del perfil de densidad de la región F en condiciones de calma y su variación característica, y por la ausencia de un modelo capaz de reproducir la respuesta de la altura del máximo de ionización a condiciones perturbadas. En esta investigación se ha determinado el comportamiento patrón del espesor y la forma del perfil de densidad electrónica de la región F en condiciones de calma (determinados por los parámetros B0 y B1 del modelo Internacional de Referencia de la Ionosfera, IRI) en un amplio rango de longitudes y latitudes. Con esto, se ha desarrollado un modelo global para cada parámetro mediante una formulación analítica simple que simula las variaciones temporales de éstos en condiciones de calma. La simulación de estos modelos mejora (en términos del error cuadrático medio, RMSE) las predicciones del IRI en un 40% para B0 y en un 20% para B1. También se ha caracterizado la reacción de la altura del máximo de ionización, hmF2, en latitudes medias y condiciones magnéticamente perturbadas, y se ha determinado un comportamiento sistemático de dicha perturbación, ∆hmF2, cuya morfología depende del campo magnético interplanetario (IMF), del tiempo local, de la estación del año y de la latitud. Con ello, se ha desarrollado un modelo empírico que simula la perturbación en hmF2 resultante durante tormentas geomagnéticas intensas mediante funciones analíticas. Este modelo predice los eventos de ∆hmF2 con un 86% de acierto sin generar falsas alarmas y con un RMSE de 40 km respecto a los valores experimentales, que es equivalente al rango de variación experimental obtenido en condiciones de calma. Finalmente, resaltar que también han sido objeto de estudio en esta investigación los mecanismos responsables del comportamiento ionosférico tanto en condiciones de calma como perturbadas y, especialmente, el modelo de tormenta basado en el papel rector de la circulación del viento neutro termosférico. / The main objective of this research is to improve the knowledge on the vertical structure of the ionospheric F region during both, quiet and disturbed conditions, and its modelling by analytical functions. The main motivations of this research were the existing discrepancies between the predictions of the F region electron density profile thickness and shape during quiet conditions and their characteristic variation, and the absence of a model capable to reproduce the electron density peak height response to disturbed conditions. In this research, the pattern behaviour for quiet conditions of the F region electron density profile thickness and shape (determined by the International Reference Ionosphere model (IRI) parameters B0 and B1) was determined in a wide range of longitudes and latitudes. Then, a global model was developed for each parameter using a simple analytical formulation that simulates their temporal variations during quiet conditions. These model simulations improve (in terms of the root mean square error, RMSE) the IRI predictions by 40 % for B0 and by 20 % for B1. The reaction of the electron density peak height, hmF2, at mid latitudes and magnetically disturbed conditions, was also characterized and the systematic behaviour of this disturbance, ∆hmF2, was determined. The morphology of this disturbance depends on the interplanetary magnetic field (IMF), local time, season and latitude. Furthermore, an empirical model was developed to simulate the hmF2 disturbance during intense geomagnetic storms using analytical functions. This model predicts the ∆hmF2 events with a success of 86 % without generating false alarms and with a RMSE of 40 km with respect to the experimental values, which is equivalent to the experimental variation range obtained during quiet conditions. Finally, the mechanisms responsible of the ionospheric behaviour during both, quiet and disturbed conditions, were also studied in this research, specially the storm model based on the leading role of the thermospheric neutral wind circulation.
79

Estudio numérico-experimental de la dinámica de la zona cercana a la costa

Mosso Aranda, Octavio Cesar 07 July 2004 (has links)
En la actualidad, las decisiones en la ingeniería de costas y la gestión costera se apoyan, cada vez más, en los modelos numéricos predictivos de los procesos costeros, que por otra parte, se basan en modelos conceptuales simplificados que no reproducen de manera adecuada todos los procesos físicos relacionados en la dinámica costera. Buena parte de este problema se debe a la gran cantidad de incertidumbres que a día de hoy siguen existiendo en lo referente a la complejidad de la hidrodinámica, la transferencia de energía del oleaje a distintas escalas hidrodinámicas, la interacción de los flujos con el fondo marino y el transporte de sedimento y evolución del fondo resultantes. A pesar de esto y de su creciente demanda, raramente estos modelos se comparan (y validan) con datos de campo reales tomados en la zona de interés. Sin la adecuada calibración, la utilización de los resultados del modelado numérico de los procesos hidromorfodinámicos y de evolución costera a situaciones reales es, como mínimo, ambiguo y en ciertos casos podría ser hasta contraproducente. Para mejorar los planteamientos conceptuales de los modelos, es necesario realizar medidas de campo para mejorar el conocimiento de los procesos hidromorfodinámicos y que a su vez, sirvan para validar las predicciones numéricas. Dado que la mayor parte de los datos de campo disponibles se han tomado en playas en Estados Unidos, su utilidad para calibrar modelos en playas de otras partes del mundo es limitada. Para cubrir esta carencia, recientemente se han realizado importantes esfuerzos de investigación en este campo en Europa. En ésta tesis se presentan tres campañas de campo a nivel Europeo encaminadas, por una parte, a mejorar el conocimiento de los procesos físicos hidrodinámicos (Delta'93 y Delta'96 en el Delta del Ebro), y por otra, a la obtención de información esencial para la simulación numérica de los procesos morfodinámicos (Egmond, Holanda). El análisis de los datos obtenidos de las campañas Delta'93 y Delta'96 se ha centrado en la separación de las distintas escalas hidrodinámicas presentes en la zona cercana a la costa, la cuantificación de la transferencia de energía del oleaje a dichas escalas, la caracterización de la estructura vertical de las corrientes inducidas por la rotura del oleaje, la fricción con el fondo y la evolución batimétrica resultante. Los datos obtenidos de la campaña de Egmond se han utilizado para la calibración y validación del campo de oleaje, corrientes inducidas por la rotura y la evolución del perfil de playa predichas por un modelo hidromorfodinámico desarrollado en el LIM-UPC.
80

Mathematical modelling of the anchoring effect on the underconfidence bias / Modelado matemático del efecto del anclaje sobre el sesgo de subconfianza

Macbeth, Guillermo, Razumiejczyk, Eugenia 25 September 2017 (has links)
The anchoring effect is defined as the tendency of human thought to the fixation on certain pieces of information that affect decision-making. In the same context, the underconfidence bias is understood as an agent’s propensity to underestimate his or her own objective performance. While some aspects of these phenomena are well known, there are no formal models that specifically describe the relationship between both. This paper presents: i) an experiment that illustrates the anchoring effect on the underconfidence bias by both reducing and amplifying such bias in the domain of geographic decision tasks and ii) the foundations of a new mathematical model that promotes precision in the study of the relationship between anchoring and underconfidence. / Se define el efecto de anclaje como la tendencia del pensamiento humano a la fijación endeterminados fragmentos de información que afectan la toma de decisiones. El sesgo de subconfianza, por su parte, se entiende como la propensión de un agente a subestimar su desempeño objetivo. Si bien se conocen algunos aspectos de la interacción entre ambos efectos, no se dispone de modelos formales que describan tal relación específica. Este estudio presenta: i) un experimento que pone en evidencia el efecto que ejerce el anclaje tanto para reducir, como para amplificar la subconfianza en tareas de decisión geográfica y ii) los fundamentos de un modelo matemático novedoso que permite estudiar con mayor precisión la relación del anclaje con la subconfianza

Page generated in 0.1079 seconds