211 |
Incidencia económica de la degradación del suelo por erosión eólica : el caso de los sistemas productivos de la estepa pampeana semiáridaLorda, Héctor 14 May 2009 (has links)
El suelo es uno de los componentes principales de los agro-ecosistemas (capital natural), que junto a las demás formas de capital, brindan servicios ecológicos (SE) destinados a las necesidades y bienestar humanos. La Región Semiárida Pampeana (RCP), en la Provincia de La Pampa, posee suelos poco desarrollados, recibe escasas lluvias y vientos de moderados a fuertes. Estas condiciones son propicias para el proceso de erosión eólica potencial, es decir la pérdida de suelo por acción del viento. Esta pérdida implica la reducción de la fertilidad física y química, con la consecuente reducción en el flujo de los SE. Las condiciones de manejo del suelo, definen la erosión eólica actual, la cual puede cuantificarse experimentalmente. Adicionalmente, se puede determinar la composición química de estos residuos. El avance de la agricultura, la intensificación de los sistemas productivos y prácticas de laboreo tradicionales inapropiados, hacen de este fenómeno un proceso irreversible, cuando se supera valores umbrales considerados moderados. Se expresa en toneladas por hectárea (t/ha). El productor no considera entre sus costos de producción, los SE del suelo que esta utilizando, los que toma de un stock inicial y sobre los que tampoco existe un precio de mercado de referencia. Una de las hipótesis de trabajo fue que las pérdidas por erosión actual, en rotaciones y en el ciclo de los cultivos agrícolas, pueden alcanzar niveles moderados a severos. La incorporación en los costos directos de cultivos agrícolas, del nitrógeno (N) y fósforo (P) involucrados en el material erosionado, por su magnitud puede causar niveles de quebranto en el margen bruto (MB) final. El costo de reemplazo de estos nutrientes se lo denominó Indicador Ambiental (IA) y se estimó, monetariamente, a través de su equivalente en nutrientes de fertilizantes.
Otra hipótesis planteada, sugiere que es posible plantear actividades tecnológicamente superadoras, que reduzcan los niveles de erosión, mejoren el balance de algunos nutrientes esenciales y que se integren en un sistema productivo ambiental y económicamente sustentable. Para estimar la tasa de erosión eólica, se utilizó el modelo empírico identificado en castellano con las siglas EWEQ (Wind Erosion Equation), el cual fue cargado con secuencias de cultivos reales (rotaciones), con longitud de tiempo variables y para 6 sitios de la estepa pampeana: 3 sitios de la denominada Subzona Castex (Castex Norte, Castex Sur-Santa Rosa y Castex Sur-Anguil); 2 sitios de la Subzona Pico (Pico Norte y Pico Sur) y 1 sitio de la Subzona Guatrache. El modelo devuelve la tasa de erosión promedio anual de toda la rotación, como también la tasa de erosión del ciclo de cada cultivo agrícola (t/ha ciclo), aprovechando el detalle en las fecha precisas entre operaciones. Con estos registros, se estimaron los costos directos de todos los ciclos disponibles de trigo, girasol, soja y maíz. Utilizando los precios de insumos y productos de Febrero de 2008, se calculó la incidencia del IA, en los costos directos y sus efectos en el MB final.
El plan de optimización se realizó para las condiciones agroclimáticas, dimensiones y caracterización de sistemas productivos del Sitio Castex Norte (Subzona Castex), a través de una matriz de programación lineal (PL). Se diseñaron previamente los planteos técnicos basados en tecnologías disponibles, los resultados económicos (MB) y el balance de N, P y carbono orgánico (CO) de cada actividad.
La tasa de erosión eólica estimada para cultivos en siembra convencional (SC) en la primera parte, fue un insumo directo de la matriz, utilizada como restricción ambiental. Las pérdidas de N y P involucradas por esta vía, formaron parte de los egresos, dentro del balance de nutrientes. Fue necesario simular en el EWEQ, aquellas alternativas tecnológicamente mejoradas, no disponibles entre los registros reales y donde predominó la siembra directa (SD) y estrategias de fertilización. También se estimaron los índices para algunos de los recursos forrajeros de la actividad ganadera (invernada). Se puso énfasis en las restricciones ambientales, mientras que desde lo técnico-agronómico no hubo limitaciones en las restricciones de capital de trabajo ni diferenciación en el tipo de suelo. Para esta segunda etapa, se utilizaron precios de insumos de 2006 y las cotizaciones del disponible 2007 para los productos. Se detectaron menores tasas de erosión eólica en SD que en SC. En el Sitio Guatraché se redujo de 10,0 t/ha en una rotaciones en SC a 5,6 t/ha en SD (44% menos). También se redujo en más de un 50% entre ciclos de cultivos, dentro de una misma rotación, al utilizar SD. En todos los casos, significó un pasaje del grado de erosión de moderado/severo a erosión ligera. El costo de reemplazo del IA, fue variable entre cultivos, entre sistema de siembra (SD vs SC) e influenciado por el nivel de costos directos totales. En los cultivos conducidos en SC, con tasas de erosión eólica cercanas y levemente superiores a 8 t/ha ciclo, la participación del IA fue de 20 a 40 % en trigo; 15 a 25% en maíz; 20 a 35% en girasol y de 20 a 30% en soja. Con tasas de erosión 4 a 6 t/ha ciclo en SD, el IA tuvo una participación del 8% en maíz; del 8 a 16 % en trigo y del 8 a 21% en girasol. Respecto al efecto sobre el MB inicial, solo se produjeron quebrantos cuando los rendimientos de trigo fueron inferiores a 1t/ha y un caso de maíz, con una producción de 1,4 t/ha. Las actividades propuestas en la matriz de PL permitieron detectar déficits generalizados en el balance de nutrientes, en aquellos cultivos conducidos con esquemas tradicionales de manejo tecnológico y/o de escaso nivel de fertilización. Por el contrario, la actividad ganadera mostró todos los índices positivos. Sobre una explotación de 506 ha, la mejor solución de la matriz de PL quedo integrada por 143 ha de trigo en SC con aplicación de fertilizante apuntando a máximo rendimiento (TrSCDMR); 170 ha de maíz en SD y de alta producción (MaSDAP) y 193 ha de girasol en SD con fertilización de máxima respuesta (GiSDFER). Este sistema agrícola alcanzó el máximo margen bruto total (MBT) con una erosión eólica promedio anual de 4,9 t/ha. Los beneficios ambientales de la ganadería no se aprovecharon frente a un precio promedio de 2,70 $/kg de carne. Sin embargo, los costos de sustitución indicaban que la invernada podía participar con un precio de 3,46 $/kg de carne (+28%). Siendo un valor esperable dentro de la volatilidad de precios de la serie 2007/2008, se simuló un escenario mixto, donde la invernada participó con 245 ha, la misma alternativa de girasol en SD con 153 ha, y el mismo maíz de alta producción con 143 ha. Entre el sistema agrícola y el mixto, el MBT se redujo solo el 1% ($ 390.660 vs. $386.795 respectivamente).
Palabras clave: erosión eólica, servicios ecológicos, programación lineal, balance de nutrientes, nitrógeno, fósforo. / Soil is one of the main components of agro-ecosystems (natural capital). Together with other forms of capital, provides ecological services (ES) for human needs and welfare. The Semi-Arid Pampas Region (SPR) has poorly developed soils, receives little rain and moderate to strong winds. These conditions are favourable for the process known as potential wind erosion, namely the loss of soil by wind action. This loss implies a reduction of both physical and chemical fertility, with consequent reduction in the flow of those ES, mentioned above. The conditions of soil management, define the current wind erosion, which can be quantified experimentally. Additionally, chemical composition of these residues can be determined. It is expressed in tons per hectare (t/ha).The advancement of agriculture, the intensification of production systems and traditional inappropriate tillage practices, generates an irreversible phenomenon, when it exceeds threshold values, considered moderate. Farmers do not consider among their production costs, the ES they are using, which they take from an initial stock. In addition, there is no price market reference.
One of the working hypothesis was that losses caused by current wind erosion, in both rotations and crops cycle, can achieve moderate to severe levels. The incorporation into crops direct costs of nitrogen (N) and phosphorus (P) involved in the eroded material might produce actual gross margin (GM) losses. The replacement cost of these nutrients was named in this research as Environmental Index (EI) and it was considered, in money terms, through its equivalent in nutrients from fertilizer. Another hypothesis suggests that it is possible to raise productive activities technologically enhanced that reduces the levels of erosion, improve the balance of some essential nutrients and can be integrated into a production system, environmentally and economically sustainable. The empirical model Wind Erosion Equation (EWEQ) was used to estimate wind erosion rate. Its inputs were farmers real data, including crops seasonal sequences (rotations). Records varied in lengths of time and came from six places in the Pampas Steppe: three places in the so-called Sub-Zone "Castex" (North Castex site, South-Castex- Santa Rosa site and South Castex-Anguil site), two in the Sub-Zone "Pico" (North Pico site and South Pico site) and one site of Sub-Zone "Guatraché". The model returns the average annual erosion rate of the entire rotation, and the cycle crop erosion rate (t/ha cycle). This last rate takes advantage of the detail in the precise date information between machinery operations, within the model. These records, also allowed estimating direct costs of all the available crops cycles of: wheat, sunflower, soybeans and corn. Using inputs and commodities prices of February 2008, the incidence of EI in direct costs and its impact on the final GM, was calculated.
The optimization plan was carried out for agro-climatic conditions, farm size and production systems patterns of North Castex Site (Sub-Zone "Castex"), through a matrix of linear programming (LP). Previously, technical set up approaches were designed, based on available technology, also the economic performance (GM) and the balance of N, P and organic carbon (OC) of each activity. The estimated wind erosion rate estimated for crops in the first part of the study and involving conventional tillage (CT) sowing system was a direct input for the matrix, used as environmental constraints. The concentration of N and P involved in this losses, were part of discharges within the balance of nutrients. It was necessary to use the EWEQ, to simulate those alternatives technologically enhanced, witch no records were available, and where no-tillage (NT) and fertilization strategies have been used. It was also estimated rates for some of the forage resources of livestock activity (fattening steers). Emphasis was placed on the environmental constraints, while no limitations were set from those technical-agronomic constraints such as working capital or differentiation in the type of soil. For this second stage is used pricing of inputs, 2006 and 2007 current prices of commodities. Wind erosion rates resulted lower in NT than in CT. In Site Guatraché the index varied from 10.0 t/ha year-1 in a CT rotation, to 5.6 t/ha year-1 in NT rotation (44% less). It also declined by over 50% between cycles of crops, within a single rotation, by using NT. In all cases, it was an overtaking from a moderate/severe degree of erosion to light erosion rate. The replacement cost of EI, varied between crops, between sowing system (NT vs CT) and highly influenced by the level of total direct costs. Those crops conducted in CT, with wind erosion rates nearby and slightly higher than 8 t/ha cycle-1, the EI share in costs was 20 to 40% in wheat, 15 to 25% in corn, 20 to 35% in sunflower and 20 to 30% in soybeans. With erosion rates of 4 to 6 t/ha cycle-1, in NT cycle, the EI had an 8% share of corn costs, from 8 to 16% in wheat and from 8 to 21% in sunflower. Concerning to the effect on initial GM, economic losses occurred only when the yields of wheat were lower than 1t/ha and in the case of corn, one case was found when production reached 1,4 t/ha. The proposed activities in the matrix of LP helped to detect widespread deficits in the balance of nutrients in crops those conducted with traditional patterns of technological management and/or low levels of fertilization. By contrast, livestock activity showed all positive indexes. On a farm of 506 hectares, the best solution of the matrix of LP resulted in 143 ha of CT wheat with fertilizer application aimed at maximum performance (TrSCDMR); 170 ha of NT corn and high production (MaSDAP) and 193 ha of NT sunflower with the highest expected fertilization response (GiSDFER). This "grain cropping system reached a maximum total gross margin (TGM) with an average annual wind erosion rate of 4.9 t/ha year-1. The environmental benefits of livestock are not exploited, facing an average price of 2,70 $/kg of live weight. However, the "shadow price" indicated that livestock activity might take part of the solution with a price of 3,46 $/ kg of live weight (+28%). Since this was an expected value along 2007/2008 meat market prices series, it was simulated a "crop and beefs mixed system where livestock participated with 245 ha, along with 153 ha of former NT sunflower alternative, and 143 ha of the same high production corn. When comparing the "grain cropping and "crop and beefs mixed systems, TGM decreased only 1% ($ 390,660 vs. $ 386,795, respectively).
|
212 |
Optimización estocástica acelerada con aplicación a la ingeniería de procesosDamiani, Lucía 09 October 2019 (has links)
Los problemas de optimización no lineal que poseen una gran cantidad de variables, ecuaciones y no linealidades, suelen presentar un considerable desafío matemático. Si bien existen numerosas plataformas de software para su formulación y resolución, muchas poseen costosas licencias propietarias. Además, aun contando con las herramientas más sofisticadas suele necesitarse un considerable esfuerzo de programación (reformulaciones, descomposiciones, etc.) para implementar y resolver este tipo de modelos.
En esta tesis se propone confeccionar una herramienta propia de optimización no lineal basada en metaheurísticas, empleando recursos de software libre, que permitan al grupo realizar proyectos de investigación y transferencia sin depender de los costos asociados a las licencias de las herramientas comerciales.
En los últimos años, las metaheurísticas basadas en poblaciones han tomado gran relevancia debido a su eficiencia, facilidad de programación, habilidad para resolver una amplia variedad de problemas y posibilidad de combinarse con otros algoritmos para mejorar sus prestaciones. En este trabajo, se implementó una de estas técnicas, la optimización por enjambre de partículas (PSO), para programar y resolver problemas de optimización no lineal. Dado que la optimización con PSO suele resultar computacionalmente costosa, se paralelizó el algoritmo sobre placas gráficas (GPU) de manera de explotar el paralelismo implícito de la técnica y aprovechar el amplio acceso a estos dispositivos de bajo costo disponibles en las computadoras de escritorio modernas.
El PSO implementado, en sus versiones serie y paralelo, se testeó con funciones benchmark de diferente dificultad, con y sin restricciones, ampliamente utilizadas en la literatura. También, se lo aplicó a modelos más complejos y de mayor escala del área de la ingeniería química. En todos los casos se observaron desempeños aceptables, tanto respecto de la calidad de las soluciones halladas como de las aceleraciones obtenidas. / Nonlinear optimization problems, with medium/large number of variables, equations and nonlinearities, usually present a significant mathematical challenge. Despite there are many technologies for their formulation and resolution, the most competitive ones, have expensive proprietary licenses. Moreover, even counting with these commercial tools, usually a considerable additional programming effort is required (reformulations, decompositions, etc.) to implement and solve this type of models.
This thesis proposes the development of a non-linear optimization tool based on metaheuristics using free software resources, to allow our group making research and transference projects without depending on the costs associated with commercial licenses.
In recent years, population based metaheuristics acquired relevance because of their efficiency, ease of programming, ability to solve a wide range of problems and possibility to combine with others algorithms to improve performance. In this work, one of these techniques, the particle swarm optimization algorithm (PSO) is implemented to program and solve non-linear optimization problems. Since optimization with PSO is often computationally expensive, the algorithm was parallelized on Graphic Processing Units (GPU) in order to exploit the implicit parallelism of this technique and take advantage of the wide access to these low-cost devices available in modern desktop computers.
The implemented PSO, in its serial and parallel versions, was tested with benchmark functions of different difficulty, with and without constraints, widely used in the optimization literature. It was also applied to more complex and larger-scale models of the chemical engineering discipline. In all cases, the optimizer provided acceptable performance regarding solution quality and speedups.
|
213 |
Optimización del modelo Media-Varianza-Skewness para la selección de un portafolio de acciones y su aplicación en la BVL usando programación no linealCorrales Céspedes, José 03 November 2011 (has links)
El presente trabajo de Tesis muestra tres metodologías distintas para obtener la composición más eficiente de un portafolio de acciones a través de la optimización matemática, a partir de la media, varianza y asimetría, de algunas acciones seleccionadas del Índice Selectivo de la Bolsa de Valores de Lima, dichas metodologías parten de la ampliación de
la Teoría de Portafolios Eficientes de Markowitz.
Las acciones fueron seleccionadas teniendo en consideración la antigüedad de su cotización en la Bolsa de Valores de Lima, puesto que se trabaja con precios de acciones
semanales, aquellas que recientemente cotizan en bolsa no tienen información suficiente para obtener matrices de varianza/covarianza y asimetría/coasimetría, adecuadamente
definidas.
La primera metodología de solución genera portafolios que se encuentran en la Superficie
Eficiente, es decir portafolios que no pueden mejorar en alguna de las variables (media,
varianza o asimetría) sin desmejorar en otra, la selección de cualquiera de ellos dependerá de las características del inversionista, como el nivel de aversión al riesgo, entre otros.
La segunda metodología es la optimización Lexicográfica, basada en la optimización sucesiva de la media, varianza y asimetría, teniendo siempre como restricciones los parámetros
obtenidos en la optimización anterior. Dado que el orden de las optimizaciones influye en la solución final, se aplicó la metodología bajo todas las combinaciones posibles. Los
portafolios que se obtuvieron fueron soluciones de esquina, y en la mayoría de los casos
no hubo cambio desde la primera optimización.
La tercera metodología es la optimización por Niveles Objetivo, donde se plantean objetivos
deseables de media, varianza y asimetría, que en nuestro caso fueron los obtenidos de los portafolios del Índice General de la Bolsa de Valores de Lima y del Índice Selectivo de la Bolsa de Valores de Lima. El portafolio solución superó en todos los casos los
índices objetivo.
|
214 |
Ruteo de ambulancias en caso de un sismo de gran magnitud en Lima Metropolitana y Callao: un enfoque de programación lineal entera mixta y heurística para su resoluciónHeredia León, Ivonne Rocío 10 June 2024 (has links)
Esta tesis se desarrolla en un escenario sísmico de 8.0Mw de magnitud en Lima Metropolitana y Callao
y posterior ocurrencia de un tsunami, se estima que ese evento natural ocasionaría cerca de 110 000
fallecidos, 2 000 000 heridos y 900 000 viviendas afectadas (Instituto Nacional de Defensa Civil
[INDECI], 2017). Asimismo, se presentan los planes del gobierno relacionados con la respuesta ante
un desastre natural de esta magnitud, el Plan de Contingencia Nacional, el Plan de Operaciones de
Emergencia de Lima y Callao y el Plan de Contingencia del sector salud en casos de sismos en las
regiones de Lima y Callao. Posteriormente, se infiere la necesidad de un plan de traslado de heridos
desde los puestos médicos de avanzada hacia los hospitales de campaña, con base en los sucesos del
terremoto del 2007 en Pisco y se toma un escenario sísmico de magnitud 8.8 Mw en Lima Metropolitana
y Callao con características similares al pronosticado por INDECI (2017), Centro de Estudios y
Prevención de Desastres (PREDES, 2009) y Centro Nacional de Estimación, Prevención y Reducción
del Riesgo de Desastres (CENEPRED, 2017).
Se propone un modelo de programación lineal entera basado en el modelo “Vehicle Routing Problem
with Time Windows” (VRPTW) para el traslado de los pacientes en el escenario sísmico presentado.
Este modelo maximiza la cantidad de pacientes atendidos y toma en cuenta las restricciones de
capacidad de las ambulancias, capacidad de camas hospitalarias y el tiempo máximo que puede esperar
un paciente antes de fallecer. Asimismo, como no se conoce a priori la cantidad de ambulancias, se
determina esa cifra experimentalmente maximizando la cantidad de pacientes atendidos.
Debido a las limitaciones de cómputo que presenta el modelo al aumentar la cantidad de nodos, ya que
VRPTW resulta en un problema NP-difícil, se propone una metaheurística inspirada en “Large
Neighbourhood Search” (LNS) para hallar la solución al modelo, en donde se utilizan dos heurísticas
para construir la solución inicial, ya sea una heurística de construcción de rutas u otra de inserción de
rutas; así como la heurística “Variable Neighbourhood Descend” (VND) para la búsqueda local de la
optimalidad. Finalmente, se aplica esta heurística a los seis clústeres dentro de la ventana de tiempo con
las capacidades al 20%, 50% y 70% de los hospitales. Se observa que el modelo propuesto logra
trasladar a una cantidad de pacientes igual a la capacidad total de los hospitales para los tres casos y el
tiempo máximo de llegada del último paciente es menor a cuatro horas.
|
215 |
Modelización de elementos lineales de hormigón armado incluyendo el efecto del esfuerzo cortanteNavarro Gregori, Juan 12 March 2010 (has links)
La gran mayoría de estructuras de hormigón armado compuestas por elementos lineales desarrolla esfuerzos combinados que incluyen el esfuerzo cortante. Además, algunos colapsos estructurales han sido debidos a situaciones de acoplamiento de esfuerzos que han llevado a la estructura a un fallo frágil a cortante. Por ello, resulta necesario disponer de modelos de análisis de elementos lineales que incluyan al efecto del esfuerzo cortante correctamente.
El análisis y el dimensionamiento de las estructuras de hormigón armado se ha realizado tradicionalmente tratando por separado los esfuerzos aplicasdos. En la actualidad, existen pocos elementos unidimensionales de análisis no lineal que capten adecuadamente el efecto queproduce el esfuerzo cortante. La fisura diagonal, la transmisión del cortante a través de la armadura transversal o la zona no fisurada, y el fallo final del elemento, son aspectos que un modelos de cortante debe incluir eficazmente.
El objetivo de esta tesis doctoral es el de modelizar el comportamiento resistente de elementos lineales de hormigón armado incluyendo el efecto del esfuerzo cortante. Se presenta un modelo teórico que considera simultáneamente los esfuerzos axil, flector y cortante. Se propone una nueva hipótesis cinemática para el comportamiento seccional que permite estudiar el efecto de acoplamiento entre las tensiones normales y tangenciales. Esta nueva hipótesis recibe el nombre de hipótesis cinemática para el comportamiento seccional que permite estudiar el efecto de acoplamiento entre las tensiones normales y tanagenciales. Esta nueva hipótesis de correción de cortante por ser el término dependiente del esfuerzo cortante el que se corrige.
La hipótesis de corrección de cortante incluye una función de interpolación general, que configura el denominado modelo general de corrección de cortante. Además, se plantea otra función de interpolación más sencilla. / Navarro Gregori, J. (2010). Modelización de elementos lineales de hormigón armado incluyendo el efecto del esfuerzo cortante [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7342
|
216 |
Relaxed LMI conditions for control of nonlinear Takagi-Sugeno modelsAriño Latorre, Carlos Vicente 24 May 2010 (has links)
Los problemas de optimización de desigualdades matriciales lineales en control borroso se han convertido en la herramienta más utilizada en dicha área desde los años 90. Muchos sistemas no lineales pueden ser modelados como
sistemas borrosos de modo que el control borroso puede considerarse como una técnica de control no lineal. Aunque se han obtenido muchos y buenos resultados, quedan algunas fuentes de conservadurismo cuando se comparan con
otros enfoques de control no lineal. Esta tesis discute dichas cuestiones de conservadurismo y plantea nuevos enfoques para resolverlas.
La principal ventaja de la formulación mediante desigualdades matriciales lineales es la posibilidad de asegurar estabilidad y prestaciones de un sistema no lineal modelado como un sistema borroso Takagi-Sugeno. Estos
modelos están formados por un conjunto de modelos lineales eligiendo el sistema a aplicar mediante el uso de unas reglas borrosas. Estas reglas se traducen en funciones de interpolación o de pertenecía que nos indican el
grado de validez de un modelo lineal respecto del resto. El mayor problema que presentan estas técnicas basadas en desigualdades matriciales lineales es que las funciones de pertenencia no están incluidas en las condiciones de
estabilidad del sistema, lo que significa que se prueba la estabilidad y prestaciones para cualquier forma de interpolación entre los diferentes modelos lineales. Esto genera una fuente de conservadurismo que sería conveniente limitar.
En la tesis doctoral se presentan varias metodologías capaces de trasladar la información de las funciones de pertenencia del sistema al problema basado en desigualdades matriciales lineales de estabilidad y prestaciones. Las dos principales aportaciones propuestas se basan, respectivamente, en introducir una serie de matrices de relajación que permitan incorporar esta información y en aprovechar la descripción de una amplia clase de sistemas borrosos en
productos tensoriales de... / Ariño Latorre, CV. (2008). Relaxed LMI conditions for control of nonlinear Takagi-Sugeno models [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8301
|
217 |
Análisis de soportes mixtos sometidos a flexocompresión esviadaFenollosa Forner, Ernesto Jesús 24 June 2011 (has links)
Esta investigación aborda el estudio de los soportes mixtos formados por un perfil metálico recubierto de hormigón con armaduras, sometidos a flexocompresión esviada, aplicando un procedimiento de cálculo incluido en el denominado "Método General" del Eurocódigo 4.
El interés del tema de la presente tesis consiste en el acercamiento a un elemento estructural con un comportamiento de complejo análisis y a la vez de creciente aplicación en las estructuras de edificación, especialmente en los edificios en altura.
La identificación de la multitud de variables que les afecta se ha realizado a partir de una exhaustiva revisión bibliográfica y el planteamiento de las hipótesis y métodos de cálculo se plantea y desarrolla a la vista de la normativa específica.
En cuanto al procedimiento, el trabajo sobre soportes mixtos se inicia con el estudio del comportamiento de su sección, continúa con la barra como elemento aislado, y finaliza con el análisis del conjunto de la estructura.
En la evaluación de la capacidad resistente de la sección se han tenido en cuenta las características de los materiales que los componen mediante la consideración de las relaciones constitutivas del hormigón y del acero. A efectos de barra se ha analizado la influencia de su longitud, de las imperfecciones iniciales o de las excentricidades en la aplicación de la carga. En cuanto a la estructura, se ha estudiado, fundamentalmente, la influencia de la ausencia de arriostramientos. En el cálculo de la barra y de la estructura se han tenido en cuenta los efectos de segundo orden tanto geométricos como mecánicos.
Tras el estudio teórico y dada la elevada complejidad de cálculo derivada de la existencia de materiales con distintos comportamientos y de las numerosas variables contempladas, se ha optado por el desarrollo de un programa informático que permite el estudio de la sección mixta sometida a flexocompresión esviada. Este módulo se ha integrado en un programa de análisis no lineal de estructuras. / Fenollosa Forner, EJ. (2011). Análisis de soportes mixtos sometidos a flexocompresión esviada [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11075
|
218 |
Control predictivo basado en modelos mediante técnicas de optimización heurística. Aplicación a procesos no lineales y multivariablesBlasco Ferragud, Francesc Xavier 06 June 2012 (has links)
La Tesis Doctoral se fundamenta, principalmente, en la exploración de nuevos métodos de Control Predictivo Basado en Modelos (MBPC) mediante la incorporación de herramientas de optimización heurística y las mejoras en las prestaciones que se pueden conseguir con ello. La metodología de MBPC constituye un campo cada vez más importante en el control de procesos debido a que se trata de una formulación muy intuitiva, y a la vez muy potente, de un problema de control (por tanto es más fácilmente aceptable en el ámbito industrial). A pesar de ello, presenta limitaciones cuando se quiere aplicar a ciertos procesos complejos. Un elemento fundamental y al mismo tiempo limitante de ésta metodología lo constituye la técnica de optimización que se utilice. Simplificando mucho, el MBPC se convierte en un problema de minimización en cada periodo de muestreo, y la complejidad del problema de control se refleja directamente en la función a minimizar en cada instante. Si se incorporan modelos no lineales, restricciones en las variables, e índices de funcionamiento sofisticados, todo ello asociado a los problemas de tiempo real, se va a requerir algoritmos de optimización adecuados que garanticen el mínimo global en un tiempo acotado. En este sentido, la tesis incluye un análisis de las metodologías de Optimización Heurísticas, Simulated Annealing y Algoritmos Genéticos, como candidatas a la resolución de ese tipo de problemas y apartir de ellas realiza una implementación novedosa (denominada ASA) dentro del grupo de los algoritmos de Simulated Annealing que reduce el coste computacional. En los Algoritmos Genéticos, se obtienen las combinaciones de codificación y operadores genéticos más adecuadas para conseguir buenas relaciones de 'calidad de la solución/coste computacional' en la resolución de problemas de minimización complejos (no convexos, con discontinuidades, restricciones, etc.). Todo este análisis previo, permite la adaptación adecuada de estas técnicas heurísticas...... / Blasco Ferragud, FX. (1999). Control predictivo basado en modelos mediante técnicas de optimización heurística. Aplicación a procesos no lineales y multivariables [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/15995
|
219 |
Precontrol óptimo. Caracterización, análisis y técnicas de resoluciónGiner Bosch, Vicent 26 January 2015 (has links)
El precontrol es una herramienta para el control de la calidad que tiene
como objeto evaluar la aptitud de un proceso para producir piezas dentro
de unas especificaciones dadas. Es usada, entre otros contextos, en la
validación de la puesta a punto de procesos con ciclos de ejecución cortos.
Basa su funcionamiento en la comparación de las sucesivas observaciones
individuales muestreadas frente a los límites de tolerancia y los llamados
límites de precontrol, y utiliza conteos acumulados para emitir un juicio
sobre la validez del proceso. Es una técnica sencilla, rápida y fácil de
aplicar.
El hecho de que, en su versión original, la técnica del precontrol no tenga
en cuenta la variabilidad natural del proceso objeto de monitorización,
unido a la sencillez de su diseño, provocan que, bajo ciertas circunstancias,
su comportamiento no sea tan eficaz como sería deseable, en términos
de la tasa de falsa alarma y de la potencia para detectar desviaciones
inaceptables, hasta el punto de que algunos autores rechazan su uso. En
este sentido, existen en la literatura diversas propuestas encaminadas a
mejorar el comportamiento de la técnica original mediante la modificación,
en mayor o menor medida, de sus reglas de funcionamiento.
En esta tesis doctoral se aborda la mejora del precontrol como
herramienta para la cualificación de procesos, a través de la determinación
óptima de los parámetros que rigen su comportamiento, utilizando
técnicas de programación no lineal entera mixta. El objetivo es desarrollar
una metodología para automatizar el proceso de elección del valor de los
parámetros del precontrol, de manera que éste se ajuste lo mejor posible a
los requerimientos del usuario. Este enfoque de Optimización, inédito en
el precontrol, ha sido aplicado con éxito a otras técnicas de control de la
calidad en las últimas décadas, permitiendo obtener mejores herramientas
para la toma de decisiones.
Para ello, en primer lugar se realiza una revisión exhaustiva de las
diferentes propuestas existentes en la literatura en torno al precontrol.
Posteriormente, se define el problema a resolver y se desarrolla un
modelo de programación matemática específico para la obtención de
los denominados planes de precontrol óptimos. Se realiza una completa
experiencia numérica con software de optimización de propósito general,
mediante la que se evidencia la eficacia del modelo propuesto y, al mismo
tiempo, se pone de manifiesto la existencia de diferencias significativas
entre los resultados proporcionados por los diferentes algoritmos tomados
en consideración, debidas en parte a la doble naturaleza no lineal y
entera del problema, así como la incapacidad de dichos algoritmos para
garantizar la convergencia a un óptimo global, a causa de la existencia de
no convexidades.
Todo ello justifica el diseño de algoritmos específicos para la obtención
de planes de precontrol óptimos, tarea que también se aborda en
la presente tesis doctoral. Previamente, se realiza un estudio de las
propiedades matemáticas del modelo de optimización construido, que
permite ampliar el conocimiento sobre el problema del precontrol óptimo.
Este conocimiento es empleado en la elaboración de un algoritmo
exacto para la resolución de dicho problema, denominado OPCenum, el
cual combina una estrategia enumerativa implícita con una búsqueda
local basada en métodos de búsqueda de raíces sin uso de derivadas. El
algoritmo es implementado y probado sobre la misma batería de ejemplos
que conformaban la experiencia numérica anterior.
Las pruebas revelan la eficacia y eficiencia del algoritmo OPCenum como
método para la obtención de planes de precontrol óptimos a partir de
unos requerimientos dados.
La elaboración de una interfaz gráfica para hacer más accesible el
algoritmo al usuario final, la adaptación del problema a funciones de
distribución asimétricas y a ámbitos como el de la fiabilidad, así como el
desarrollo de un enfoque paralelo al acometido aquí en el que se considere
el precontrol como herramienta para validar la capacidad del proceso
destacan como líneas futuras de investigación que surgen a partir de los
resultados obtenidos en la presente tesis doctoral. / Giner Bosch, V. (2014). Precontrol óptimo. Caracterización, análisis y técnicas de resolución [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/46373
|
220 |
Análisis de la incertidumbre en la estimación de la movilidad electoral mediante el procedimiento LPHOMMartín Marín, Jorge 21 December 2020 (has links)
[ES] La estimación del trasvase de votos de unos partidos a otros entre dos procesos electorales es un tema relevante dentro de la sociología política. Dadas las limitaciones de las encuestas en este campo, existe un interés creciente en los procedimientos de estimación que utilizan exclusivamente la realidad incuestionable de los propios resultados electorales. lphom es uno de estos métodos. lphom es un procedimiento, relativamente sencillo, que, tras ser aplicado en estos últimos años en algunos estudios reales, ha proporcionado, en todos los casos, resultados muy razonables.
En la presente tesis se aborda el problema, hasta ahora no investigado, de desarrollar procedimientos para estimar los márgenes de incertidumbre de los resultados obtenidos al aplicar este procedimiento en estudios reales. Tras definir unos indicadores adecuados, EI y EP, para cuantificar dicha incertidumbre, el proceso se basa en utilizar los residuos del modelo lphom para (i) evaluar el grado de incumplimiento de la hipótesis de homogeneidad en la que se sustenta lphom, y (ii) investigar, mediante un conjunto de estudios de simulación desarrollados en diferentes escenarios, las relaciones entre estos indicadores.
Las conclusiones generales de estos estudios permiten desarrollar unos procedimientos para estimar los valores previsibles de EI y EP en estudios reales, así como los límites de confianza superior para los mismos. También se desarrolla un procedimiento para obtener intervalos de confianza para las diferentes probabilidades de transición de votos pjk estimadas mediante lphom. Los métodos desarrollados se ilustran aplicándolos a la estimación del trasvase de votos entre la primera y la segunda vuelta de las elecciones presidenciales francesas de 2017.
Se indican finalmente una serie de líneas futuras de investigación sugeridas por los resultados de esta tesis. / [CAT] L'estimació del transvasament de vots d'uns partits a altres entre dos processos electorals és un tema rellevant dins de la sociología política. Donades les limitacions de les enquestes en aquest camp, hi ha un creixent interés en els procediments d'estimació que utilitzen exclusivamente la realitat inqüestionable dels propis resultats electorals. En aquest sentit, lphom és un mètode senzill que després de ser aplicat aquestos últims anys en alguns estudis reals, ha proporcionat en tots els casos resultats molt razonables.
En la següent tesi, s'aborda el problema, encara no investigat, de desenvolupar procediments per a estimar els margens d'incentidumbre dels resultats obtenguts al aplicar aquest procediment en els estudis reals. Després d'haber definit uns indicadors adecuats, EI y EP, per a quantificar dita incertidumbre, el procés es basa en utilitzar els residus del model lphom per a (i) evaluar el grau de incompliment de la hipótesis d'homogeneïtat en què es sustenta lphom, i (ii) investigar, mitjançant un conjunt d'estudis de simulacions desenvolupades en diferents escenaris, les relacions entre aquestos indicadors.
Les conclusions generals d'aquestos estudis permeten desenvolupar uns procediments per a estimar els valors previsibles de EI y EP en estudis reals, així com els límits de confianza superior per als mateixos. També s'aconsegueix un procediment per a obtindre intervals de confiança per a les diferents probabilitats de transició de vots pjk estimats mediant lphom. Els métodes desenvolupats s'ilustren aplicats a l'estimació del transvasament de vots entre la primera y segona volta de les eleccions presidencials franceses de 2017.
S'indiquen finalment una sèrie de línies futures d'investigació suggerides pels resultats d'aquesta tesi. / [EN] The estimation of the transfer of votes from some political parties to another between two electoral processes is a relevant issue within political sociology. Given the limitations of the surveys in this field, there is a growing interest in estimation procedures that exclusively use the unquestionable reality of the electoral results themselves. In this sense, lphom is a simple method that, after being applied in recent years in some real studies, has provided, in all cases, very reasonable results.
This thesis addresses the problem, so far not investigated, of developing procedures to estimate the margins of uncertainty of the results obtained by applying this procedure in real studies. After defining suitable indicators, EI and EP, to quantify this uncertainty, the process is based on using the residuals of the lphom model to (i) evaluate the degree of non-compliance with the homogeneity hypothesis on which lphom is based, and (ii) investigate, through a set of simulation studies developed in different scenarios, the relationships between these indicators.
The general conclusions of these studies allow the development of procedures to estimate the predictable values of IE and PE in real studies, as well as the upper confidence limits for them. A procedure is also developed to obtain confidence intervals for the different transition probabilities of votes pjk estimated by lphom. The methods developed are illustrated by applying them to the estimation of the transfer of votes between the first and second rounds of the 2017 French presidential elections.
A series of future lines of research suggested by the results of this thesis are finally indicated. / Martín Marín, J. (2020). Análisis de la incertidumbre en la estimación de la movilidad electoral mediante el procedimiento LPHOM [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/157638
|
Page generated in 0.0568 seconds