• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 17
  • 15
  • Tagged with
  • 56
  • 34
  • 29
  • 22
  • 19
  • 17
  • 13
  • 12
  • 10
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Valoración de proyectos de inversión en economías emergentes latinoamericanas: el caso de los inversionistas no diversificados

Mongrut Montalván, Samuel 26 March 2007 (has links)
La evaluación de proyectos por lo general evita el importante proceso de análisis del riesgo porque se basa en el supuesto de los mercados completos. En un mercado completo se pueden encontrar activos gemelos o elaborar una cartera de inversiones dinámica para replicar el riesgo del proyecto todo estado de la naturaleza y momento futuro. Además, dado que se supone que los inversionistas están bien diversificados, lo que importa es el valor del proyecto como si éste se negociara en el mercado de capitales. Desafortunadamente, el supuesto de mercados completos se satisface difícilmente en la realidad, sobre todo en los mercados emergentes abundantes en títulos ilíquidos y donde los mecanismos financieros, como las ventas en corto o las compras en el margen, están prohibidos o son inexistentes en la práctica. En este trabajo se asumen mercados incompletos y se sugiere un procedimiento de análisis de riesgo que puede aplicarse toda vez que no sea posible replicar el riesgo del proyecto a partir de títulos transados en el mercado bursátil, específicamente en dos situaciones: cuando los inversionistas mantienen una cartera de inversiones diversificada y cuando los inversionistas son empresarios no diversificados. El primer caso es importante porque durante el pasado decenio se ha observado un aumento de la inversión directa extranjera en los países emergentes, de modo que algunos empresarios globales bien diversificados han colocado su dinero en estos mercados. El segundo caso es particularmente importante para los mercados emergentes donde una gran porción del total de empresas está integrada por negocios familiares o que son propiedad de un solo empresario no diversificado. En ambos casos se puede emplear una regla de inversión clara, como el valor presente neto, pero no existe un valor de mercado único para el proyecto. En el caso de los inversionistas globales bien diversificados es posible encontrar el valor del proyecto dentro de un rango de posibles valores; mientras que para los empresarios no diversificados lo que importa es el valor del proyecto dado el riesgo total que enfrentan.PALABRAS CLAVE: Evaluación de proyectos, mercado incompleto, análisis de riesgo. / "Project Valuation in Emerging Latin American Markets: The Case of Non-Diversified Entrepreneurs"TEXT:Traditional project valuation usually overlooks the important risk analysis process because it relies in the complete market assumption. In a complete market it will be possible to either find twin securities or elaborate a dynamic investment portfolio to replicate the project risk and payoff in every state of nature at any moment in the future. Furthermore, since one assumes well-diversified investors what matters is the project value as if it were traded in the capital market. Unfortunately, the assumption of complete markets hardly holds in reality, especially in emerging markets full of illiquid securities and where financial mechanisms such as short sales or buying on margin are prohibited or non-existent in practice. In this work one assumes incomplete markets and designs a risk analysis procedure that can be applied whenever there is no tradable benchmark in two situations: when investors hold a well-diversified investment portfolio and when investors are non-diversified entrepreneurs. The former case is important because during the last decade there has been an increase of foreign direct investment in emerging economies, so some global diversified entrepreneurs have put their money in these markets. The latter case is especially important for emerging markets where high proportions of total enterprises are family business or are owned by a single non-diversified entrepreneur. In either case it is possible to use a clear cut investment rule, such as the Net Present Value, but there is no a single market value for the project. In the case of global diversified investors it is just one possible value and for non-diversified entrepreneurs what matters is the project value given the project total risk that they face.KEYWORDS: Project valuation, incomplete market, risk analysis.
42

Limiting Debt in the Optional Taxation Setup

Yakadina, Irina 29 November 2002 (has links)
La literatura reciente que se ha concentrado en la imposición fiscal óptima de los factores de producción (el capital y el trabajo) llega a las conclusiones siguientes. Para un gobierno benevolente que maximiza el bienestar de los consumidores del país, es óptimo no recurrir a un impuesto sobre el capital a largo plazo. El resultado se debe a Chamley y Judd.Esta tesis estudia los efectos sobre los impuestos óptimos al capital y al trabajo cuando se limita la deuda del gobierno. La tesis está compuesta de tres capítulos relacionados, el primero de los cuales sirve de introducción y hace un resumen de la extensa literatura sobre la imposición fiscal. El segundo se dedica a estudiar qué impacto puede tener la introducción de unos límites superiores exógenos sobre la nueva deuda del gobierno y la del consumidor representativo sobre la política fiscal óptima. El modelo del equilibrio general en un entorno estocástico considerado en este capítulo no tiene solución analítica debido a su conocida complejidad. Además, los límites a la deuda alteran el supuesto habitual de mercados completos añadiendo dificultades a la búsqueda de una solución numérica. Los resultados principales de este capítulo son: límites a la absorción de choques externos por medio de la deuda implican el uso del impuesto sobre el capital. El modelo con límites a la deuda comparado al modelo con mercados completos tiene implicaciones mas plausibles para el comportamiento de los dos impuestos. En particular, los impuestos sobre el trabajo reproducen perfectamente las características principales de los mismos impuestos en los datos para los países del G7.El tercer capítulo extiende el modelo anterior para examinar los límites a la deuda del consumidor al introducir el requisito de colateral en el espíritu de Kiyotaki y Moore. El resultado del impuesto óptimo positivo sobre capital positivo es aún mas fuerte porque el entorno de la economía en este modelo es determinístico. Hasta ahora son pocos los ejemplos de modelos determinísticos en la literatura para los cuales el resultado de Chamley y Judd no se cumple.Incorporar el límite endógeno sobre la deuda del consumidor en el modelo estocástico del capítulo dos sería un campo de investigación muy prometedor. Permitiría mejorar las predicciones del comportamiento de impuestos sobre capital y hacerlos muy semejantes a los datos reales, como es ya el caso para los impuestos sobre el trabajo en el modelo del segundo capítulo de mi tesis.
43

ESTUDIO MEDIANTE MODELIZACIÓN MATEMÁTICA DE FENÓMENOS ARRÍTMICOS GENERADOS POR ACTIVIDAD ECTÓPICA

Ramírez Islas, Esteban Benito 20 December 2012 (has links)
Los fenómenos arrítmicos afectan a la actividad eléctrica del corazón y son provocados por diversas enfermedades. El estudio de estos fenómenos es de crucial interés debido a que no se conocen con precisión, los mecanismos que los producen. En la presente Tesis Doctoral se estudian mediante modelización matemática y simulación por ordenador dos fenómenos relacionados con la generación anormal y la conducción del impulso cardiaco, producidos por situaciones patológicas: la reflexión en fibras ventriculares y las reentradas en el subsistema Purkinje-ventrículo que tienen lugar durante la fase 1B de isquemia. El fenómeno de reflexión ocurre en tejido ventricular cardiaco, y se produce cuando un impulso que llega a una zona de tejido dañada, provoca otro impulso que se propaga en sentido opuesto al impulso original. Las arritmias provocadas por isquemia se producen en dos fases, fase 1A y fase 1B. Mientras que la fase 1A de arritmias cardiacas ha sido ampliamente estudiada, los estudios sobre las arritmias de la fase 1B son escasos, y es de interés investigar los mecanismos que provocan esta fase de arritmias. Para el estudio de ambos fenómenos arrítmicos se implementaron modelos unidimensionales (1D) y bidimensionales (2D). El modelo 1D de reflexión se compone de dos segmentos de fibra ventricular, uno bajo condiciones normales fisiológicas y el otro bajo condiciones que facilitan la inducción de posdespolarizaciones tempranas (EADs) de fase 2. Los segmentos de fibra del modelo de reflexión se acoplaron mediante una resistencia, cuyo valor se varió en un rango de 5 a 30 ?·cm2. Las reentradas generadas en el subsistema Purkinje-ventrículo isquémico 1B se estudiaron con tres modelos: modelo 1D Purkinje-ventrículo 1B, modelo 1D Purkinje-ventrículo 1B con una estructura de anillo y modelo 2D Purkinje-ventrículo 1B. Los resultados obtenidos muestran que el acoplamiento entre las células del tejido ventricular tiene una influencia importante en ambos fenómenos arrítmicos. / Ramírez Islas, EB. (2012). ESTUDIO MEDIANTE MODELIZACIÓN MATEMÁTICA DE FENÓMENOS ARRÍTMICOS GENERADOS POR ACTIVIDAD ECTÓPICA [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/18216 / Palancia
44

La topología de Bohr para grupos topológicos abelianos

Macario Vives, Sergio 03 June 2002 (has links)
Para grupos topológicos abelianos maximalmente casi periódicos (en el sentido de von Neumann) es sencillo describir su compactación de Bohr, bG. En este caso puede identificarse bG con el conjunto de homomorfismos del dual de G en el toro de dimensión 1. La topología que G hereda como subgrupo de bG es la topología de Bohr de G. Resulta que la topología de Bohr es una topología totalmente acotada generada por el grupo de caracteres continuos de G. Con ese punto de partida y, utilizando el concepto de grupos en dualidad introducido por Varopoulos, se estudian diversas propiedades topológicas para la topología débil de una dualidad. Se obtiene con ello una caracterización de la débil realcompacidad en términos similares a los obtenidos por otros autores para espacios de Banach, espacios vectoriales topológicos localmente convexos y grupos abelianos localmente compactos. Además se obtienen caracterizaciones para la realcompacidad hereditaria y la pseudocompacidad. Diversos autores han considerado también el problema de la preservación de la compacidad, así como de otras propiedades topológicas, al pasar a la topología de Bohr. En esta tesis se introduce una nueva clase de grupos, los g-grupos, que aglutina a muchas otras clases de grupos topológicos: los grupos abelianos localmente compactos, los grupos aditivos de espacios vectoriales topológicos y los grupos nucleares, entre otros. Para esta nueva clase se obtiene una caracterización de la preservación de la compacidad que engloba y unifica las aproximaciones obtenidas separadamente para cada una de las clases mencionadas anteriormente. El estudio anterior se particulariza para los grupos metrizables, consiguiendo nuevas caracterizaciones estrechamente relacionadas con el trabajo de van Douwen para grupos discretos. En particular, se obtiene una caracterización para los grupos aditivos de espacios de Banach y se muestra, con un ejemplo de Bourgain, que ésta díficilmente puede ser refinada.
45

On Sandwiched Surface Singularities and Complete Ideals

Fernández Sánchez, Jesús 01 November 2004 (has links)
The original interest in sandwiched singularities comes from a natural question posed by J. Nash in the early sixties to H. Hironaka: “Does a finite succession of Nash transformations or normalized Nash transformations resolve the singularities of a reduced algebraic variety?” In 1975, A. Nobile proved that, in characteristic zero, a Nash transformation is an isomorphism only in case the original variety is already non-singular. It turns out, in particular, that curve singularities are resolved by a succession of Nash transformations. Rebasoo proved in his Ph. D. thesis that Nash transformations also resolve certain kinds of quasi-homogeneous hypersurface singularities in (C)3. In 1982, G. Gonzalez-Sprinberg proved that normalized Nash transformations resolve rational double points and cyclic quotients singularities of surfaces. Then, H. Hironaka proved that after a finite succession of normalized Nash transformations one obtains a surface “X” which birationally dominates a non-singular surface. By definition, the singularities of “X” are sandwiched singularities. Some years later, M. Spivakovsky proves that sandwiched singularities are resolved by normalized Nash transformations, thus giving a positive answer to the original question posed by Nash for the case of surfaces over C. Since then, a constant interest in sandwiched singularities has been shown, and they have been deeply studied from the point of view of deformation theory by de Jong and van Straten, and also by Stolen and Mohring. Sandwiched singularities have been also studied as a nice testing ground for the Nash and the wedge Problem by Lejeune-Jalabert and Reguera, where the main idea is to extend combinatorial arguments for toric surface singularities to sandwiched ones. Sandwiched singularities are the singularities obtained by blowing-up a complete ideal in the local ring of a regular point on a surface. They are rational surface singularities (roughly speaking, isolated singularities whose resolution has no effect on the arithmetic genus of the surface) and among them are included all cyclic quotients and minimal surface singularities. Sandwiched singularities are Cohen-Macaulay, but are not complete intersections and in general, there are no simple equations for them. The purpose of this memoir is to study sandwiched singularities through their relationship to the infinitely near base points of the complete ideals blownup to obtain them. Now, we briefly summarize the main contents of each one of the chapters. Chapter I is of preliminary nature and gives references to the literature for proofs. Concepts and well-known facts about infinitely near points, weighted clusters, complete ideals and rational and sandwiched surface singularities are reviewed and some consequences that are needed in the memoir are derived. In Chapter II we establish the main link between the study of sandwiched singularities and the theory of Enriques diagrams of weighted clusters and we derive some results on sandwiched singularities by using the unloading procedure. Chapter III deals essentially with the principality of divisors going through a sandwiched singularity. It is well known that Wei divisors going through a singularity (X, Q) are not Cartier divisors in general. In Chapter IV we use the results of Chapter III to explore the connection between the ideal sheaves on “X” with finite cosupport contained in the exceptional locus and the complete m(o)-primary ideals in R. Chapter V is devoted to derive consequences related to the Nash conjecture of arcs for sandwiched singularities. In Appendix A, we provide the listings of three programs in language C implementing some of the algorithms proposed. These programs have been used to compute some of the examples presented throughout the memoir. Part of the results of this thesis has been published or will be published in: • J. Fernandez-Sanchez, On sandwiched singularities and complete ideals, J. Pure Appl. Algebra 185 (2003), no. 1-3, 165-175. [19] • J. Fernandez-Sanchez, Nash families of smooth arcs on a sandwiched singularity, To appear in Math. Proc. Cambridge. Philos. Soc. [18] • J. Fernandez-Sanchez, Equivalence of the Nash conjecture for primitive and sandwiched singularities, To appear in Proc. Amer. Math. Soc. [17]
46

Política de dividendos en una cartera de seguros no vida: Un análisis desde la teoría colectiva del riesgo

Mármol Jiménez, Maite 14 March 2002 (has links)
El análisis de la solvencia en las carteras de seguros no vida es un tema que ha sido muy tratado en la literatura actuarial generando una amplia bibliografía. Las hipótesis y los riesgos analizados han ido ampliándose, incluyéndose, ya no sólo el riesgo básico que viene representado por las fluctuaciones de la siniestralidad, sino otros muchos factores como la rentabilidad de las reservas, la inflación, los ciclos económicos, el reparto de dividendos, etc... El entorno en el que se desarrolla la tesis es el enfoque que ofrece la teoría del riesgo, que se centra básicamente en la modelización de la cuantía total de los siniestros de una cartera de riesgo.Dentro de la teoría del riesgo se encuentran trabajos que plantean la introducción de políticas de dividendos en los modelos básicos que formalizan el comportamiento de las reservas en carteras de seguros no vida. La idea consiste en que la parte de las reservas consideradas excedentes se repartan en forma de dividendos. Formalmente, su introducción en el modelo, se realiza mediante la definición de barreras de dividendos que determinan las cuantías de reservas que como máximo la compañía de seguros ha decidido mantener.El estudio de los efectos de la modificación del modelo mediante la introducción de estrategias de reparto de dividendos se convierte en el punto de partida de la tesis. Así, los objetivos generales de la tesis se pueden agrupar básicamente en dos:· Analizar los efectos de la introducción de barreras de dividendos en la probabilidad de ruina.· Cuantificar los dividendos repartidos.Respecto al primer objetivo indicado, es evidente que la introducción de políticas de dividendos provoca una menor acumulación de reservas, y por tanto una mayor probabilidad de que las reservas sean insuficientes para cubrir la siniestralidad. Analizar cómo se verá afectada la solvencia de las carteras en función de la política de dividendos elegida será pues uno de los puntos a tratar a lo largo del trabajo.En lo relativo a la cuantificación de los dividendos repartidos, se puede considerar el papel de los dividendos como incentivo a los accionistas que han aportado el capital inicial, dividendos que pueden ser considerados, bien como rendimientos, bien como amortización a su inversión inicial. Se debería valorar, por tanto, si un mayor reparto de dividendos compensa el mayor riesgo de insolvencia, situación que puede interpretarse como una más rápida amortización de las aportaciones iniciales.De ahí surge la necesidad de cuantificar los dividendos repartidos, de analizar su influencia sobre la solvencia de la cartera y de determinar la política de dividendos considerada óptima desde el punto de vista de criterios económico-actuariales.La elección de la magnitud elegida para valorar los dividendos repartidos es un aspecto básico. Así, veremos a lo largo del trabajo como en la literatura actuarial se trabaja con la esperanza del valor actual de los dividendos repartidos, asumiendo que el proceso acaba en el momento de ruina o bien permitiéndose valores negativos de las reservas, y por tanto la recuperación del proceso.Una vez planteados los objetivos, surgió la necesidad de formalizar el modelo modificado con el reparto de dividendos. Así, en el Capítulo 2, se especifican las hipótesis a partir de las cuales se determina el reparto: se puede considerar que se repartirán dividendos siempre que el nivel de las reservas alcance el nivel de la barrera de dividendos (reparto continuo), o bien que el reparto sólo se producirá en momentos determinados del tiempo, suponiendo que las reservas sean mayores que la cuantía predeterminada por la barrera de dividendos (reparto discreto). Se recogen también los dos tipos de barreras definidas en la literatura actuarial: por un lado, las barreras reflectantes, que mantienen el nivel de las reservas en la barrera hasta la ocurrencia del siguiente siniestro, y por otro, las barreras absorbentes, definidas de tal forma que siempre que las reservas alcancen la barrera, se da por acabado el proceso.Una vez definidas las hipótesis de reparto y su formalización, otro de los temas interesantes fue el de analizar las barreras que aparecían definidas en la literatura actuarial para controlar el crecimiento ilimitado de las reservas. Así, encontramos trabajos sobre la barrera constante y la barrera lineal creciente.Nos centramos primero en el estudio de la barrera constante, realizado en los Capítulos 3 y 6. En el capítulo 3 se analiza suponiendo reparto continuo, y en el capítulo 6 se asume reparto discreto. Independientemente del reparto asumido, la característica básica es que, en el análisis en tiempo infinito, se producen valores de la probabilidad de ruina igual a uno. Se recoge la demostración asumiendo reparto continuo, y se presenta la demostración de que en el reparto discreto la ruina también es segura.En el análisis de la barrera constante, al ser la ruina cierta, centramos el estudio en la cuantificación de los dividendos repartidos. En la primera parte del capítulo 3 se presentan nuevas medidas que permiten aportar datos sobre la cuantía y el momento en que se empiezan a repartir dividendos, suponiendo que éstos sean positivos, mientras que en la segunda parte se realiza un estudio en el que se determina un óptimo económico del nivel de la barrera y el nivel inicial de las reservas. La idea que nos llevó a plantear este problema es que se puede considerar el nivel inicial de las reservas como una aportación de los accionistas. La comparación de esta cuantía con los dividendos que recibirán a cambio permite hallar combinaciones óptimas y obtener datos para analizar la rentabilidad obtenida por los accionistas.En el capítulo 6, en el que se analiza la barrera constante con reparto discreto, y tras buscar la bibliografía existente, hallamos que el cálculo de los dividendos repartidos se realizaba para unas distribuciones del coste total concretas. Así, nos planteamos un método de resolución válido para cualquier distribución discreta de la siniestralidad agregada. Optamos por el planteamiento de un sistema de ecuaciones lineal y su correspondiente generalización en la forma matricial que nos permitiese hallar la esperanza del valor actual de los dividendos, independientemente de la distribución del coste agregado.La otra barrera planteada hasta ahora, es la barrera lineal tratada en el Capítulo 4. Aquí la ruina ya no es segura, por lo que debemos plantearnos el cálculo de la probabilidad de ruina, tema tratado en la primera parte del capítulo.La segunda parte está dedicada a la valoración de las cuantías repartidas en forma de dividendos. De especial importancia en este capítulo es el uso de un planteamiento alternativo para el cálculo de la probabilidad de ruina y de los dividendos repartidos (Grandell (1991)), que nos permite la demostración analítica de las condiciones de contorno necesarias para la resolución de las ecuaciones en derivadas parciales obtenidas.En el capítulo 5 presentamos una nueva barrera de dividendos a la que denominamos barrera parabólica. La idea de introducir una nueva estrategia de reparto de dividendos surgió cuando, mediante simulación, pudimos comprobar que existen barreras alternativas equivalentes desde el punto de vista de la solvencia, pero que producen un reparto de dividendos diferente. Analizamos en este capítulo la probabilidad de ruina y los dividendos repartidos, incluyéndose comparaciones con la barrera lineal.En el capítulo 7 se presentan las conclusiones de la Tesis. En el capítulo 8 se incluyen los programas informáticos en Fortran y APL2 necesarios para el desarrollo de algunos apartados de la Tesis.
47

Enhanced convolution approach for CAC in ATM networks, an analytical study and implementation

Marzo i Lázaro, Josep Lluís 07 February 1997 (has links)
The characteristics of service independence and flexibility of ATM networks make the control problems of such networks very critical. One of the main challenges in ATM networks is to design traffic control mechanisms that enable both economically efficient use of the network resources and desired quality of service to higher layer applications. Window flow control mechanisms of traditional packet switched networks are not well suited to real time services, at the speeds envisaged for the future networks. In this work, the utilisation of the Probability of Congestion (PC) as a bandwidth decision parameter is presented. The validity of PC utilisation is compared with QOS parameters in buffer-less environments when only the cell loss ratio (CLR) parameter is relevant. The convolution algorithm is a good solution for CAC in ATM networks with small buffers. If the source characteristics are known, the actual CLR can be very well estimated. Furthermore, this estimation is always conservative, allowing the retention of the network performance guarantees. Several experiments have been carried out and investigated to explain the deviation between the proposed method and the simulation. Time parameters for burst length and different buffer sizes have been considered. Experiments to confine the limits of the burst length with respect to the buffer size conclude that a minimum buffer size is necessary to achieve adequate cell contention. Note that propagation delay is a no dismiss limit for long distance and interactive communications, then small buffer must be used in order to minimise delay. Under previous premises, the convolution approach is the most accurate method used in bandwidth allocation. This method gives enough accuracy in both homogeneous and heterogeneous networks. But, the convolution approach has a considerable computation cost and a high number of accumulated calculations. To overcome this drawbacks, a new method of evaluation is analysed: the Enhanced Convolution Approach (ECA). In ECA, traffic is grouped in classes of identical parameters. By using the multinomial distribution function instead of the formula-based convolution, a partial state corresponding to each class of traffic is obtained. Finally, the global state probabilities are evaluated by multi-convolution of the partial results. This method avoids accumulated calculations and saves storage requirements, specially in complex scenarios. Sorting is the dominant factor for the formula-based convolution, whereas cost evaluation is the dominant factor for the enhanced convolution. A set of cut-off mechanisms are introduced to reduce the complexity of the ECA evaluation. The ECA also computes the CLR for each j-class of traffic (CLRj), an expression for the CLRj evaluation is also presented. We can conclude that by combining the ECA method with cut-off mechanisms, utilisation of ECA in real-time CAC environments as a single level scheme is always possible.
48

Grupos de funciones continuas

Ródenas Camacho, Ana María 10 February 2006 (has links)
La presente memoria se enmarca dentro del estudio de las relaciones topológicas entre dos espacios topológicos Hausdorff que pueden deducirse de las vinculaciones algebraicas, topológicas o de otra clase entre los correspondientes grupos de funciones continuas evaluadas en un grupo topológico, siguiendo la línea del Teorema clásico de Banach-Stone. Ponemos especial atención en la representación de aplicaciones entre grupos de funciones continuas de un espacio topológico en el grupo topológico T, la circunferencia unidad del plano complejo, y también entre grupos de funciones continuas de un grupo topológico en el mismo grupo T, para después enfocar el problema desde el punto de vista de las C*-álgebras de grupo. Con el mismo fin, estudiamos ciertos homomorfismos entre grupos de funciones continuas evaluadas en un grupo topológico G y se dan resultados de continuidad automática. En el trabajo, se utilizan técnicas de la dualidad de Pontryagin, de grupos topológicos y del análisis funcional para llevar a cabo estos objetivos.
49

Contribució a l'estudi dels efectes dels retardants en l'extinció d'incendis forestals

Pastor Ferrer, Elsa 22 December 2004 (has links)
El nostre país ha estat devastat seriosament pels incendis forestals durant els darrers anys, causant greus conseqüències sobre les persones i el medi ambient i destruint una de les fonts de riquesa i equilibri més preuades del territori. A més, les repercussions econòmiques i socials han estat de gran importància.Aquesta tesi doctoral pretén trobar solucions als greus problemes que els incendis forestals representen al nostre país. Se centra en el camp de l'extinció, i més concretament, en l'aplicació de productes retardants a llarg terminiactuant com a tallafocs químics del front d'incendi. Aquesta és una tècnica d'extinció que ofereix enormes possibilitats d'èxit; amb tot, presenta grans incògnites pel que fa a la seva eficàcia i operativitat, a causa de les importants llacunes existents en el seu coneixement sobretot a mitjana i gran escala.Aquesta tesi té dos objectius específics; d'una banda, el de dissenyar una nova metodologia experimental per a l'estudi de l'efecte dels retardants a llarg termini, que permeti extreure la màxima informació sobre les principals variables que determinen el comportament d'un incendi, i de l'altra, el d'obtenir un model matemàtic que predigui l'efecte d'un tractament retardant sobre un front d'incendi, donats els paràmetres d'aplicació.Per a la consecució d'aquests objectius, ha estat dut a terme un extens programa experimental de laboratori a la Universitat de Coimbra (Portugal) i a la Universitat Politècnica de Catalunya (on ha estat dissenyada i posada en funcionament una instal·lació a tal efecte) i també han estat realitzades dues campanyes experimentals a camp, amb vegetació típicament mediterrània. En aquests experiments han estat implementats diferents sistemes d'adquisició de dades de la velocitat de propagació, la velocitat de combustió, la temperatura i la potència calorífica radiant del front d'incendi.Amb el tractament i anàlisi de les dades experimentals han estat detallats els principals fenòmens físics que ocorren quan un front d'incendi transcorre sota l'efecte duna formulació retardant. Finalment, a partir d'aquesta anàlisi, ha estat validat un model teòric de propagació d'incendis forestals basat en el mecanisme de transferència de calor per radiació. Aquest model ha estat adaptat per tal que pugui contemplar l'efecte del tractament retardant i esdevingui una eina predictiva en aquest sentit. / Forest fires have seriously devastated our region during the last years, causing human and environmental damage and destroying one of the most valuable source of wealth and balance of our country. Their economic and social consequences have been very important.This thesis tries to find solutions to the serious problems originated by wildland fires represent in our country. It is focused on the field of extinction and more specifically on the application of long-term fire retardants, which acts as firebreaks of the fire front. This is an extinction technique that offers great possibilities of success; however, it presents many uncertainties related to its efficacy and operational capacity, due to the lack of knowledge at medium and large scale.This PhD thesis has two main objectives; the first one involves designing a new experimental methodology for the study of the effect of long-term fire retardants, which allows extracting the maximum information on the main fire behaviour variables. The later aims at the achievement of a mathematical model to predict the effect of a certain retardant treatment, applied to a fire front, given its application parameters.Wide laboratory experimental programs have been carried out in the University of Coimbra (Portugal) and in the Politechnic University of Catalunya (where an experimental installation had to be designed and started) and two field experimental campaigns with typical Mediterranean vegetation have been realised as well, in order to achieve these objectives. Different data acquisition systems have been implemented so that rate of spread, combustion velocity, temperatures and heat flux by radiation of the fire front could have been recorded.The main physical phenomena that take place in a fire front treated with a retardant formulation have been detailed by means of data analysis.Finally, a theoretical mathematical model based on the radiative heat transfer mechanism has been validated through this analysis. This model has been adapted aiming at the consideration of retardant treatment effects and the achievement of a predictive tool to evaluate them.
50

Nonlinear control of uncertain systems: Some application-oriented issues

Pozo Montero, Francesc 20 January 2005 (has links)
L'anàlisi i el control de sistemes amb incerteses són un dels problemes més interessants en l'àmbit de la teoria de control. En les últimes dues dècades hi ha hagut un augment important en la recerca dedicada a resoldre de forma analítica problemes de control on les incerteses poden aparèixer tant en la representació del sistema com en les mesures. No obstant, la profusió de la producció científica amb una marcada orientació teòrica no ha estat acompanyat d'una recerca similar dels aspectes d'un caire més aplicat. Aquesta tesi pretén contribuir en la comprensió d'alguns aspectes pràctics d'algoritmes de control específics. Més concretament, tractem el popular mètode anomenat backstepping i una recent tècnica computacional per resoldre el problema de la síntesi de sistemes no lineals.Respecte als sistemes no lineals, els anys 90 van començar amb un important avenç: el backstepping, mètode de control recursiu per a sistemes no lineals i no restringit a fites lineals. La verdadera força d'aquest mètode va ser descoberta quan es van desenvolupar els dissenys de control per a sistemes no lineals amb incerteses estructurades. La manera com el backstepping incorporava les incerteses i els paràmetres desconeguts va contribuir a la seva difusió i acceptació. Aquesta tesi es dedica, d'una banda, a aplicar aquest mètode de control en el camp de l'enginyeria civil i, d'altra banda, a fer un estudi de la sensibilitat numèrica de la implementació computacional del mètode.En l'aplicació d'enginyeria civil, es considera un sistema de control híbrid per estructures amb aïllament de base histerètic (control passiu) i un sistema de control actiu. L'objectiu de la component de control actiu, aplicat a la base de l'estructura, és mantenir els desplaçaments relatius de la base amb el terra, i de l'estructura amb la base dintre d'un rang raonable, d'acord amb el disseny de l'aïllament de base. L'aïllament de base exhibeix un comportament histerètic no lineal, descrit pel model de Bouc-Wen. El sistema es formula representant la dinàmica del sistema en dos sistemes de coordenades: absolutes (respecte un eix inercial) i relatives al terreny. Es presenta una comparació entre les dues alternatives a través de simulacions numèriques i s'observa com, efectivament, la llei de control backstepping garanteix l'estabilitat i un bon comportament transitori del llaç tancat.Una altra línia de recerca ha estat l'estudi de la sensibilitat numèrica del backstepping adaptatiu. En aquest sentit, la complexitat de la llei de control fa imprescindible l'ajut del càlcul numèric per a fer les computacions del senyal de control. El nostre treball estudia per primer cop els aspectes de sensibilitat numèrica del disseny de sistemes de control mitjançant backstepping. Es demostra que, tot i que l'augment dels paràmetres de disseny millora teòricament la resposta del sistema, aquest augment provoca l'aparició d'altes freqüències en el senyal de control.La tercera línia de recerca que tractem en aquest treball és la utilització de solucions numèriques a problemes de control quan solucions analítiques -com ara el backstepping- fallen o són molt difícils d'implementar. De fet, una limitació de la tècnica del backstepping és la necessitat de que el sistema controlat tingui una certa estructura triangular. D'altra banda, una altra limitació pràctica d'aquest mètode és la sensibilitat numèrica o la complexitat de la llei de control. Com una alternativa a les solucions analítiques del problemes de control, es presenta una nova tècnica numèrica. La tècnica està basada en un criteri de convergència recentment desenvolupat -dual del segon teorema de Lyapunov- i en un programari que verifica la positivitat de polinomis de vàries variables basant-se en una descomposició en sumes de quadrats. Les nostres contribucions en aquesta àrea consisteixen a estendre aquestes tècniques a sistemes racionals i la inclusió d'incerteses paramètriques en la formulació del problema de síntesi del control.

Page generated in 0.0517 seconds