• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 61
  • 15
  • 4
  • 4
  • Tagged with
  • 84
  • 20
  • 14
  • 14
  • 10
  • 10
  • 10
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Value creation through the exploitation of knowledge assets: economic implications for firm strategy

González Olmedo, Raúl Aníbal 26 April 2006 (has links)
Los ensayos contenidos en esta disertación doctoral estudian como la explotación activos intangibles tales como patentes y propiedad intelectual pueden contribuir a la creación de valor y fortalecer las ventajas competitivas de la firma. En particular, se busca estudiar las diferentes estrategias seguidas por las empresas para explotar el valor creado a través de la innovación, examinando como la incertidumbre de mercado y los activos necesarios para explotar el la innovación, determinan la decisión de comercialización. El primer capitulo presenta un modelo teórico que estudia la decisión de comercializar una patente como una opción para invertir. El segundo capitulo aborda el problema de comercialización a través de una licencia, cuando el nivel de incertidumbre de mercado es alta. Finalmente, el ultimo capitulo examina como los spillovers entre diferentes grupos de investigación afectan el valor de las innovaciones creadas. / The essays in this thesis are concerned to study the potential linkages between Firms' business strategies and how the exploitation of intellectual assets determines the way innovation can help in building competitive advantages and increasing firm value. In particular, I focus on the different strategies employed by firms to exploit the value created by innovation, examining how market uncertainty and complementary assets affect commercialization decisions. The first chapter of the thesis develops a theoretical model that studies the decision to commercialize as an option to invest. The second chapter is an empirical test to find how market uncertainty can affect the likelihood that a disembodied patent will be licensed. Finally the last chapter studies how knowledge spillovers affect the value of patented inventions.
52

Quantifiers as evidence of the language of uncertainty: A psycholinguistic approach / Cuantificadores como evidencia del lenguaje de la incertidumbre: un abordaje psicolingüístico

Bazán Guzmán, Jorge Luis, Aparicio Pereda, Ana Sofía 25 September 2017 (has links)
A theoretical approach is presented to study the quantifiers like evidence of the languageof uncertainty. The following topics are considered: language and uncertainty, probabilistic reasoning, learning and evaluation of the quantifiers, and the study of the quantifiers like study of the meaning and the understanding of words, which constitutes the psycholinguis- tics of the quantifiers. We argue that the quantifiers, as words, are part of the language of uncertainty that is part of the probabilistic reasoning, but the mechanism of its learning is not known. We also consider that it is important to locate the study of the quantifiers within the study of the meaning as evidence of internal psychological processes. Future investigatio-ns will facilitate a better understanding of the use of the quantifiers. / Se presenta una aproximación teórica para estudiar los cuantificadores como evidencia del lenguaje de incertidumbre. Se consideran los siguientes temas: lenguaje e incertidumbre, razonamiento probabilístico, aprendizaje y evaluación de los cuantificadores, y estudio de los cuantificadores como estudio del significado y la comprensión de palabras, los cuales constituyen la psicolingüística de los cuantificadores. Nosotros argumentamos que los cuantificadores, como palabras, forman parte del lenguaje de incertidumbre que es parte del razonamiento probabilístico, pero el mecanismo de su aprendizaje es desconocido. También consideramos que es importante situar el estudio de los cuantificadores dentro del estudio del significado como evidencia de procesos psicológicos internos. Investigaciones futuras ayudarán a una mayor comprensión del uso de los cuantificadores.
53

Validación de Algoritmos para Simulaciones de Atributos Geo-Minero-Metalúrgicos

Barrera Rojas, Sergio Andrés January 2007 (has links)
No description available.
54

Wittgenstein: Instinctive uncertainty and conceptual diversity / Wittgenstein: incertidumbre instintiva y diversidad conceptual

Scotto, Carolina 09 April 2018 (has links)
Important theories about the attribution of mental contents and/or linguisticmeanings propose a theoretical characterization about mental and linguisticunderstanding. As one of the consequences of this, they cannot account forinstances of genuine conceptual diversity: the exotic expressions and their conceptual repertoires must be re-describe by means of a theory, articulated in our conceptual repertoire, that eliminates that diversity. Wittgenstein, on the other side, has argued that understanding of the linguistic and non linguistic behavior of other creatures is based on primitive ways of reciprocal understanding, settled on practical agreements. Consequently, he has characterized our relationship towards radically estrange behaviors as a form of instinctive uncertainty”. On these bases, I will attempt to show how it is possible to dissolve skeptical problems and elude contrived solutions about other forms of life”, recognizing that genuine conceptual diversity is possible. / Importantes teorías acerca de la atribución de contenidos mentales y/o de significados lingüísticos proponen una caracterización teoricista acerca de la comprensión mental y lingüística. Entre sus efectos, no pueden dar cuenta decasos de genuina diversidad conceptual: las expresiones exóticas y sus repertorios conceptuales tienen que ser re-descritas por medio de una teoría, expuesta en nuestro propio repertorio conceptual, que elimine esa diversidad. Wittgenstein, por su parte, ha argumentado que la comprensión de la conducta lingüística y no lingüística de otras criaturas se asienta en modalidades primitivas de comprensión recíproca, basadas a su vez en concordancias de orden práctico.Consecuentemente, ha caracterizado nuestra relación con comportamientos radicalmente extraños como una forma de incertidumbre instintiva”. En este trabajo intentaré mostrar cómo es posible sobre estas bases disolver problemas escépticos y evitar soluciones artificiosas acerca de otras formas de vida”, reconociendo que la genuina diversidad conceptual es posible.
55

ANÁLISIS DE INCERTIDUMBRE Y ANÁLISIS DE SENSIBILIDAD GLOBAL EN LA DURACIÓN DE PROYECTOS USANDO LA MATRIZ DE ESTRUCTURA DEPENDIENTE

Gálvez Ahumada, Edelmira Delfina 14 December 2015 (has links)
[EN] Scheduling is of critical importance to project management. Traditional project scheduling methods, such as PERT and CPM do not treat interdependence of activities; thus, the dependency structure matrix (DSM) has become a common tool for programming activities in recent years. The DSM has been useful for the analysis of systems with dependence among its components. In the context of scheduling, the DSM can be used to program activities, hence determining the project duration with and without communication times, as well as with and without overlapping of activities. However, the variables representing the DSM have usually been considered as deterministic, a situation that is not consistent with reality, thus limiting the effectiveness of the DSM. All input variables have uncertainties that are essential to the analysis the scheduling using the DSM. This thesis applies uncertainty analysis and global sensitivity analysis (GSA) to DSM-based scheduling. Specifically, the following objectives are explored: a) conduct uncertainty analysis using mathematical intervals (gray theory); b) perform uncertainty analysis using Monte Carlo simulation; c) apply GSA to identify significant variables in project scheduling; d) compare the various methods of GSA for identifying significant activities project scheduling; e) develop a methodology to identify activities and variables that are critical or influential in achieving a desired duration of the project. A conventional sensitivity analysis was conducted. The GSA was performed using scatter plots, partial correlation coefficients, rank partial correlation coefficients, standardized regression coefficients, rank standardized regression coefficients, Morris method, Sobol' method, and Monte Carlo Filtering method. In conclusion, uncertainty and sensitivity analysis should be an integral part of the DSM -based scheduling. This extension provides valuable information for project management that can improve the implementation of projects. From sensitivity analysis in particular, it has been found that the characterization of uncertainty of input variables is a key component in the sensitivity analysis of project duration. With regard to GSA standardized regression coefficients, Morris and Sobol' methods are best suited for GSA. Monte Carlo Filtering provides further assistance in identifying the critical variables. Restricting these critical variables can be used to compress the project duration. / [ES] La programación de actividades es una acción fundamental en la dirección y gestión de proyectos. Considerando que las técnicas tradicionales de planificación y programación de proyectos, PERT y CPM, no tratan bien la interdependencia de actividades, en los últimos años se ha incorporado la matriz de estructura dependiente (MED) como una herramienta para programar actividades. La MED ha mostrado ser una herramienta eficaz para el análisis de sistemas que presentan dependencia entre sus componentes. Su incorporación a la programación de actividades permite determinar la duración de proyectos sin y con tiempos de comunicación, sin y con solape de actividades. Sin embargo, las variables que representan la MED han sido consideradas como determinísticas, situación que no coincide con la realidad, y por lo tanto limitan su aplicación práctica. Todas las variables de entrada presentan incertidumbre que deben ser consideradas para analizar la programación de actividades usando la MED. Esta tesis busca reducir esa brecha de conocimiento estudiando el efecto de la incertidumbre en la programación de actividades basado en la MED realizando análisis de incertidumbre y análisis de sensibilidad global (ASG). Específicamente se plantean los siguientes objetivos: a) realizar análisis de incertidumbre usando matemática de intervalos (teoría gris); b) realizar análisis de incertidumbre usando simulación de Monte Carlo; c) aplicar ASG para identificar actividades y variables significativas en la programación de actividades; d) comparar los diferentes métodos de ASG como métodos para identificar actividades y variables significativas en la programación de actividades; y e) desarrollar una metodología que permita identificar las actividades y variables críticas o influyentes en lograr una duración de proyecto deseada. El análisis de sensibilidad fue realizado siguiendo los pasos convencionales de éste tipo de estudio. El ASG se realizó utilizando diagramas de dispersión, coeficientes de correlación parcial, coeficientes de correlación por rangos parciales, coeficientes de regresión estandarizados, coeficientes de regresión por rango estandarizados, método de Morris, método de Sobol' y método de Monte Carlo Filtering. La principal conclusión es: el análisis de incertidumbre y el análisis de sensibilidad deben ser parte integral de la programación de actividades usando la MED, estas técnicas suministran información valiosa para la dirección y gestión de proyectos que puede ser utilizada junto a otras informaciones para mejorar la ejecución de los proyectos. En particular en el análisis de sensibilidad es posible destacar que la caracterización de la incertidumbre de las variables de entrada es un componente clave en el análisis de sensibilidad en la duración del proyecto. En relación al ASG podemos destacar que los métodos de coeficientes de regresión estandarizados, método de Morris y el método de Sobol' son los más adecuados para realizar ASG. Además, la aplicación de Monte Carlo Filtering facilita la identificación de las variables críticas y su regionalización consigue comprimir la duración del proyecto. / [CAT] La programació d'activitats és una acció fonamental en la direcció i gestió de projectes. Considerant que les tècniques tradicionals de planificació i programació de projectes, PERT i CPM, no tracten bé la interdependència d'activitats, en els darrers anys s'ha incorporat la matriu d'estructura dependent (MED) com una eina per programar activitats. La MED ha mostrat ser una eina eficaç per a l'anàlisi de sistemes que presenten dependència entre els seus components. La seva incorporació a la programació d'activitats permet determinar la durada de projectes sense i amb temps de comunicació, sense i amb solapament d'activitats. No obstant això, les variables que representen la MED han estat considerades com determinístiques, situació que no coincideix amb la realitat, i per tant limiten la seva aplicació pràctica. Totes les variables d'entrada presenten incertesa que han de ser considerades per analitzar la programació d'activitats usant la MED. Aquesta tesi busca reduir aquesta bretxa de coneixement estudiant l'efecte de la incertesa en la programació d'activitats basat en la MED realitzant anàlisis d'incertesa i anàlisi de sensibilitat global (ASG). Específicament es plantegen els següents objectius: a) realitzar anàlisis d'incertesa utilitzant matemàtica d'intervals (teoria gris); b) realitzar anàlisis d'incertesa utilitzant simulació de Monte Carlo; c) aplicar ASG per identificar activitats i variables significatives en la programació d'activitats; d) comparar els diferents mètodes d'ASG com a mètodes per identificar activitats i variables significatives en la programació d'activitats; i e) desenvolupar una metodologia que permet identificar les activitats i variables crítiques o influents en aconseguir una durada de projecte desitjada. L'anàlisi de sensibilitat va ser realitzat seguint els passos convencionals d'aquest tipus d'estudi. L'ASG es va realitzar utilitzant diagrames de dispersió, coeficients de correlació parcial, coeficients de correlació per rangs parcials, coeficients de regressió estandarditzats, coeficients de regressió per rang estandarditzats, mètode de Morris, mètode de Sobol' i mètode de Monte Carlo Filtering. La principal conclusió és l'anàlisi d'incertesa i l'anàlisi de sensibilitat han de ser part integral de la programació d'activitats utilitzant la MED, aquestes tècniques subministren informació valuosa per a la direcció i gestió de projectes que pot ser utilitzada al costat d'altres informacions per a millorar la execució dels projectes. En particular en l'anàlisi de sensibilitat és possible destacar que la caracterització de la incertesa de les variables d'entrada és un component clau en l'anàlisi de sensibilitat en la durada del projecte. En relació a l'ASG podem destacar que els mètodes de coeficients de regressió estandarditzats, mètode de Morris i el mètode de Sobol' són els més adequats per a realitzar anàlisis de sensibilitat global. A més, l'aplicació de Montecarlo Filtering facilita la identificació de les variables crítiques i la seva regionalització aconsegueix comprimir la durada del projecte incloent. / Gálvez Ahumada, ED. (2015). ANÁLISIS DE INCERTIDUMBRE Y ANÁLISIS DE SENSIBILIDAD GLOBAL EN LA DURACIÓN DE PROYECTOS USANDO LA MATRIZ DE ESTRUCTURA DEPENDIENTE [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58777 / TESIS
56

Modelling with uncertainty the ideological evolution of a society with extreme groups

Tarazona Tornero, Ana Celia 03 March 2014 (has links)
The Basque Country is a northern Spanish region (Autonomous Community) where, from 1960¿s, there is a organization called ETA that wants to achieve its political goals by violent means. The Basque population is divided, mainly, into the ones who support or reject the ETA¿s political goals and its violent means. Also, the pressure of ETA and its supporters on the Basque population are present in the daily life. Taking into account the Basque scenario, in this PhD dissertation, we are interested in how the di¿erent groups of people defined by their attitude towards ETA evolve over the time, with two main aims: ¿ find out which the most relevant events that make changes in the attitude evolution are, ¿ taking into account the relation between ETA¿s supporters and ETA¿s member source, predict the attitude evolution in the next future in order to see if the supporters group wanes and, as a consequence, ETA also does. To do that, on one hand, we use elections and Euskobarometro data (Euskobaromero is a sociological statistical survey in the Basque Country), and then, we build the mathematical models assuming the hypothesis that the change of attitude, ideology or opinion may be socially transmitted. Therefore, classical techniques in epidemiology are used to build and study these models. On the other hand, we should not forget that we want to study a problem in Social Sciences, where data, coming from surveys, contain errors. Therefore, during the development of this dissertation it is necessary to use techniques to deal with uncertainty in the presented models. In fact, we use some, trying to avoid in each new technique the disadvantages that appear in the previous one. The structure of this PhD dissertation is as follows. In Chapter 1 we introduce the problem to be studied and make a historical overview of the PhD thesis. In Chapter 2 we summarise the main facts in the history of ETA that we consider relevant to the proper development of the present dissertation. A firstmodel is presented in Chapter 3. Here, we divide the population of the Basque Country depending on the political party they vote and classify the political parties respect to their opinion on the idea of ¿independence from Spain¿, one of the main goals of ETA. Thus, with data of general elections, we build a type-epidemiological model and use the Latin Hypercube Sampling technique to predict with uncertainty over the next election dates, the dynamics of the population respect to the idea of ¿independence from Spain¿. In the Chapter 4, Euskobarometro data about the ¿population attitude towards ETA¿ are used to build a model to find out if the ¿Law of Political Parties¿ (LPP) passed in Jun 2002 had e¿ect on the attitude towards ETA of the Basque Population. We use a bootstrapping technique to know if the di¿erences between the model prediction and Euskobarometro data after LPP are significative and quantify these di¿erences. In this case, bootstrapping is the technique that allows us to deal with the model uncertainty. In the Chapter 5, using the same model as in the Chapter 4 and Euskobarometro data about the population attitude towards ETA since May 2005, we predict with uncertainty the evolution dynamics of the groups providing a model confidence band prediction over the next few years. To do that we introduce a new computational technique to deal with the model uncertainty. / Tarazona Tornero, AC. (2014). Modelling with uncertainty the ideological evolution of a society with extreme groups [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/36068 / TESIS
57

Control predictivo basado en modelos (CPBM) robusto con BDU

Ramos Fernández, César 06 May 2008 (has links)
El Control Predictivo Basado en Modelos (CPBM) optimiza un índice que incorpora un parámetro de penalización para las acciones de control lambda, con el fin de que no sean demasiado bruscas, a la vez que se mejora la robustez del sistema. El principal inconveniente radica en que el sintonizado de lambda se suele regir por criterios empíricos, y poco orientados a la mejora de la robustez. De entre las diferentes técnicas de mejora de la robustez en CPBM se destaca la optimización Min-Max de las especificaciones, donde se resuelve el problema de optimización para el peor modelo en una región acotada. Desde otro punto de vista, el principio de mínimos cuadrados está presente en numerosas teorías de identificación y control. De hecho el CPBM se puede plantear como un problema de mínimos cuadrados. Su principal inconveniente radica en que es sensible a los errores en los datos (mal condicionamiento), lo cual se puede mejorar regularizando el problema mediante el parámetro de regularización lambda ajustado empíricamente (análogo al parámetro lambda de penalización del esfuerzo de control en CPBM). La técnica BDU (Bounded Data Uncertainties) es una técnica de regularización de problemas de mínimos cuadrados, originalmente desarrollada para problemas de estimación, y poco usada en control, salvo el controlador lineal cuadrático (LQR) con horizonte de predicción finito considerando incertidumbre paramétrica. Dicha técnica diseña el parámetro de regularización lambda teniendo en cuenta la cota de la incertidumbre presente en el sistema y plantea el problema como una optimización Min-Max. Por lo tanto se puede establecer la analogía con el problema Min-Max de CPBM robusto, así el objetivo principal de la tesis consiste en usar la técnica BDU para sintonizar lambda de modo guiado y con el fin de mejorar la robustez del sistema. Otro objetivo adicional es asegurar la estabilidad. Por tanto, se pretende plantear un LQR robusto y estable, denominado LQR-BDU, robusto por usar / Ramos Fernández, C. (2007). Control predictivo basado en modelos (CPBM) robusto con BDU [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1844 / Palancia
58

Programación de la producción en un taller de flujo híbrido sujeto a incertidumbre: arquitectura y algoritmos. Aplicación a la industria cerámica

Gómez Gasquet, Pedro 03 May 2010 (has links)
En un marco de competencia global en el cual los tiempos de respuesta son cada vez más relevantes como elemento competitivo y donde, en no pocas ocasiones, las empresas tiende a ofrecer un catálogo de productos amplio y diferenciado de la competencia, existen múltiples retos que las Organizaciones deben afrontar. Dentro de éstas la Dirección de Operaciones tiene el reto de adaptar los procesos de Gestión de los Sistemas Productivos y Logísticos a las actuales necesidades. En este proceso de cambio es habitual partir de Sistemas Productivos poco flexibles y orientados a la producción en masa en los que es fundamental emplear el mejor "saber-hacer" para procurar obtener el rendimiento más adecuado de los recursos disponibles. El despliegue de unas buenas prácticas en el ámbito de la Programación de la Producción puede ayudar en buena medida a mejorar la eficiencia de los recursos. Tradicionalmente se ha venido considerando a la Programación de la Producción con una visión bastante cuantitativa en la que su misión consistía en asignar, secuenciar y temporizar los diferentes trabajos del periodo en base a los recursos disponibles. No obstante, sin dejar de ser válido este planteamiento, en esta tesis se desea enfatizar como en realidad el fin último de las técnicas y métodos desarrollados durante años en el ámbito de la Programación de la Producción no es otro que el de ser empleados dentro de un Sistemas de Ayuda a la Toma de Decisiones. Y en este sentido, las decisiones operativas que se toman en el área del Programador de la Producción deben estar conectadas en todos los casos, al menos, con su entorno decisional más directo como es el de la Planificación de la Producción. Una revisión literaria en profundidad al extenso trabajo realizado en más de 50 años de existencia de lo que se ha denominado, empleando la terminología en lengua inglesa, como "Scheduling" pone de manifiesto la existencia una necesidad que debe ser cubierta. / Gómez Gasquet, P. (2010). Programación de la producción en un taller de flujo híbrido sujeto a incertidumbre: arquitectura y algoritmos. Aplicación a la industria cerámica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7728 / Palancia
59

Efficient simulation of the pantograph-catenary dynamic interaction. Catenary optimisation and installation error analysis

Gregori Verdú, Santiago 22 June 2018 (has links)
El modelado y la simulación de la interacción dinámica entre el pantógrafo y la catenaria se ha convertido en una herramienta imprescindible para agilizar el proceso de diseño de catenarias ferroviarias ya que, entre otras ventajas, es posible reducir el número necesario de los tan costosos ensayos experimentales en vía. Para la realización de dichas simulaciones numéricas, la catenaria se modela mediante el método de los Elementos Finitos, mientras que el modelo del pantógrafo es de parámetros concentrados. La interacción entre ambos sistemas se trata con un método de penalti. Tras resolver el problema no lineal de configuración inicial, la ecuación del movimiento se linealiza, y se resuelve con la técnica HHT. Sin embargo, el aflojamiento de las péndolas y los despegues del pantógrafo son dos fuertes no linealidades que deben ser consideradas en la resolución del problema dinámico, aunque aumenten notablemente el coste computacional de cada simulación. Los objetivos principales de esta Tesis son encontrar catenarias óptimas en términos de calidad de captación de corriente y analizar los efectos de los errores de montaje de la catenaria. Para alcanzarlos, es necesario realizar un número elevado de simulaciones de la interacción dinámica entre pantógrafo y catenaria, cuyo coste computacional puede llegar a ser prohibitivo. Para reducir el coste computacional, la primera propuesta se basa en el cálculo de una solución paramétrica de la interacción dinámica entre pantógrafo y catenaria, para cualquier valor de las variables de diseño, por medio de la técnica Proper Generalised Decomposition (PGD). Si las longitudes de las péndolas son consideradas como variables de diseño, la aplicación de este método resulta exitosa en el caso del problema de equilibrio estático, pero no en el caso del dinámico, donde se considera que las péndolas no transmiten fuerzas a compresión. La solución del problema resulta muy sensible ante pequeños cambios de las variables y por tanto, se requiere de un elevado número de modos PGD para tener una solución paramétrica de suficiente precisión. La segunda propuesta consiste en el desarrollo de una estrategia para resolver el problema de interacción dinámica con la que se reduzca considerablemente el tiempo de cálculo. El algoritmo propuesto se divide en dos fases y se basa en pasar los términos no lineales a la parte derecha de la ecuación de la dinámica del sistema. Tras el cálculo y almacenamiento de la respuesta ante fuerzas unitarias, en la segunda etapa del método, el tratamiento de las no linealidades se condensa en un sistema de ecuaciones pequeño cuyas incógnitas son las fuerzas relacionadas con dichas no linealidades, en vez de los desplazamientos nodales globales. Con este algoritmo eficiente, es posible llevar a cabo la optimización de la geometría de catenarias ferroviarias. En concreto, la altura del cable de contacto y la separación entre péndolas son los parámetros de diseño a optimizar para obtener así una captación de corriente óptima. El problema de optimización se resuelve mediante un Algoritmo Genético clásico, y se aplica a diferentes tipos de catenarias. Los resultados obtenidos indican que un diseño óptimo de la geometría puede mejorar notablemente la captación de corriente de las catenarias actuales. Finalmente, se estudia la influencia que tienen los errores de montaje de la catenaria en el comportamiento dinámico del sistema. Con un planteamiento estocástico, se considera variabilidad en la longitud de las péndolas, en la separación entre ellas y en la altura de los soportes. Mediante la aplicación un método clásico de Montecarlo, se propaga la incertidumbre a las magnitudes de interés y se obtiene su función de densidad de probabilidad. Los resultados muestran que los errores cometidos en la colocación de las péndolas apenas influyen en la respuesta del sistema, mientras que errores en l / Modelling and simulation of the dynamic interaction between pantograph and catenary has become a powerful tool to expedite the catenary design process since, among other advantages, it helps in reducing the number of the costly experimental in-line tests. In order to tackle these numerical simulations, in this Thesis the catenary system is modelled by the Finite Element technique, while a simple lumped-mass model is used for the pantograph. The interaction between the two systems is accomplished with a penalty formulation. After solving the initial nonlinear configuration problem, the equation of motion is linearised with respect to the static equilibrium position and it is then solved by applying the Hilber-Hughes-Taylor (HHT) time integration method. However, dropper slackening and pantograph contact losses are two sources of nonlinearities which must be considered in the solution procedure at the expense of an increase in the computational cost. The main objectives of this Thesis are both to find optimal catenaries in terms of current collection quality and to analyse the effect of installation errors in the dynamic behaviour of the system. To achieve these goals, it is mandatory to perform a large number of pantograph-catenary dynamic simulations for which the computational cost can become prohibitive. In order to reduce this computational effort, the first proposal made in this Thesis is to precompute a parametric solution of the pantograph-catenary dynamic interaction for all values of the design variables, by means of the Proper Generalised Decomposition (PGD) technique. If dropper lengths are considered as design variables, this parametric approach is successful when applied to the static equilibrium problem. Nevertheless, in the dynamic case, when dropper slackening is considered, the solution exhibits a great sensitivity to small changes in the parameters and therefore, a huge number of PGD modes are required to obtain the parametric solution with enough accuracy. The impossibility of having a parametric solution leads the author to propose a fast strategy to simulate the dynamic interaction problem, providing remarkable saves in computational cost. The method is divided into two stages which are based on moving the nonlinear terms to the right hand side of the dynamic equation. In the first stage, the response of the system under unitary forces is precomputed and stored. Then, in the second stage of the method, the treatment of the nonlinearities is condensed into a small system of equations, whose unknowns are now the forces associated with the nonlinearities instead of the nodal displacements of the whole system. With this proposed algorithm, it is possible to carry out efficient optimisations of the catenary geometry. Specifically, contact wire height and dropper spacing are considered as design variables in order to obtain the most uniform interaction force that leads to the optimal current collection. The optimisation problem is solved by means of a classic Genetic Algorithm, applied to both simple and stitched catenaries. The results obtained show that an optimal catenary design can remarkably improve the current collection quality of the actual catenaries. Finally, the influence of the installation errors on the dynamic behaviour of the system is analysed under a stochastic approach in which variability in dropper length, dropper spacing and support height are involved in the simulations. The use of a Monte Carlo method allows the propagation of the uncertainty to the magnitudes of interest of the dynamic solution and therefore, to obtain their probability density function. The results of Monte Carlo simulations demonstrate that dropper spacing errors are slightly influential, whilst dropper length and supsupport height installation errors have a strong influence on the dynamic behaviour of the system. / El modelatge i la simulació de la interacció dinàmica entre el pantògraf i la catenària ha esdevingut en una ferramenta imprescindible per a agilitzar el procés de disseny de catenàries ferroviàries degut, entre altres coses, a la possibilitat de reduir el nombre dels tan costosos assajos experimentals en via. Per a la realització d'aquestes simulacions numèriques, la catenària es modela mitjançant el mètode dels Elements Finits, mentre que el model de pantògraf és de paràmetres concentrats. La interacció entre ambdós sistemes es tracta amb un mètode de penalti. Després de resoldre el problema no-lineal de configuració inicial, l'equació del moviment es linealitza i es resol amb la tècnica HHT. Tanmateix, l'afluixament de les pèndoles a compressió i la pèrdua de contacte del pantògraf són dues fortes no-linealitats que han de ser considerades en la resolució del problema dinàmic, malgrat l'augment que produeixen del cost computacional de cada simulació. Els objectius principals d'aquesta Tesi són trobar catenàries òptimes en termes de qualitat de captació de corrent i analitzar els efectes dels errors de muntatge de la catenària. Per a assolir-los és necessari realitzar un nombre elevat de simulacions de la interacció dinàmica entre pantògraf i catenària, el que pot comportar un cost computacional prohibitiu. Per tal de reduir el cost computacional, la primera proposta consisteix a calcular una solució paramètrica del problema d'interacció dinàmica entre pantògraf i catenària, per a qualsevol valor de les variables de disseny, mitjançant la tècnica Proper Generalised Decomposition (PGD). Si les longituds de les pèndoles es consideren com a variables de disseny, l'aplicació d'aquest mètode és exitosa en el cas del problema d'equilibri estàtic, però no en el cas del dinàmic, on es considera que les pèndoles no poden transmetre força a compressió. La solució del problema és molt sensible a xicotets canvis de les variables i per tant, es necessita un elevat nombre de modes PGD per a obtenir una solució paramètrica amb suficient precisió. La segona proposa consisteix en el desenvolupament d'una estratègia per a resoldre el problema d'interacció dinàmica que reduïsca considerablement el temps de simulació. L'algoritme proposat es divideix en dues fases i es basa a moure els termes no lineals a la part dreta de l'equació de la dinàmica del sistema. Després de calcular i s'emmagatzemar la resposta del sistema a forces unitàries, en la segona etapa del mètode, el tractament de les no linealitats es condensa en un xicotet sistema d'equacions les incògnites del qual passen a ser forces en compte de desplaçaments. Amb aquest algoritme eficient, s'ha pogut realitzar l'optimització de la geometria de catenàries ferroviàries. En concret, l'altura del cable de contacte i la separació entre pèndoles es consideren com a paràmetres a optimitzar per a obtenir una òptima captació de corrent. L'optimització es porta a terme mitjançant un Algoritme Genètic clàssic, i s'aplica a diferents tipus de catenàries. Els resultats obtinguts indiquen que un disseny òptim de la geometria pot millorar notablement la captació de corrent de les actuals catenàries. Finalment s'estudia la influència que tenen les errades de muntatge de la catenària en el comportament dinàmic del sistema. Aquest plantejament estocàstic considera variabilitat en la longitud de les pèndoles, la separació entre aquestes i l'altura dels suports. Per mitjà d'un mètode clàssic de Montecarlo, es propaga la incertesa a les magnituds d'interés i s'obté la seua funció de densitat de probabilitat. Els resultats mostren que hi ha molt poca influència per part de les errades comeses en la col·locació de les pèndoles, mentre que errades en la longitud de les pèndoles i en l'altura dels suports sí que influeixen considerablement en el comportament dinàmic del sistema. / Gregori Verdú, S. (2018). Efficient simulation of the pantograph-catenary dynamic interaction. Catenary optimisation and installation error analysis [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/104507 / TESIS
60

Tres décadas de Evaluación del Impacto Ambiental en España. Revisión, necesidad y propuestas para un cambio de paradigma

Tomás Sánchez, José Enrique de 23 January 2015 (has links)
Desde la implantación de la Evaluación del Impacto Ambiental en España, hace ya más de tres décadas, ni los procedimientos ni el concepto mismo parecen haber experimentado evolución alguna, al menos a mejor. Varios factores han contribuido a que, en la actualidad, la EIA se haya convertido en poco más que un requisito administrativo, en “una cosa más” que pedir a los promotores que pretendan implementar sus proyectos. La verdadera importancia de una EIA consistente y orientada a la protección y conservación del medio ambiente ha sido relegada a una posición de languidecimiento como principio y de obstáculo como requisito para el desarrollo. Las causas deben buscarse entre varias razones: - La apatía de la Administración y su propio interés en que el Medio Ambiente no tenga la entidad que la sociedad demanda (de lo cual es buena muestra el que en ninguna de las Administraciones del Estado, este goce de identidad propia, sino que se encuentra supeditado a otros principios políticamente superiores, como el urbanismo o la industria, de quienes es subsidiario en todos los casos) o de que sus competencias estén repartidas entre esas otras instancias “de rango superior”. - La confusión normativa, distinta (a veces muy distinta) en las diferentes Comunidades Autónomas. - La supeditación (completamente artificial y equivocada) de lo medioambiental a lo técnico. - La falta de medios humanos de la administración. - La falta de preparación, tanto entre el personal de la Administración como entre los profesionales del medio ambiente dedicados a la EIA. - La bajísima calidad promedio de los Estudios de Impacto Ambiental que se vienen presentando ante la Administración. En este último punto, el único que consideramos está en nuestras manos el contribuir a paliar, es en el que nos hemos centrado en nuestro trabajo, dividido en tres partes: 1. Trabajo de campo: Se evaluaron un total de 127 EsIA que, a falta de mayor colaboración por parte de la Administración, hubieron de ser obtenidos fundamentalmente de internet. De ellos, 77 se consideraron adecuados para su evaluación. 2. Procesos de evaluación de alternativas: Dada la habitual falta de un procedimiento claro y consistente de participación pública y elección de la mejor alternativa viable, exponemos algunos métodos matemáticamente consistentes de apoyo a la toma de decisiones. 3. Metodología de evaluación de impactos ambientales: En la actualidad, la metodología de evaluación de impactos más ampliamente utilizada es la llamada de los “números crisp”, o “números precisos”. Argumentamos la falta de consistencia matemática del procedimiento y proponemos la utilización de métodos basados en la lógica difusa; diseñamos, construimos y probamos un sistema de inferencia difusa al que llamamos SIDEIA, y proponemos su utilización como medio de incorporar la ineludible subjetividad, imprecisión e incertidumbre subyacente en gran cantidad de los datos relativos al medio ambiente necesarios para realizar la evaluación de impactos.

Page generated in 0.1253 seconds