• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 18
  • 3
  • 3
  • Tagged with
  • 115
  • 25
  • 23
  • 19
  • 19
  • 17
  • 14
  • 14
  • 14
  • 14
  • 14
  • 13
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Análisis de estudio de cohorte: factores asociados a la adherencia mensual a la suplementación oral de hierro en gestantes de Ayacucho y Andahuaylas entre 2006 y 2007 / Analysis of a cohort study: factors associated with the monthly adherence to iron supplementation in pregnant women in Ayacucho and Andahuaylas between 2006 and 2007

Méndez Francia, Paola Alexandra, Misayauri Capcha, Talia Lizbethy 30 January 2021 (has links)
La anemia en gestantes es un problema de salud pública importante a nivel mundial. Según la prevalencia registrada, en Perú persiste como un problema moderado. La pobre adherencia a la suplementación oral de hierro es una de las principales barreras para la efectividad de esta intervención. El objetivo del presente estudio fue determinar la variación de la adherencia a la suplementación oral de hierro en el tiempo y los factores asociados a esta. Para ello, se reanalizó la base de datos de la vigilancia centinela: “Estudio de adherencia a la suplementación con Hierro durante la gestación en las direcciones de salud de Apurímac y Ayacucho” de la Dirección General de Epidemiología (DGE), el cual tuvo un diseño de cohorte prospectiva longitudinal. Se realizó un análisis descriptivo de las 416 gestantes registradas y un análisis bivariado y multivariado en base a 376 gestantes. Se identificaron las variables sociodemográficas, gestacionales, relacionadas a la suplementación en el embarazo anterior y actual. Para el análisis de los factores asociados a la adherencia se usó el modelo GEE. En la segunda y tercera visita de seguimiento la adherencia incrementó en 4% y 8%, mientras que en la quinta y sexta, se redujo en 8% y 20,6%, respectivamente. Los factores que redujeron la adherencia fueron: falla en la dispensación (25, 3%), náuseas (9,5%), interacción de náuseas y vómitos (13,5%), y no le cae bien el suplemento (11%). En conclusión, la adherencia disminuye con el tiempo y los factores relacionados al suplemento y la falla en la distribución se relacionan a la reducción de esta / Anemia in pregnant women is a major public health problem worldwide. According to the registered prevalence, in Peru it persists as a moderate problem. Poor adherence to oral iron supplementation is one of the main barriers to the effectiveness of this intervention. The aim of this study was to determine the variation in adherence to oral iron supplements over time and the factors associated with it. To do this, the sentinel surveillance database of the "Study of Adherence to Iron Supplementation During Pregnancy in the Health Directions of Apurimac and Ayacucho", of general directorate of epidemiology (DGE), a longitudinal prospective cohort, was reanalyzed. A descriptive analysis of the 416 registered pregnant women and a bivariate and multivariate analysis based on 376 pregnant women was carried out. Sociodemographic, gestational, supplementation in the previous and current pregnancy variables were identified. For the analysis of the factors associated with adherence, the GEE model was used. At the second and third follow-up visit, adherence increased by 4% and 8%, while at the fifth and sixth, it decreased by 8% and 20,6%, respectively. The factors that reduced adherence were: dispensing failure (25,3%), nausea (9,5%), interaction of nausea and vomiting (13,5%), and did not like the supplement (11%). In conclusion, adherence decreases with time and the factors related to the supplement and the failure in the distribution are related to its reduction. / Tesis
102

Aplicación de fragmentador de roca, Plasma FRAG BE, en sectores productivos de la Compañía Minera Cerro de Pasco cercanas a zonas urbanas para reducir impactos generados durante la fragmentación del macizo rocoso

Cueva Rojas, Alexander, Huaynate Ríos, Andree William 20 December 2020 (has links)
La presente investigación se desarrolló en Compañía Minera Cerro de Pasco (CMCP) donde se busca aplicar el uso del Plasma como agente de fragmentación de macizo rocoso en sectores productivos de la mina cercanas a zonas de expansión urbanas. La finalidad del estudio consiste en comparar los valores de Velocidad Pico Partícula (VPP) entre el uso de Plasma Frag Be vs el ANFO a una distancia promedio igual en ambos casos. En tal sentido, se construye el modelo matemático Imperialist Competitive Algorithm (ICA) – linear, el cual permite estimar valores de VPP y a su vez modificar las variables de entrada como el burden, el espaciamiento, la longitud de taco, el factor de carga, la cantidad máxima de Plasma por disparo y la distancia entre el punto de fragmentación y la ubicación del sismógrafo. El modelo ICA-linear queda validado mediante la aplicación de 4 indicadores de rendimiento estadísticos los cuales son: el coeficiente de determinación, el error cuadrático medio, el error absoluto medio y el error porcentual absoluto medio cuyos resultados son 0.817, 5.001, 1.979 y 14% respectivamente. Los resultados de comparar los valores de VPP a una distancia promedio de 172 metros como se determinó según el estudio, en el caso del Plasma Frag Be los valores estimados son nulos, es decir no se registrarán valores a dicha distancia, mientras que en el caso del ANFO los registros muestran un valor promedio de 8.802 mm/s para la misma distancia mencionada, lo cual demuestra que los valores de VPP en el caso del uso del Plasma como fragmentador de macizo rocoso son considerablemente menores que cuando se utiliza ANFO. / The present research was developed at Compañía Minera Cerro de Pasco (CMCP) where the aim is to apply the use of Plasma as a rock fragmentation agent in productive sectors of the mine close to urban expansion areas. The purpose of the study is to compare the values of Peak Particle Velocity (PPV) between the use of Plasma Frag Be vs ANFO at an equal average distance in both cases. In this sense, the Imperialist Competitive Algorithm (ICA) - linear mathematical model is built, which allows estimating PPV values and in turn modifying the input variables such as the burden, spacing, stemming, power factor, maximum charge of Plasma per delay and the distance from the blast-point to the seismograph. The ICA-linear model is validated by applying 4 statistical performance indicators which are: the determination coefficient, the mean square error, the mean absolute error and the mean absolute percentage error whose results are 0.817, 5.001, 1.979 and 14% respectively. The results of comparing the PPV values at an average distance of 172 meters as determined by the study, in the case of Frag Be Plasma the estimated values are zero, that is, no values will be recorded at that distance, while in the case of ANFO the records show an average value of 8,802 mm/s for the same distance mentioned, which shows that the PPV values in the case of the use of Plasma as a rock mass fragmentation device are considerably lower than when ANFO is used. / Tesis
103

Propuesta de ajuste al modelo predictivo Kuz-Ram empleando análisis granulométrico de imágenes para mejorar la estimación de la fragmentación de roca volada en un yacimiento hidrotermal de alta sulfuración del Perú

Arispe García, Rolando Alberto, Sosa Valdivia, Manuel Martin 07 January 2022 (has links)
Este trabajo de investigación busca mejorar la estimación de la fragmentación de roca volada en minería a cielo abierto, específicamente en la empresa Minera Aruntani S.A.C. Unidad Arasi. La investigación se lleva a cabo mediante una reestructuración a la ecuación de predicción del tamaño de rocas, Kuz-Ram, modelo tradicional, cambiando el coeficiente de tierra, permitiendo disminuir los márgenes de error tomando en consideración aspectos relevantes del diseño como los parámetros geológicos, así como parámetros de perforación y voladura. Para efectuar dicho logro, se planteó una función objetivo y su posterior solución mediante el método iterativo de Newton-Raphson desarrollado en un entorno del software Matlab. El pertinente planteamiento y desarrollo permitió obtener un nuevo valor para el coeficiente de tierra con el cual se logra disminuir los porcentajes de error en la estimación de fragmentación de 40%, con el método tradicional, a un 8% en promedio logrando así una mejora considerable. / This research work seeks to improve the prediction of the fragmentation of blasted rock in open pit mining, specifically in the company Minera Aruntani S.A.C. Arasi unit. The research is carried out through a modification to the Kuz-Ram fragmentation estimation model, a traditional model, changing the land coefficient, allowing to reduce the margins of error taking into consideration relevant aspects of the design such as geological parameters, as well as parameters of drilling and blasting. To carry out this achievement, an objective function was proposed and its subsequent solution by means of the iterative Newton-Raphson method developed in a Matlab software environment. The pertinent approach and development allowed obtaining a new value for the land coefficient with which it is possible to reduce the error percentages in the fragmentation estimation from 40%, with the traditional method, to 8% on average, achieving a considerable improvement. / Tesis
104

Estudio espectral del ritmo eléctrico básico del intestino delgado para la monitorización no invasiva del marcapasos intestinal

Moreno Vázquez, José de Jesús 09 January 2012 (has links)
El aparato digestivo permite que los alimentos se conviertan en nutrientes y proporcionen al organismo las calorías y los elementos fundamentales para la vida, al mismo tiempo que se expulsan y eliminan los productos residuales de forma adecuada. La motilidad intestinal es muy importante para conseguir la segmentación del quimo y el tránsito intestinal y está determinada por la actividad mioeléctrica de las capas musculares intestinales. Dicha actividad también se le denomina electroenterograma (EEnG). La señal mioeléctrica es el resultado de una componente de baja frecuencia que en condiciones fisiológicas está siempre presente llamada onda lenta (OL) o ritmo eléctrico básico (BER) que constituye el marcapasos intestinal; y una componente de alta frecuencia llamada spike bursts o potenciales rápidos de acción que está asociada a las contracciones intestinales. El análisis del EEnG es un paso clave para monitorizar la actividad intestinal. El estudio del BER intestinal no sólo proporciona información acerca del ritmo básico de las contracciones del intestino, sino que puede ayudar a diagnosticar algunas patologías gastrointestinales. Para ofrecer esta herramienta como aplicación clínica, el registro de la señal del EEnG debe ser no invasivo. El objetivo de la presente Tesis Doctoral es detectar la actividad del marcapasos intestinal y caracterizar el ritmo eléctrico básico en el EEnG externo, comparándolo y estudiando su relación con el EEnG interno. Las señales analizadas fueron obtenidas simultáneamente en la superficie abdominal y en la serosa intestinal de perros Beagle en estado de ayuno. Los métodos de estimación autoregresivo (AR), autoregresivo de media móvil (ARMA), Prony y clasificación de señales múltiples (MUSIC), se emplearon para determinar la distribución espectral de potencia asociada a la actividad de la onda lenta, tanto en los registros internos como externos. Por otro lado, para estudiar la relación entre el espectro de la señal captada en superficie y las señales internas, se estimaron las funciones de coherencia utilizando los modelos autoregresivo multivariante (ARM) y MUSIC. / Moreno Vázquez, JDJ. (2011). Estudio espectral del ritmo eléctrico básico del intestino delgado para la monitorización no invasiva del marcapasos intestinal [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14276
105

Localización de robots móviles de recursos limitados basada en fusión sensorial por eventos

Marin Paniagua, Leonardo Jose 18 July 2014 (has links)
Uno de los aspectos esenciales en la robótica móvil es la obtención y procesamiento de la información relativa a la localización del robot en el espacio de movimiento, con el fin utilizarla para generar los movimientos deseados del robot. Para esto se busca utilizar la mayor cantidad posible de fuentes de información con el fin de corregir los errores de posición asociados a la presencia de ruido en las mediciones del robot. La fusión de esta información es tema central de la tesis en la cual se exponen distintos algoritmos de fusión, desarrollados específicamente para robots móviles con recursos de computación limitados. Utilizando modelos dinámicos en conjunto con técnicas de fusión basadas en filtro de Kalman se realiza una estimación local de la posición utilizando sensores inerciales. Esta estimación se fusiona mediante un filtro de Kalman con información de un sensor global y una corrección basada en eventos. Esta combinación de filtros en cascada con corrección basada en eventos es el principal aporte de la presente tesis. Esta solución al problema de localización permite una precisión similar pero un coste computacional menor a esquemas más complejos de fusión, lo que permite su implementación en robots de recursos limitados. El esquema propuesto se extiende para permitir la localización cooperativa de grupos de robots, modificando la actualización por eventos para incorporar la fusión de la posición de distintos robots cercanos entre si. Para esto se determina la posición entre los robots y se utiliza un sistema de comunicación y gestión basada en agentes. Este método permite realizar una fusión sensorial inteligente, tomando en cuenta únicamente la información de posición más fiable para actualizar al grupo de robots, lo que nuevamente reduce el costo computacional de la solución sin repercusiones considerables en la precisión de la localización. Los algoritmos propuestos son probados extensivamente mediante simulación y en distintas plataformas, principalmente en el LEGO NXT. Se presentan además ejecuciones de tiempo extendido que comprueban la estabilidad y robustez del método en largas distancias. / Marin Paniagua, LJ. (2014). Localización de robots móviles de recursos limitados basada en fusión sensorial por eventos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/38902
106

DEVELOPMENT AND CALIBRATION OF A GLOBAL GEOMETRIC DESIGN CONSISTENCY MODEL FOR TWO-LANE RURAL HIGHWAYS, BASED ON THE USE OF CONTINUOUS OPERATING SPEED PROFILES

Camacho Torregrosa, Francisco Javier 31 March 2015 (has links)
Road safety is one of the most important problems in our society. It causes hundreds of fatalities every year worldwide. A road accident may be caused by several concurrent factors. The most common are human and infrastructure. Their interaction is important too, which has been studied in-depth for years. Therefore, there is a better knowledge about the driving task. In several cases, these advances are still not included in road guidelines. Some of these advances are centered on explaining the underlying cognitive processes of the driving task. Some others are related to the analysis of drivers’ response or a better estimation of road crashes. The concept of design consistency is related to all of them. Road design consistency is the way how road alignment fits drivers’ expectancies. Hence, drivers are surprised at inconsistent roads, presenting a higher crash risk potential. This PhD presents a new, operating speed-based global consistency model. It is based on the analysis of more than 150 two-lane rural homogeneous road segments of the Valencian Region (Spain). The final consistency parameter was selected as the combination of operational parameters that best estimated the number of crashes. Several innovative auxiliary tools were developed for this process. One example is a new tool for recreating the horizontal alignment of two-lane rural roads by means of an analytic-heuristic process. A new procedure for determining road homogeneous segments was also developed, as well as some expressions to accurately determine the most adequate design speed. The consistency model can be integrated into safety performance functions in order to estimate the amount of road crashes. Finally, all innovations are combined into a new road design methodology. This methodology aims to complement the existing guidelines, providing to road safety a continuum approach and giving the engineers tools to estimate how safe are their road designs. / Camacho Torregrosa, FJ. (2015). DEVELOPMENT AND CALIBRATION OF A GLOBAL GEOMETRIC DESIGN CONSISTENCY MODEL FOR TWO-LANE RURAL HIGHWAYS, BASED ON THE USE OF CONTINUOUS OPERATING SPEED PROFILES [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48543
107

Metodología de integración de modelos de acuífero en sistemas de uso conjunto, mediante la evaluación eficiente de condiciones de contorno no lineales presentes en relaciones río-acuífero

Hernández Hernández, Mario Alberto 07 January 2016 (has links)
[EN] Investigations related to the comprehensive understanding of the relationship between surface and groundwater under the conjunctive water management of complex water resource systems requires establishing new tools and methods to jointly assess the natural processes of hydrological systems. When the water resources of a system with strong interaction of surface water and groundwater are evaluated, the approach in terms of conjunctive use is ideal for avoiding the duplication of resources in a simulated complex system. This thesis proposes a generic methodology for integrating models of aquifer into systems with conjunctive use, through efficient water exchange evaluation given in the river-aquifer interactions, with intensive interaction of surface water and groundwater. The main objective of this thesis is to propose a useful methodology for integrating aquifers into systems with conjunctive use, efficiently evaluating the flow exchange between surface and ground massess of a basin. The specific objectives are: (i) review and summarize the state of the art of the methodologies used to assess the river-aquifer relationships into models with conjunctive use; (ii) develop a generic methodology of conjunctive water resource management in complex basins; (iii) adapt a tool for estimating surface and groundwater flow contributions; (iv) implementing a mathematical routine for evaluating nonlinear boundary conditions (in terms of the Eigenvalues technique); (v) implement a tool of approximation of hydrogeological parameters for aquifers integrated on conjunctive use systems; (vi) integrate and apply different techniques, methods and tools in the evaluation of case studies; (vii) evaluate the regionalized effect of climate change on groundwater masses of the aquifer model of the main case study. The implementation methodology considers the following aspects: i. Avoid duplication of resources, conjunctively getting surface and infiltration contributions in the same hydrological model. ii. Propose and validate the operation of an assessment tool to evaluate the interchange flow given into river-aquifer interactions, through the efficient evaluation of nonlinear boundary conditions. iii. Propose a tool to generate and evaluate hydrogeological parameters for its use in models of Eigenvalues aquifers. iv. Propose and evaluate a particular methodology for analyzing the regionalized impact of climate change on groundwater masses on the case study aquifer. On this thesis auxiliary tools were implemented for modeling and simulating the conjunctive water resources in a complex basin such as the case study: the Duero River Basin, Spain. The results of implementing the methodology, tools and specific methods on a complex case study were satisfactory, to achieve the validation of the methodology and adaptations of pre-existing tools and methods. The use of semi-distributed and conceptual rainfall-runoff models allow to selectively separate the components of surface flow and underground recharge into masses of a same water system, avoiding duplication in the evaluation of water resources. In particular, the contribution of the approximated numerical solutions have proven to be a powerful and efficient improvement proposal into the evaluation process of conjunctive water resources use in simple and complex aquifer models, demonstrated in the case studies of Beniardá- Polop and the Duero aquifers. The analysis of the regionalized impact of climate change on groundwater massesof the Duero Basin is associated with the impact on the average recharge obtained respect to the climate scenarios of the IPCC AR5 (RCP 4.5, 6.0 and 8.5, periods 2046-2065 and 2081-2100). / [ES] Las investigaciones que profundizan en el conocimiento integral de las relaciones entre el agua superficial y subterránea, en el marco de la gestión conjunta de recursos de sistemas hídricos complejos, requiere establecer nuevas herramientas y métodos que permitan evaluar conjuntamente los procesos naturales de sistemas hidrológicos. Cuando se evalúan los recursos hídricos de un sistema con interacción intensa de aguas superficiales y subterráneas, el enfoque de evaluación con carácter de uso conjunto es el ideal para evitar la duplicidad de recursos simulados en un sistema complejo. Esta tesis propone una metodología genérica para integrar modelos de acuífero en sistemas de uso conjunto, mediante la evaluación eficiente del intercambio de agua dado en las relaciones río-acuífero de un sistema con interacción intensiva de sus aguas superficiales y subterráneas. El objetivo principal de esta tesis es proponer una metodología útil para la integración de acuíferos en sistemas de uso conjunto, evaluando eficientemente el intercambio de flujo entre masas superficiales y subterráneas de una cuenca hidrológica. Los objetivos particulares son: (i) revisar y sintetizar el estado del arte sobre metodologías de evaluación de relaciones río-acuífero en modelos de uso conjunto; (ii) desarrollar una metodología genérica de evaluación conjunta de recursos hídricos en cuencas complejas; (iii) adecuar una herramienta de estimación de aportaciones superficiales y subterráneas; (iv) implementar una rutina matemática para la evaluación de condiciones de contorno no lineales (en términos de la técnica de Autovalores); (v) implementar una herramienta de aproximación de parámetros hidrogeológicos para acuíferos integrados en sistemas de uso conjunto; (vi) integrar y aplicar distintas técnicas, métodos y herramientas en la evaluación de casos de estudio; (vii) evaluar el efecto del cambio climático regionalizado sobre masas subterráneas del modelo de acuífero del caso de estudio principal. La implementación metodológica considera los siguientes aspectos: i. Evitar duplicidad de recursos, obteniendo conjuntamente aportaciones superficiales e infiltración en un mismo modelo hidrológico. ii. Proponer y validar el funcionamiento de una herramienta de evaluación del intercambio de flujo por relaciones río-acuífero, mediante la evaluación eficiente de condiciones de contorno no lineales. iii. Proponer una herramienta para generar y evaluar parámetros hidrogeológicos para su uso en modelos de acuífero por Autovalores. iv. Proponer y evaluar una metodología particular para analizar el impacto del cambio climático regionalizado sobre las masas subterráneas del acuífero del caso de estudio. En esta tesis se implementaron herramientas auxiliares para la modelación y simulación conjunta de recursos hídricos de una cuenca compleja, caso de estudio: Cuenca hidrológica del Río Duero, España. Los resultados de implementar la metodología, sus herramientas y métodos particulares sobre un caso de estudio complejo han sido satisfactorios, al lograr validar la metodología y las adecuaciones sobre herramientas y métodos pre-existentes. El uso de modelos lluvia escorrentía de tipo conceptual y semi-distribuido permite la separación de las componentes de flujo superficial y la recarga selectiva a masas subterráneas del mismo sistema hidrológico, evitando duplicidad en la evaluación del recurso hídrico. En particular, el aporte de las soluciones numéricas aproximadas han demostrado ser una propuesta potente y mejora eficiente del proceso de evaluación del uso conjunto de recursos hídricos en modelos de acuífero sencillos y complejos, demostrado en los casos de estudio del Acuífero Beniardá-Polop y el Acuífero del Duero. El análisis del impacto de cambio climático regionalizado sobre masas subterráneas del Duero está asociado al impacto sobre el valor medio de recarga para los escenario / [CA] Les investigacions que profundisen en el coneiximent integral de les relacions entre l'aigua superficial i subterranea, en el marc de la gestio conjunta de recursos de sistemes hídricos complexos, requerix establir noves ferramentes i metodos que permeten evaluar conjuntament els processos naturals de sistemes hidrologics. Quan s'evalüen els recursos hídricos d'un sistema en interaccio intensa d'aigües superficials i subterranees, l'enfocament d'evaluacio en caracter d'us conjunt es l'ideal per a evitar la duplicitat de recursos simulats en un sistema complex. Esta tesis propon una metodologia generica per a integrar models d'acuífero en sistemes d'us conjunt, mediant l'evaluacio eficient de l'intercanvi d'aigua donat en les relacions riu-acuífero d'un sistema en interaccio intensiva de les seues aigües superficials i subterranees. L'objectiu principal d'esta tesis es propondre una metodologia util per a l'integracio d'acuíferos en sistemes d'us conjunt, evaluant eficientment l'intercanvi de decorriment entre masses superficials i subterranees d'una conca hidrologica. Els objectius particulars son: (i) revisar i sintetisar l'estat de l'art sobre metodologies d'evaluacio de relacions riu-acuífero en models d'us conjunt; (ii) desenrollar una metodologia generica d'evaluacio conjunta de recursos hídricos en conques complexes; (iii) adequar una ferramenta d'estima d'aportaments superficials i subterranees; (iv) implementar una rutina matematica per a l'evaluacio de condicions de rodalia no llinials (en termens de la tecnica d'Autovalores); (v) implementar una ferramenta d'aproximacio de parametros hidrogeológicos per a acuíferos integrats en sistemes d'us conjunt; (vi) integrar i aplicar distintes tecniques, metodos i ferramentes en l'evaluacio de casos d'estudi; (vii) evaluar l'efecte del canvi climatic regionalisat sobre masses subterranees del model d'acuífero del cas d'estudi principal. L' implementación metodologica considera els següents aspectes: i. Evitar duplicitat de recursos, obtenint conjuntament aportaments superficials i infiltracio en un mateix model hidrologic. II. Propondre i validar el funcionament d'una ferramenta d'evaluacio de l'intercanvi de decorriment per relacions riu-acuífero, mediant l'evaluacio eficient de condicions de rodalia no llinials. III. Propondre una ferramenta per a generar i evaluar parametros hidrogeológicos per al seu us en models d'acuíferos per Autovalores. IV. Propondre i evaluar una metodologia particular per a analisar l'impacte del canvi climatic regionalisat sobre les masses subterranees de l'acuífero del cas d'estudi. En esta tesis se implementaron ferramentes auxiliars per a la modelación i simulación conjunta de recursos hídricos d'una conca complexa, cas d'estudi: Conca hidrologica del Riu Duero, Espanya. Els resultats d'implementar la metodologia, les seues ferramentes i metodos particulars sobre un cas d'estudi complex han segut satisfaents, al conseguir validar la metodologia i les adequacions sobre ferramentes i metodos pre-existents. L'us de models pluja escorrentía de tipo conceptual i semi-distribuit permet la separacio de les components de decorriment superficial i la recarrega selectiva a masses subterranees del mateix sistema hidrologic, evitant duplicitat en l'evaluacio del recurs hídrico. En particular, l'aporte de les solucions numeriques aproximades han demostrat ser una proposta potent i millor eficient del proces d'evaluacio de l'us conjunt de recursos hídricos en models d'acuífero senzills i complexos, demostrat en els casos d'estudi de l'acuífero Beniardá-Polop i l'acuífero del Duero. L'analisis de l'impacte de canvi climatic regionalisat sobre masses subterranees del Duero està associat a l'impacte sobre el valor mig de recarrega per als escenaris climatics de l'AR5 de l'IPCC (RCP 4.5, 6.0 i 8.5, de Periodos 2046-2065 i 2081-2100). / Hernández Hernández, MA. (2015). Metodología de integración de modelos de acuífero en sistemas de uso conjunto, mediante la evaluación eficiente de condiciones de contorno no lineales presentes en relaciones río-acuífero [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59448
108

Cost Effectiveness and Complexity Assessment in Ship Design within a Concurrent Engineering and "Design for X" Framework

Caprace, Jean-David 26 February 2010 (has links)
Decisions taken during the initial design stage determine 60% to 95% of the total cost of a product. So there is a significant need to concurrently consider performance, cost, production and design complexity issues at the early stages of the design process. The main obstacle to this approach is the lack of convenient and reliable cost and performance models that can be integrated into a complex design process as is used in the shipbuilding industry. Traditional models and analysis methods frequently do not provide the required sensitivity to consider all the important variables impacting performance, cost, production and ships life cycle. Our challenge is that achieving this sensitivity at the early design stage almost requires data available during the detail design analysis. The traditional design methods do not adequately include, early enough, production and life cycle engineering to have a positive impact on the design. Taking an integrated approach throughout the life cycle of the ship and using concurrent engineering analysis tools can improve these traditional design process weaknesses. Innovation is required in structural design and cost assessment. The use of design for X, and particular design for production and cost schemes, during the design is the solution: to reduce failure during a ships life caused by design misconception, to reduce the overall design time and to shorten the build cycle of ships, to enlarge the number of design alternatives during the design process. The author has developed some assessment methods for cost effectiveness and complexity measurements intended to be used by ship designers for the real time control of cost process. The outcome is that corrective actions can be taken by management in a rather short time to actually improve or overcome predicted unfavourable performance. Fundamentally, these methods will provide design engineers with objective and quantifiable cost and complexity measures making it possible to take rational design decisions throughout the design stages. The measures proposed in this PhD are based on several techniques like decision analysis, data mining, neural network, fuzzy logic. They are objective facts, which are not dependent on the engineers interpretation of information, but rather on a model generated to represent the ship design. The objectivity aspect is essential when using the complexity and cost measures in a design automation system. Finally, with these tools, the designers should obtain well-defined and unambiguous metrics for measurement of the different types of cost effectiveness and complexities in engineered artefacts. Such metrics help the designers and design automation tools to be objective and perform quantitative comparisons of alternative design solutions, cost estimation, as well as design optimization. In this PhD, these metrics have been applied and validated with success in real industrial conditions on the design of passenger ships. Les décisions prises au cours de la phase initiale de conception déterminent 60% à 95% du coût total dun produit. Il y a donc un besoin important denvisager simultanément des aspects de performance, de coût, de production, de complexité au stade précoce du processus de conception. Le principal obstacle à cette approche est le manque de commodité et de fiabilité des modèles de coûts et des modèles danalyse de performance qui peuvent être intégrés dans un processus de conception aussi complexe que celui utilisé dans lindustrie de la construction navale. Les modèles traditionnels et les méthodes danalyse les plus fréquemment utilisés ne fournissent pas la sensibilité nécessaire pour examiner toutes les variables de conception importantes qui ont une influence sur la performance, le coût, la production et le cycle de vie des navires. Notre défi est quatteindre cette sensibilité au niveau de la conception initiale demande presque toujours des données uniquement disponibles lors de la conception détaillée. Les méthodes de conception traditionnelles ne prennent pas suffisamment en compte, suffisamment tôt, la production et lingénierie du cycle de vie afin davoir un impact positif sur la conception. Adopter une approche intégrée sur lensemble du cycle de vie des navires et utiliser lingénierie simultanée peuvent améliorer les faiblesses des processus de conception traditionnels. Linnovation est nécessaire dans la conception structurelle et lévaluation des coûts. Lutilisation du concept de "design for X", et en particulier le design en pensant à la production et à la réduction des coûts lors de la conception est la solution : pour réduire les dysfonctionnements qui peuvent apparaître pendant la vie du navire causés par des erreurs de conception, de réduire le temps total de conception et de raccourcir le cycle de la construction de navires, délargir le nombre dalternatives de conception évaluées au cours du processus de conception. Lauteur a développé quelques méthodes dévaluation des coûts et des techniques de mesure de la complexité destinées à être utilisés par les concepteurs de navire pour le contrôle en temps réel de la conception. Le résultat est que les actions correctives peuvent être prises par la direction dans un temps assez court pour améliorer réellement ou surmonter les prévisions de performance défavorables. Fondamentalement, ces méthodes offrent aux ingénieurs de conception des mesures quantifiables des coûts et de la complexité qui rend possible la prise de décisions rationnelles tout au long des étapes de conception. Les mesures proposées dans cette thèse sont basées sur plusieurs techniques telles que lanalyse à la décision, lanalyse de données, les réseaux de neurones ou encore la logique floue. Ce sont des faits objectifs, qui ne dépendent pas de linterprétation de linformation par lingénieur, mais plutôt dun modèle généré pour représenter le design du navire. Laspect de lobjectivité est essentiel pour lutilisation de la complexité et la mesure des coûts dans un système dautomatisation de la conception. Finalement, avec ces outils, les concepteurs obtiennent des mesures bien définies et non ambigües des paramètres de mesure de coûts, defficacité et de complexité des artefacts dingénierie. De telles mesures aident les concepteurs et les outils dautomatisation de la conception, à être objectifs et à comparer de manière quantitative les différentes alternatives lors de la conception, de lestimation des coûts, ainsi que de loptimisation. Dans cette thèse, ces paramètres ont été appliqués et validés avec succès et dans des conditions industrielles réelles sur la conception de navires à passagers. Las decisiones tomadas en la etapa inicial de un diseño determinan el 60% al 95% del total del costo de un producto. Por esta razón, es necesario considerar al mismo tiempo rendimiento, costo, producción y la complejidad en el proceso de la fase inicial del diseño. El principal obstáculo de este enfoque es la falta de práctica y fiabilidad de costos y de modelos de análisis de rendimiento, que puedan ser integrados en un proceso complejo de concepción utilizado en la industria de la construcción naval. Los modelos tradicionales y los métodos de análisis frecuentemente no tienen la sensibilidad necesaria para examinar todas las variables importantes que influyen en el rendimiento, costo, producción y la vida útil del buque. Nuestro reto es el que logrando de que ésta sensibilidad en la fase inicial de diseño casi siempre requiera de datos únicamente disponibles durante un análisis de diseño require detallado. Los métodos tradicionales de diseño no incluyen temprana y adecuadamente, la producción y la ingeniería del ciclo de vida para tener un impacto positivo en el diseño. Adoptando un enfoque integrado a lo largo del ciclo de vida de la nave usando la ingeniería concurrente y herramientas de análisis se pueden mejorar estas debilidades del proceso tradicional de diseño. Se requiere innovación en el diseño estructural y la evaluación de los costos. La utilización del concepto diseño para X, y en particular el diseño pensando en la producción y en la reducción de costos durante la concepción es la solución: para reducir errores durante la vida útil de los buques causados en la concepción del mismo, para reducir el tiempo total de diseño y acortando el ciclo constructivo del buque, para ampliar el número de alternativas durante el proceso de diseño. El autor ha desarrollado algunos métodos de evaluación de costos y de técnicas de medida de la complejidad destinadas a ser utilizadas por los diseñadores de barcos para el control en tiempo real del proceso de costos. El resultado es que las acciones correctivas pueden ser adoptadas por la dirección en un tiempo suficientemente corto para realmente mejorar o superar el rendimiento desfavorable proyectado. Fundamentalmente, estos métodos ofrecerán a los ingenieros diseñadores con medidas objetivas y cuantificables de costos y complejidad haciendo posible tomar decisiones racionales a lo largo de todas las etapas de diseño. Las medidas propuestas en esta tesis doctoral se basan en varias técnicas tales como análisis de decisión, análisis de datos, redes neuronales y lógica difusa. Son objetivos hechos, que no dependen de la interpretación que el ingeniero realice sobre la información, sino más bien en un modelo generado para representar el diseño de los buques. El aspecto de la objetividad es esencial cuando se usa las medidas de complejidad y costos en un sistema de automatización del diseño. Finalmente con estas herramientas, los diseñadores podrían obtener medidas bien definidas y no parámetros de medición ambiguos de costos, de eficacidad y de complejidad en los artefactos de ingeniería. Estas medidas ayudan a los diseñadores y a las herramientas automatizadas de diseño, a ser objetivos y a comparar de manera cuantitativa las diferentes alternativas de solución del diseño, estimación de costos, así como también la optimización del diseño. En este doctorado, estos parámetros han sido aplicados y validados con éxito sobre el diseño de buques de pasajeros en condiciones industriales reales. In der Anfangsphase einer Produktentwicklung getroffene Entscheidungen definieren 60% bis 90% der Gesamtkosten eines Produktes. Daher ist es absolut notwendig Performance, Kosten, Produktion, Designkomplexität in der Entstehungsphase eines Produktes zu betrachten. Das Haupthindernis hierbei ist das Fehlen von praktikablen und zuverlässigen Kosten- und Performancemodellen, welche sich in den komplexen Designprozess wie in der Schiffbauindustrie integrieren lassen. Konventionelle Modelle und Analysemethoden berücksichtigen oft nicht all die wichtigen Performance-, kosten-, produktion-, und Lebenszyklus-relevanten Variablen. Unsere Herausforderung, dass das Erreichen dieser Sensibilität in der Anfangsphase der Produktentwicklung, benötigt fast immer Daten, die erst in der Phase der Detailkonstruktion zur Verfügung stehen. Die konventionelle Entwurfsmethoden berücksichtigen nicht angemessen und früh genug die Produktion und das Lebenszyklen-Engineering, welche eine positive Auswirkung auf das Design haben. Ein integrierter Ansatz entlang des Lebenszyklus eines Schiffes und das Praktizieren von Concurrent Engineering können die Schwäche des konventionellen Entwurfsprozesses beseitigen. Innovation ist notwendig im Strukturentwurf und in der Kostenanalyse. Die Anwendung von Design for X und besonders Design for Production and Cost Scheme während der Entwurfsphase ist die Lösung: Um die Fehlerquote verursacht durch Missverständnisse und die Entwurfs- und Produktionszeit zu reduzieren, sowie um eine höhere Anzahl von Entwurfsvarianten zu ermöglichen. Der Autor hat einige Analysemethoden für Kosteneffektivität und Komplexitätsmaßnahmen für die Anwendung durch Schiffsentwerfer für die Echtzeit-Steuerung von Kostenprozess entwickelt. Das Ergebnis ist, dass das Management korrigierende Maßnahmen in kurzer Zeit treffen kann, um eine ungünstige Performance zu verbessern bzw. zu vermeiden. Im Grunde beschaffen diese Methoden den Entwurfsingenieuren mit objektiven und quantifizierten Kosten- und Komplexitätsmaßnahmen. Dies vereinfacht das Treffen von vernünftigen Entwurfsentscheidungen über die gesamte Entstehungsphase eines Schiffes. Die in dieser Arbeit vorgestellten Maßnahmen basieren auf Techniken wie die Entscheidungsanalyse, das Data-Mining, neurale Netze und die Fuzzy-Logik. Es sind objektive Fakten, welche nicht von der Interpretation des Ingenieurs abhängen, sondern von einem generierten Model, um den Schiffsentwurf darzustellen. Der objektive Aspekt ist essenziell bei der Anwendung von Komplexitäts- und Kostenmaßnahmen in einem automatisierten Entwurfssystem. Mit diesen Werkzeugen sollte der Entwerfer gut-definierte und eindeutige Werte für Maßnahmen von unterschiedlicher Natur von Kosteneffektivität und -komplexität erhalten. Diese Werte helfen dem Entwerfer und automatisierten Entwurfssystemen, objektive zu sein. Ferner, ermöglichen diese Werte quantitative Vergleiche von Entwurfsvarianten, Kostenabschätzung und Entwurfsoptimierung. Diese Werte wurden im Rahmen eines Studienfalles mit realen Voraussetzungen (Entwurf von Passagierschiffen) erfolgreich angewendet und validiert.
109

Procesamiento de señales de tomografía de impedancia eléctrica para el estudio de la actividad cerebral

Fernández Corazza, Mariano January 2015 (has links)
La tomografía de impedancia eléctrica (EIT) permite estimar la conductividad eléctrica interna de un cuerpo. Consiste en aplicar una corriente eléctrica sobre su frontera y medir el potencial eléctrico resultante mediante un arreglo de sensores. Es considerada como una potencial herramienta de diagnóstico médico, caracterizada principalmente por su portabilidad y relativo bajo costo. Si bien se encuentra aún en etapa de desarrollo, está comenzando a ser utilizada en centros de salud para la caracterización del aparato cardio-respiratorio y existe un creciente interés en su aplicación a las neurociencias. Por ejemplo, es posible utilizar la EIT para construir modelos virtuales de la cabeza más precisos mediante la estimación de la conductividad eléctrica de los principales tejidos de la cabeza como un conjunto de parámetros relativamente pequeño, modalidad denominada EIT paramétrico. También se puede utilizar la EIT para generar un mapa de la distribución de conductividad eléctrica interna de un objeto, llamado problema de reconstrucción en EIT. Los cambios de la conductividad eléctrica en la cabeza pueden estar asociados a la actividad neuronal, a focos epilépticos, a accidentes cerebro-vasculares o a tumores. Ambas modalidades de EIT requieren la resolución del problema directo (PD), que consiste en el cálculo de la distribución de potencial eléctrico en el objeto originada por la inyección de corriente sobre su superficie, suponiendo que la conductividad interna es conocida. La estimulación de corriente continua transcraneal (tDCS) es físicamente muy similar a la EIT, pero la corriente eléctrica es aplicada sobre el cuero cabelludo de modo de alterar la tasa de disparos de poblaciones de neuronas en una región de interés. Es una potencial alternativa al empleo de psicofármacos para tratar desórdenes como epilepsia o depresiones. En esta tesis se desarrollan y analizan nuevos métodos para distintos problemas de EIT, centrándose mayormente en aplicaciones a la cabeza humana, y de tDCS. En primer lugar, se describen soluciones analíticas y numéricas para el PD en EIT, estas últimas basadas en el método de los elementos finitos. Luego, se desarrolla un nuevo procedimiento para resolver el PD con bajo costo computacional basado en la formulación del PD en electroencefalografía (EEG). Se propone un nuevo método para determinar la forma de onda de la fuente de corriente que permite desafectar la actividad propia del cerebro con un bajo número de muestras temporales. En EIT paramétrico, se utiliza la cota de Cramér-Rao (CRB) para determinar pares de electrodos convenientes para la inyección de corriente y para analizar límites teóricos en la estimación de las conductividades del cráneo y del cuero cabelludo, modelizándolos como tejidos isótropos y anisótropos. A su vez, se propone el estimador de máxima verosimilitud (MLE) como herramienta para realizar las estimaciones. El MLE se aplica a mediciones simuladas y reales de EIT mostrando un desempeño muy cercano a los límites teóricos. Para el problema de reconstrucción en EIT se adapta el algoritmo sLORETA, muy utilizado en el problema de localización de fuentes de actividad neuronal en EEG. Además, se lo modifica levemente para incorporar la regularización espacial de Laplace. Por otro lado, se introduce la utilización de filtros espaciales adaptivos para localizar cambios de conductividad de pequeño tamaño y estimar su variación temporal. Los resultados muestran mejoras en sesgo y resolución, en comparación con algoritmos de reconstrucción típicos en EIT. Estas mejoras son potencialmente ventajosas en la detección de accidentes cerebro-vasculares y en la localización indirecta de fuentes de actividad neuronal. En tDCS, se desarrolla un nuevo algoritmo para la determinación de patrones de inyección de corriente basado en el principio de reciprocidad y que considera restricciones de seguridad y de hardware. Los resultados obtenidos a partir de simulaciones muestran que el desempeño de dicho algoritmo es comparable al desempeño de algoritmos de optimización tradicionales cuyas soluciones implicarían un equipamiento comparativamente más complejo y costoso. Los métodos desarrollados en la tesis son comparados con métodos pre-existentes y validados a través de simulaciones numéricas por computadora, mediciones sobre maquetas experimentales (ó fantomas) y, de acuerdo con las posibilidades experimentales y respetando los principios de la bioética, mediciones reales sobre humanos. / Electrical impedance tomography (EIT) is a technique to estimate the electrical conductivity of an object. It consists in the application of an electric current on its boundary and the measurement of the resulting electric potential with a sensor array. In clinical practise, it is considered as a potential diagnostic tool characterized by its portability and relatively low cost. While it is still in a development stage, it is starting to be used in health centers to characterize the cardio-respiratory system. In turn, there is an increasing interest of EIT in neuroscience. For example, EIT can be used to estimate the electrical conductivity of the main tissues of the head as a set of a relatively low number of parameters, which is known as bounded or parametric EIT. This is useful for several medical imaging techniques that require realistic and accurate virtual models of the head. EIT can also be used to generate a map of the internal distribution of the electrical conductivity, known as the reconstruction problem. Tracking conductivity changes inside the head is of great interest as they may be related to neuronal activity, epileptic foci, acute stroke, or tumors. Both modalities of EIT require the solution of the EIT forward problem (FP), i.e., the computation of the electric potential distribution due to current injection on the scalp assuming that the electrical conductivity is known. The transcranial direct current stimulation (tDCS) is another technique which is physically very similar to EIT. It consists in injecting a small electric current in a convenient way such that it stimulates specific neuronal populations, increasing or decreasing their firing rate. It is considered as an alternative to psychoactive drugs in the treatment of brain disorders such as epilepsy or depression. This thesis describes the development and analysis of new methods for EIT FP, parametric EIT, reconstruction in EIT, and tDCS, focusing primarily (although not exclusively) in applications to human head. We first describe analytical and numerical approaches for the EIT FP, where the numerical approach is based on the finite element method. Then, we develop a new procedure to solve the EIT FP based on the electroencephalography (EEG) FP formulation, which results in computational advantages. We propose a new method to determine the waveform of the electric current source such that the neuronal activity of the brain can be neglected with the smallest possible number of time samples. In parametric EIT, we use the Cramér-Rao bound (CRB) to determine convenient electrode pairs for the current injection and theoretical limits in the estimation of the electrical conductivity of the main tissues of the head, which we model as isotropic and anisotropic. We propose the maximum likelihood estimator (MLE) to estimate these conductivities and we test it with simulated and real EIT measurements, showing that the MLE performs close to the CRB. We adapt the sLORETA algorithm to the reconstruction problem in EIT. This algorithm is being widely used in the source localization problem in EEG. We also slightly modify it to include the Laplace smoothing prior in the solution. Likewise, we introduce the use of adaptive spatial filters in the localization of conductivity changes and the estimation of its time courses from EIT measurements. The results show improvements over typical EIT algorithms. These improvements may benefit the early detection of acute strokes and the localization of neuronal activity using EIT. In tDCS, we develop a new algorithm to determine convenient current injection patterns. It is based on the reciprocity principle and considers hardware and safety constraints. Our simulation results show that this method performs similarly to other commonly used algorithms that require more complex and costly equipments. The methods we develop and study in this thesis are compared with pre-existing methods and are validated through numerical simulations, measurements on phantoms and, according to the experimental possibilities and bioethical principles, humans.
110

Segurança nacional como condição para o crescimento econômico : o caso de Angola no período de 1975 até 2013

Marcolino, José Manuel January 2014 (has links)
Cette thèse a comme objectif d’évaluer comment les investissements et les dépenses militaires de la sécurité intérieure a influencé la croissance économique de l'Angola, de 1975 à 2013. Divisée en trois essais, en se concentrant principalement sur les conséquences économiques des conflits armés (des belligérants intra-angolaises et externe) qui est arrivé dans le pays, surtout après l'indépendance en 1975. Tout cela bien encadré dans le contexte de l'Afrique sub-saharienne et au milieu de la guerre froide entre les puissances mondiales majeures de l’époque: États-Unis et l'URSS. Nous avons apporté ici les apréciations de la participation de trois grands mouvements qui ont participé à la lutte de libération contre le colonialisme portugais, et comment ces trois se sont affrontés dans plusieurs conflits armés, tout particulièrement entre le MPLA et l'UNITA après la défaite du FNLA en 1975 et l'exil de son leader. Aussi nous nous sommes concentrés sur la bataille de Cuito Cuanavale, dans un contexte de conflit "global", à laquelle ont participé, entre autres forces intervéniants (Angola et Afrique du Sud), les États-Unis, Cuba et l'ex-URSS, dont les coûts furent élevés, aussi matériaux, qu’ humains. Pour donner fondation et répondre aux questions on fait une régression non-paramétrique (régressions du Kernel) en utilisant le Bootstrap, pour trouver une réponse significative dans la période 1975-2001 et une autre non significative à partir de 2002 jusqu'à 2013, avec l'analyse des effets dépenses militaires dans le développement économique de l'Angola, approchant des estimations de 32 pays d'Afrique subsaharienne. / O objetivo desta tese é avaliar como os investimentos ou gastos militares para a segurança nacional influenciaram o crescimento econômico de Angola, desde 1975 até 2013. Dividimo- la em três ensaios, tendo como foco principal as consequências econômicas dos conflitos armados (intra-angolana e com beligerantes externos) que aconteceram no país, principalmente depois da independência em 1975. Estes conflitos armados estão inseridos num contexto africano subsaariano, como extensão da Guerra Fria entre as Grandes potências mundiais da época: EUA e URSS. Trouxemos aqui não só as associações da participação dos três principais movimentos (MPLA, FNLA, UNITA) que participaram da luta de libertação contra o colonialismo português, mas também relatos de como estes três se enfrentaram em vários conflitos armados, essencialmente entre o MPLA e a UNITA, depois da derrota da FNLA em 1975 e o exílio do seu líder. Também focamos a Batalha do Cuito Cuanavale, num contexto de conflito “mundial”, da qual participaram, além das duas forças intervenientes (Angola e África do Sul), também os Estados Unidos da América (EUA), Cuba e a ex-União das Repúblicas Socialistas Soviéticas (ex-URSS), e cujos custos foram altos, tanto materiais, quanto humanos. Para dar fundamento e responder a pergunta da tese “se os gastos militares para a segurança do país são fatores determinantes para o crescimento ou estagnação econômica de Angola, no período de 1975 até 2013?” fizemos uma regressão não-paramétrica (Regressões de Kernel), com o uso do Bootstrap, num enfoque da economia da defesa, sendo que encontramos significância no período de 1975 até 2001 e não-significância no período de 2002 até 2013, ao analisarmos os efeitos dos gastos militares no crescimento econômico de Angola, aproximando-o a partir de estimações de 32 países da África subsaariana. / The objective of this thesis is to evaluate how investment and military spending for homeland security influenced the economic growth of Angola, from 1975 to 2013. We divided it into three essays, focusing primarily on the economic consequences of armed conflict (intra- Angolan belligerents and external) that happened in the country, especially after independence in 1975. These armed conflicts are housed in sub-Saharan African context, as an extension of the Cold War between the major world powers at the time: U.S.A and USSR. We bring here not only the associations of the participation of three major movements that participated in the liberation struggle against Portuguese colonialism, but also reports at how these three clashed in several armed conflicts, primarily between the MPLA and UNITA, after the defeat of the FNLA in 1975 and the exile of its leader. We also focus on the Battle of Cuito Cuanavale, in a context of "global" conflict, which was attended, besides the two intervening forces (Angola and South Africa), by the United States of America (USA), Cuba and the former Union of Soviet Socialist Republic (ex - USSR). The costs were high, both material and human. To give plea and answer the thesis question "whether the military spending to the country's security is crucial to the development of economic stagnation in Angola, from 1975 until 2013?" We made a non-parametric regression (kernel regressions), using the Bootstrap, and found significance in the period from 1975 to 2001 and not significance from 2002 until 2013, when analyzing the effects of military spending on economic development of Angola, approaching it from estimates of 32 sub-Saharan countries. / El objetivo de esta tesis es evaluar cómo la inversión y el gasto militar para la seguridad nacional influyeron en el crecimiento económico de Angola de 1975 a 2013. Nos dividimos en tres ensayos, centrándose principalmente en las consecuencias económicas de los conflictos armados (beligerantes intra Angola y externo) que sucedió en el país, sobre todo después de la independencia en el año 1975. Los conflictos armados están alojados en contexto africano al sur del Sahara, como una extensión de la guerra fría entre las grandes potencias mundiales de la época: EUA y la URSS. Traemos aquí no sólo las asociaciones de la participación de los tres grandes movimientos que participaron en la lucha de liberación contra el colonialismo portugués, pero también informa de cómo estos tres se enfrentaron en varios conflictos armados, sobre todo entre el MPLA y la UNITA, después de la derrota del FNLA en 1975 y el exilio de su líder. También nos enfocamos en la batalla de Cuito Cuanavale, en un contexto de conflicto "global", al que asistieron, además de las dos fuerzas que intervienen (Angola y Sudáfrica), por los Estados Unidos de América (EE.UU.), Cuba y la antigua Unión de la República Socialista Soviética (ex - URSS). Los costos eran altos, tanto materiales como humanos. Para dar declaración y responder a la pregunta de la tesis "si el gasto militar para la seguridad del país es crucial para el desarrollo de un estancamiento económico en Angola, desde 1975 hasta el año 2013?" Hicimos una regresión no paramétrica (regresiones del kernel), utilizando el Bootstrap, y encontramos significado en el período de 1975 a 2001, y no importancia desde 2002 hasta 2013, cuando se analizan los efectos de los gastos militares en el desarrollo económico de Angola,, acercarse a ella de las estimaciones de 32 países del África subsahariana.

Page generated in 0.0581 seconds