Spelling suggestions: "subject:"especificaciones"" "subject:"especifica""
1 |
Extending the Usability of a Dynamic Tuning EnvironmentCaymes Scutari, Paola Guadalupe 19 July 2007 (has links)
La demanda de cómputo de altas prestaciones está en constante especialmente en el área científica ya que debe resolver problemas complejos. En general, el volumen de datos y las operaciones que deben realizarse sobre ellos requieren la utilización de sistemas muy potentes. Ello ha conducido a una mayor utilización del paradigma paralelo/distribuido. El proceso de optimización, denominado proceso de sintonización, es el proceso mediante el cual el comportamiento de la aplicación es adaptado y mejorado a travÎs de la modificación de sus parámetros críticos. El proceso de sintonización incluye varias fases. En primer lugar, durante una fase de monitorización se recoge información acerca del comportamiento de la aplicación. A continuación, dicha información es analizada para detectar problemas, deducir las causas y determinar soluciones. Finalmente, deben aplicarse los cambios necesarios en el código de la aplicación para resolver el problema y así mejorar su rendimiento. Afortunadamente, existen diferentes herramientas y aproximaciones para ayudar a los usuarios en las diferentes fases de optimización (monitorización, análisis o sintonización). Una de las herramientas disponibles es MATE (Monitoring, Analysis and Tuning Environment), un entorno para la sintonización dinámica y automática de aplicaciones paralelas. MATE, como su nombre indica, consiste en tres fases continuas e iterativas para adaptar el comportamiento de la aplicación de acuerdo al estado actual del ambiente de ejecución. El conocimiento que utiliza MATE para sintonizar los problemas de rendimiento es encapsulado en módulos de software denominados "tunlets". Cada tunlet provee la lógica necesaria para recolectar información de la ejecución de la aplicación, analizarla y decidir cuáles son las acciones de sintonización necesarias. El objetivo del presente trabajo es extender la usabilidad de MATE, cubriendo dos aspectos diferentes de MATE: - la mejora del rendimiento alcanzado por el análisis centralizado realizado por MATE, dado que representa un cuello de botella cuando la aplicación crece. En este trabajo presentamos una alternativa para lograr que MATE escale. - hacer de MATE una herramienta más amigable para facilitar la inclusión de conocimiento en MATE. De esta manera, se logra que MATE sea transparente. Respecto del primer aspecto, se propone una nueva aproximación para ejecutar el proceso de análisis, denominada Distributed-Hierarchical Collecting-Preprocessing Approach. Esta nueva aproximación se basa en la recolección distribuida de eventos lo que alivia la recolección centralizada realizada por MATE en su implementación original, así como también el preprocesamiento de las operaciones acumulativas o comparativas, siempre que sea posible. De esta manera, el Global Analyzer recibe de cada Collector-Preprocessor una estructura que condensa resumida sólo la información necesaria para la evaluación global de modelo de rendimiento, lo que reduce considerablemente la sobrecarga sufrida en la aproximación centralizada. De esta manera, MATE presenta propiedades de escalabilidad. Respecto del segundo aspecto, se propone una metodología, incluyendo un lenguaje y un traductor dise-ados y desarrollados ad hoc para insertar tunlets (conocimiento) en MATE de forma automática. Utilizando la metodología propuesta, el usuario no necesita entrar en detalles de implementación de MATE. Así, mediante la definición de un conjunto de abstracciones sobre la aplicación y sobre el modelo de rendimiento, las abstracciones pueden formalizarse en la especificación de un tunlet por medio del lenguaje propuesto. Tal especificación será automáticamente traducida en un tunlet listo para utilizarse en MATE. Escalabilidad y transparencia son dos cualidades necesarias en MATE para que sea una herramienta más útil y amigable para los usuarios. Las propuestas presentadas intentan proveer MATE con tales características. La experimentación, confirma la viabilidad de las propuestas. / In the last years, computing performance demand has been in increase specially in the scientific field that has to solve complex problems. In general the data set size and the complexity of the operations over them require the use of very powerful systems. Thus, the increasing necessity for high performance systems/computing has been directing the attention of the scientific field towards the parallel/distributed paradigm. The optimization process, so-called tuning process, is the process followed in order to adapt and improve the behaviour of the applications by modifying their critical parameters. It includes several and successive phases. Firstly, during a monitoring phase the information about the behaviour of the application is captured. Next, the information is analyzed, by looking for bottlenecks, deducing their causes and trying to determine the adequate actions to eliminate them. Finally, appropriate changes have to be applied to the code to solve the problems and improve the performance. Fortunately, through the years different approaches and tools have been developed with the aim of helping the user during some of the optimization phases (monitoring, analysis or tuning phases). One of the available tools is MATE (Monitoring, Analysis and Tuning Environment), which is an automatic and dynamic tuning environment for parallel applications. MATE works in three continuous and iterative phases in order to adapt the deployment of the application according to the current state of the execution environment. MATE includes the knowledge to tune performance problems in pieces of software called --tunlets'. Each tunlet includes the logic to collect behavioural information, analyze it on the fly and decide what the required tuning actions are. The objective of this work is to extend the usability of MATE. Our work covers two different aspects of MATE: - the improvement of the performance reached by the centralized analysis executed by MATE, due to it turns in a bottleneck as the size of the application increases. Thus, we provide an alternative to make MATE scalable. - the increase in the user-friendliness of MATE in order to facilitate the inclusion of new performance knowledge in it. Thus, we make MATE transparent for the users. According to the first aspect, we propose a novel approach to execute the analysis process, called Distributed-Hierarchical Collecting-Preprocessing Approach. This approach is based on the distributed collection of events which alleviates the centralized old-fashion in which collection was done, and in the preprocessing of cumulative or comparative operations as possible. Thus, the Global Analyzer receives just the necessary information condensed in a unique message from each Collector-Preprocessor, which considerably reduces the overload of Global Analyzer. In this way, MATE is provided with scalability properties. According to the second aspect, we provide a methodology, including a designed language and a developed translator to automatically insert tunlets (knowledge) in MATE. When some problem has to be tuned in a parallel application the user has to develop the corresponding tunlet. By using our methodology, the user is exempted from being involved in implementation details of MATE. Thus, by defining a set of abstractions about the application and the performance model, such abstractions can be formalized in a tunlet specification using the provided language. Such specification will be automatically translated in a tunlet ready to be used in MATE. Both scalability and transparency of MATE are qualities necessary to make MATE a more useful and user-friendly tool. The proposals and developments presented attempt to provide MATE with such characteristics. Experiments showed the viability of the proposals.
|
2 |
Three essays on specification testing in econometric modelsPérez Alonso, Alicia 21 September 2006 (has links)
No description available.
|
3 |
Análisis de la evolución de la interoperabilidad y de la seguridad ferroviaria en Europa en el periodo 1991-2011 y propuestas de mejoraRibes Ardanuy, Josep Maria 03 October 2012 (has links)
The object of this thesis is to analyze the evolution of railway interoperability and safety in Europe in the period 1991-2011. This
pretends to assess what has been the legislative process at EU level in the last 20 years. This analysis looks for to determine
whether it has been established the strong enough bases to achieve fully interoperable Trans-European Railway Network in a
reasonable time, with uniform security features. The second aspect is to determine those points that should be corrected and
improved, or simply addressed, to accelerate the integration process.
A common feature of the rail networks in the European countries is their strong national focus in regard to Railway traffic rules and
technical standards. This leads to specific products often developed and implemented by the national industry. This has raised a
strong dependence of the rail networks on the local suppliers. Furthermore in most cases this carry out an incompatibility of these
networks with the networks of neighbouring countries.
To illustrate this situation it is only necessary to remember the different gauges in national networks (1,668 mm in the Iberian
Peninsula, 1,520 in Russia, Finland, Baltic republics, 1,435 mm in the other European countries) to which must be added the
numerous narrow gauges regional and urban networks. Another good example is the different supply voltages: 1,500 V dc, 3,000 V
dc, 25 kV 50 Hz, 15 kV 16 2/3 Hz, which should add the 625 V dc, 750 V dc, 1,200 V cc, used in trams and regional rail systems. In
the field of railway signalling, more than six different and incompatible systems exit. As we show in this document there are
hundreds of other parameters that are different from one network to another: the height of the overhead line, the height of the
platforms, the gauges an so on and so forth.
The lack of interoperability, affects decisively to the creation of a European single market in rail transport for both: goods and
passengers, which prevents private (or public) rail undertakings to give trans-national services and create a single market.
The thesis focuses on the study of the directives relate to the interoperability and railway safety, and the technical specifications for
interoperability (TSI). It leaves for future analysis the detailed studies European standards being developed for the technical
harmonization of each subsystem parts.
According to the author when the concept of interoperability was lunched in 1996, probably it was thought that the technical
harmonization would be much easier. However, when it was analyzed in depth it was found a large number of discrepancies
between the technical characteristics of each network raised. These parameters such as width and height of the pantographs, the
stresses of the overhead contact wires, the length of the neutral zones, the height of platforms, the different kinematic and dynamic
gauges and a long list of different parameters, made it impossible, in practice, the movement of trains across borders in a
generalized manner in a short term. Finally it was recognized the fact that, for achieving real harmonized lines, it would be
necessary to invest a huge amount of money not justify by the cost-benefit analyzes.
The Thesis concludes that is necessary to put in force more strong Technical Specifications of Interoperability that leave less degree
of freedom to the Member states: determining a single objective parameter value, trying to reduce the permanent specific cases and
solving and reducing the list of open points. / El propósito de esta tesis es analizar el desarrollo de la interoperabilidad y seguridad ferroviaria en Europa en el periodo
comprendido entre 1991-2011. La intención es evaluar cuál ha sido el proceso legislativo a nivel de la UE durante los últimos 20
años. Este análisis tratará de determinar si ha sido establecido desde una base suficientemente sólida para obtener una Red
Ferroviaria Trans-Europea dentro de un periodo razonable, con uniformidad de instalaciones de seguridad. El segundo aspecto
sería determinar aquellos puntos que deben ser corregidos o mejorados, o sencillamente re-examinados para acelerar el proceso
de integración.
Un aspecto común a las redes ferroviarias de los países europeos es su fuerte énfasis nacional en lo que respecta a normas de
circulación ferroviaria y reglamentación técnica. Esta realidad conduce a la creación e implementación de productos específicos por
parte de la industrial nacional. Esto ha llevado a una fuerte dependencia de las redes ferroviarias de suministradores locales.
Asimismo, en la mayoría de los casos, esto lleva a la incompatibilidad de estas redes con las redes de países vecinos.
Para ilustrar esta situación, solamente es necesario recordar los distintos anchos de vía en redes nacionales (1.668 mm en la
península ibérica, 1.520 en Rusia, Finlandia y las repúblicas del Báltico, 1.435 mm en otros países europeos) al que habría que
añadir las numerosas redes de vías de ancho estrecho regionales y urbanas. Otro buen ejemplo serían los distintos suministros de
tensión: 1.500 V dc, 3.000 V dc, 25 kV 50 Hz, 15 kV 2/3 Hz, al que habría que añadir las de 625 V dc, 750 V dc, 1.200 V cc, utilizados
en tranvías y redes de trenes regionales. En el ámbito de la señalización ferroviaria, existen más de seis sistemas distintos e
incompatibles. Tal y como demostramos en este documento, hay cientos de parámetros distintos que difieren de una red a otra: la
altura de la línea suspendida, la altura de andenes, los anchos, etc, etc.
La falta de interoperabilidad afecta decisivamente a la creación de un mercado común europeo de transporte ferroviario para tanto
mercancías como pasajeros, lo cual impide que empresas privadas (o públicas) ferroviarias puedan ofrecer servicios
transnacionales y crear un solo mercado.
Esta tesis se enfoca en el estudio de la reglamentación relacionada con la interoperabilidad y seguridad ferroviaria, y las
especificaciones técnicas para la interoperabilidad (TSI). Deja para análisis futuros el estudio detallado de los estándares europeos
bajo desarrollo para la armonización técnica de cada parte de subsistema.
Según el autor, cuando el concepto de la interoperabilidad fue lanzada en 1996, probablemente se pensara que la armonización
técnica sería mucho más sencilla. Sin embargo, al analizarlo en detalle se descubrió que aparecían un amplio número de
discrepancias entras las características de cada red. Estos parámetros, como el ancho y alto de los pantógrafos, las tensiones de
los hilos de contacto suspendidos, la longitud de zonas neutras, el alto de andenes, las diferentes propiedades cinemáticas y el
ancho dinámico y una amplia lista de distintos parámetros hacían imposible en la práctica la circulación de trenes más allá de sus
fronteras de forma generalizada a corto plazo. Por fin se reconoció el hecho de que para conseguir líneas verdaderamente
armonizadas sería necesario invertir una enorme cantidad de dinero que no era justificable en los análisis de coste-beneficio.
La tesis concluye que es necesario poner en vigencia especificaciones técnicas de interoperabilidad más fuertes que dejen menos
libertad a los países miembros: determinar un solo valor de parámetro objetivo, y tratar de reducir los casos específicos
permanentes y resolver y reducir el número de puntos abiertos.
|
4 |
Diseño y Especificación del ocio digital con fines de aprendizaje ODFA Subproblema: Ocio digital formativo en competencias ODFC para la UCEJiménez Álvarez, Luis Gonzalo 25 February 2021 (has links)
El desarrollo humano en la sociedad digital debe ser integral, una alternativa, es la fusión del ocio formal y los recursos digitales que generan el ocio digital, al añadirle el aprendizaje (individual y colaborativo) se forja el ocio digital con fines de aprendizaje ODFA, de este modelo se desprenden varios subproblemas, uno de ellos es el ocio digital formativo en competencia ODFC y su instancia denominada ocio digital formativo que integra competencias ODFIC, constituyendo en nuevas alternativas para enseñar y aprender. La investigación tiene como objetivos: establecer los fundamentos conceptuales y el estado del arte, establecer la especificación funcional y estructural del ODFA, realizar actividades de diseño del ODFC y el ODFIC, controlar y contribuir a la valorización del ocio digital, analizar los datos estadísticos sobre el ODFA y establecer un plan de acción para la Universidad Central del Ecuador UCE. La metodología como proceso de investigación utilizó el método causal formal MCF y el análisis estadístico descriptivo. Antes de construir un edificio se requiere los planos, igualmente, para desarrollar un software para el ODFA previamente se diseña y especifica el sistema, para ello se aplicó el MCF que permite identificar el problema y darle solución [1]. Se estableció que la conjetura (hipótesis inicial) es: “con el ocio digital es posible obtener conocimiento ubicuo para aprender o crear”. La finalidad es especificar y diseñar sistemas de ocio digital para ayudar al aprendizaje que se motiva porque se quiere sacar provecho docente al ocio digital y porque se quiere buscar estrategias para producir aprendizaje en tiempo libre. Posteriormente, se determinó la especificación funcional, estructural y contextual. Aplicando el modelado, dentro del conjunto de las “actividades en ocio digital” se determinó el modelo ODFA, que es el empleo formativo de sistemas digitales en tiempo libre. Se establecieron los objetivos o “para qué” siguientes: explotar el esfuerzo, el tiempo, el factor de complacencia, los rasgos específicos que tiene el ocio digital y ampliar el desarrollo curricular con aprendizaje ubicuo con fines docentes, uso recreativo de los recursos digitales con aprendizaje, ocio digital incorporado a la teoría de la educación, cubrir competencias curriculares, avanzar en la organización escolar, control y valorización del ocio digital. Dado lo extenso del proyecto ODFA, se resolvieron los tres últimos objetivos a través de los “cómo” o módulos siguientes: ODFC, ODFIC, FODA, rastreando y evaluando la actividad, promoviendo la percepción social sobre el ocio digital, gestionando la trazabilidad de los procesos del ODFC y apoyando académica y económicamente al ocio digital formativo, además, se analiza los “con qué” o los componentes de la solución. Adicionalmente se generan los grafos que indican la funcionalidad del problema y subproblemas. En la parte contextual se responden a las cuestiones: ¿cuándo?, ¿quién?, ¿cuánto?, ¿dónde? ¿a quienes? La aportación científica está en avanzar en la identificación de modelos, potenciar la resolución de problemas y la toma de decisiones en el marco del ODFA, en justificar el ocio como “scholé”, describir los recursos digitales orientados al aprendizaje, en plantear que el ODFA se alinea al “constructivismo conectado” a través del MCF que siendo usado en el diseño y especificación de sistemas también permite investigar conocimiento conocido (aprender) y generar conocimiento nuevo (crear) en forma ubicua. El ODFA involucra a la institución universitaria, docentes, el currículo, las actividades de los discentes (actores principales), el rastreo, la evaluación, el MCF (con el soporte de la App Mayéutica) y la ética. Mientras que el subproblema ODFC como una asignatura plantea potenciar las habilidades y capacidades, el ODFIC como un proyecto integrador de varias disciplinas propone la integración de las competencias: resolución de problemas, colaboración, creación y comunicación. Se concluye que el ODFA no solo plantea la transformación de la estrategia educativa sino que agrega valor reflexivo al proceso de aprendizaje con base a la “escuela digital” y “constructivismo conectado”, en este marco, el subproblema ODFC potencia las competencias gracias a MCF fuera de lo tradicional, fortalece el autoaprendizaje formal dirigido por el docente, porque lo que cuenta es la percepción observacional e intelectual hacia la causalidad a fin de comunicar los resultados, inventos o prototipos con objetividad de forma individual o grupal.
|
5 |
Elicitación y especificación de requerimientos no funcionales en aplicaciones webRojo, Silvana del Valle 20 February 2014 (has links)
Este trabajo de tesis presenta lineamientos específicos para la aplicación de Ingeniería de Requerimientos Web al tratamiento de los RNF. Presenta procesos de Elicitación y Especificación de RNF Web y ofrece las plantillas diseñadas particularmente para la captura y especificación de los RNF en los procesos definidos.
Si bien actualmente la Ingeniería de Requerimientos proporciona numerosas técnicas y herramientas para identificar, describir, validar y gestionar requerimientos, estos no son aplicados muy a menudo, en el desarrollo de aplicaciones Web. La madurez del proceso de ingeniería de requerimientos parece ser insuficiente, esa insuficiencia demanda nuevos enfoques o evolución de los actuales para el tratamiento adecuado de los RNF.
Los RNF de los sistemas software no son un todo homogéneo, hay falta de consenso para responder a los interrogantes: ¿Qué son? ¿Cómo se clasifican dentro del contexto de desarrollo de software? y ¿Cómo se clasifican en el desarrollo de aplicaciones Web? Este trabajo parte de una revisión del estado de arte de los conceptos de RNF en la literatura de la Ingeniería de Requerimientos y establece como bases conceptuales que los RNF son requerimientos de calidad y son restricciones. Luego ofrece un análisis comparativo de seis enfoques existentes de desarrollo de aplicaciones Web para estudiar qué tratamiento aplican a los RNF, en el cual se pudo determinar que las metodologías de aplicaciones Web estudiadas: Contemplan los RNF, aunque se carece de consenso en su significado. No disponen de técnicas específicas para la elicitación de RNF, ni lineamientos uniformes para la especificación y la validación. No brindan técnicas que soporten el tratamiento de los RNF a lo largo del ciclo de vida. Hay carencia de consenso para establecer en qué fase del ciclo de vida de desarrollo se identifican los RNF. Hay RNF que no son identificados durante la fase de relevamiento y análisis.
A partir de este análisis y dada la importancia de los RNF, se proponen procesos para la elicitación y especificación de los RNF Web (de calidad y restricciones), se describen las plantillas propuestas que dan soporte a los procesos y finalmente se presenta la validación de los conceptos y técnicas propuestos mediante un caso de estudio en un proyecto real. / This thesis introduces specifics guidelines to apply Web Requirements Engineering to the treatment of Non-Functional Requirements. It introduces the process of Elicitation and Specification for Web Non-Functional Requirements and offers spreadsheets designed to capture and specify Non-Functional Requirements in the defined processes.
While at present Requirement Engineering has numerous techniques and tools to identify, describe, validate and manage requirements, these are not frequently applied in the development of Web applications. The maturity of the Requirements Engineering process seems insufficient; this insufficiency demands new approaches or the evolution of current process to the correct treatment of Non-Functional Requirements.
Non-Functional Requirements of software systems are not homogenous; there is a lack of consensus to answer the following questions: What are Non-Functional Requirements? How they are classified within the context of software development? and How the Non-Functional Requirements are classified within the development of web software application? This thesis starts with a revision of the state of art of the concept of Non-Functional Requirements in Requirements Engineering literature and establishes as conceptual foundations that Non-Functional Requirements are quality requirements and restrictions. Then, there is a comparative analysis of six different existing approaches in Web application development to study what treatment applies to Non-Functional Requirements, in which methodologies of the Web applications studied: Non-Functional Requirements are considered, but there is no consensus in their meaning. There are neither specifics techniques for elicitation of Non-Functional Requirements nor uniform guidelines for the specification and validation. There are no techniques supporting the treatment of the Non-Functional Requirements along the lifetime cycle. There is a lack of consensus to establish within which phase of development lifetime cycle Non-Functional Requirements are identified. There are Non-Functional Requirements that are not indentified during requirement capture and analysis phases.
After this analysis and the give importance of the Non-Functional Requirements, a process for the elicitation and specification of the Web Non-Functional Requirements (quality and restrictions) is proposed, exposed spreadsheets are described to support processes and finally, validations of the concepts and techniques are introduced applied to a real project.
|
6 |
Un procedimiento de medición de tamaño funcional para especificaciones de requisitosCondori Fernández, Olinda Nelly 07 May 2008 (has links)
Hoy en día el tamaño del software es utilizado en la gestión y control de producción como uno de los parámetros esenciales de los modelos de estimación que contribuyen a la calidad de los proyectos de software y productos entregables. Aunque la importancia de la medición temprana del tamaño es evidente, actualmente esta medición es solamente alcanzada en fases tardías del ciclo de vida del software (análisis, diseño e implementación).
El tamaño de software puede ser cuantificado usando diferentes técnicas, como las líneas de código y los métodos de medición de tamaño funcional. Un método de medición de tamaño funcional mide el tamaño del software cuantificando los requisitos funcionales. El método Análisis de Puntos de Función (FPA) es el método mayormente utilizado. Este
método fue desarrollado para medir Sistemas de Información de Gestión desarrollados con metodos tradicionales. Aunque IFPUG FPA ha ido alcanzado mayor popularidad en la industria, este método carece de aplicabilidad a todo tipo de software y a nuevos paradigmas de desarrollo.
Para direccionar estas debilidades, COSMIC-FFP ha surgido como un método de segunda generación y ha sido probado como un estandar internacional (ISO/IEC 19761). Sin embargo, la generalidad de COSMIC-FFP requiere ser instanciado por medio de un procedimiento más específico y sistemático en conjunción con un método de desarrollo de software. / Condori Fernández, ON. (2007). Un procedimiento de medición de tamaño funcional para especificaciones de requisitos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1998
|
7 |
Análisis comparativo del concreto lanzado con cemento tipo IP y tipo HE en el revestimiento de túneles de la mina Orcopampa – ArequipaCervantes Abarca, Betsy Pierina, Villa Meza, Liz Katherine January 2015 (has links)
Se viene buscando optimizar la elaboración del concreto lanzado, pero en el proceso se deja de lado el control de calidad por lo cual es indispensable comparar la influencia de un componente primario como el cemento tipo IP y HE.
La presente tesis tiene por objetivo realizar el estudio comparativo de concreto lanzado con cemento portland puzolanico tipo IP vs tipo HE en el revestimiento del túnel de la mina Orcopampa–Arequipa.
Nos ha impulsado a investigar la necesidad de obtener la relevancia en el desempeño y las implicancias del cemento para shotcrete desde una visión técnica, a través de ensayos de campo y laboratorio.
Considerando el enfoque técnico al determinar las diferencias entre el concreto lanzado con cemento Tipo IP y Tipo HE desde el análisis de resistencia a tenacidad y resistencia a la compresión. Realizando un tipo de Investigación básica, cuantitativa, descriptivo, aplicada, de campo con un diseño experimental, según el estudio es cuasi experimental, prospectivo por la cronología de observación, transversal según el número de mediciones, descriptiva, comparativa y explicativa.
Los resultados estadísticos nos demuestran que si existen diferencias significativas de 62 % entre los resultados de la resistencia a la compresión del concreto lanzado cemento Tipo HE sobre el concreto lanzado con cemento Tipo IP en su totalidad de edades ensayadas.
En el análisis estadístico de los ensayos de tenacidad se observa que el cemento Tipo HE tiene una mejor capacidad para absorber energía ya que tiene la característica de desarrollar resistencias a edades tempranas.
It has sought to optimize the development of the shotcrete, but in the process neglects quality control so it is essential to compare the influence of a primary component such as cement type IP and HE.
This thesis aims to conduct a comparative study of shotcrete with IP pozzolanic Portland cement type HE vs kind in the lining of the tunnel Arequipa Orcopampa mine.
It has prompted us to investigate the need for relevance in the performance and the implications of cement shotcrete from a technical view, through field and laboratory tests.
Whereas the technical approach to determine the differences between the shotcrete cement type HE type IP and from the analysis of toughness and resistance to compression. He made a type of Basic, quantitative, descriptive research, applied field with an experimental design, the study is quasi-experimental, prospective timeline for observation cross as the number of measurements, descriptive, comparative and explanatory.
The statistical results show that if there are significant differences between the results 62% of the compressive strength of cement Type HE shotcrete shotcrete on cement type IP fully tested age.
In the statistical analysis of toughness tests it shows that the cement type HE has a better ability to absorb energy and which has the characteristic of developing resistance at early ages.
|
Page generated in 0.0589 seconds