• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1426
  • 90
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1568
  • 511
  • 479
  • 345
  • 335
  • 335
  • 335
  • 335
  • 328
  • 288
  • 283
  • 220
  • 208
  • 193
  • 185
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Análisis y modelos de datos de redes para seguridad informática

Chávez Barbaste, Joaquín Gonzalo January 2016 (has links)
Ingeniero Civil Eléctrico / Hoy en día son cientos los servicios que se ofrecen de manera virtual a través de Internet, muchas veces exigiendo la transferencia y almacenamiento de datos prioritarios o sensibles a través de las redes de comunicaciones. Esto obliga a que los factores de seguridad, estabilidad y confiabilidad de las plataformas sea un elemento clave a considerar en el desarrollo de las aplicaciones y, por lo tanto, la utilización de herramientas dedicadas a la prevención y detección de fallas de seguridad toma un rol crítico. Considerando lo anterior, este trabajo propone diseñar e implementar un ambiente de simulación de redes que permita explorar la aplicación de distintas técnicas de inteligencia computacional en tópicos de seguridad informática, enfocándose principalmente en la utilización de modelos autoregresivos integrales de media móvil (conocidos como ARIMA por su sigla en inglés) y la divergencia de Kullback-Leibler para la detección de ataques de denegación de servicio a un servidor web. Para esto se desarrolla una arquitectura representativa de un proveedor de servicios de Internet utilizando como plataforma el programa de simulación de redes conocido como GNS3 (Graphical Network Simulator 3), en donde se tienen tres routers, un simulador de clientes, una máquina atacante, un servidor web y una máquina dedicada a la recolección y análisis de datos, todos funcionando como máquinas virtuales dentro de un mismo computador principal. Utilizando este ambiente se ejecutan múltiples simulaciones de tráfico web para condiciones normales de operación y bajo ataque de denegación de servicio, obteniéndose series de tiempo de alrededor de doce horas de duración para capturar el comportamiento a nivel IP del tráfico durante períodos de volumen de usuarios con carga baja, media y alta. De esta manera se logra recolectar suficientes datos para poder realizar el análisis estadístico respectivo y la generación de modelos de predicción de tráfico y detección de ataques con la ayuda del lenguaje para análisis estadístico R. A partir de los resultados obtenidos se verifica la factibilidad de utilizar modelos ARIMA para la predicción del tráfico que fluye a través de los routers que conforman las vías troncales de la red y como herramienta complementaria de detección de cambios bruscos en el nivel de tráfico de subida a un servidor web. Además, se obtienen resultados exitosos para la utilización de la divergencia de Kullback-Leibler como mecanismo de detección de ataques de denegación de servicio, en base a los cambios bruscos de tráfico, permitiendo la detección dentro de los primeros cinco minutos de comenzada la falla. Este tipo de herramientas permitirían a los proveedores implementar sistemas inteligentes para la detección temprana de ataques de denegación de servicio dentro de su red, pudiendo aplicar maniobras de mitigación a tiempo y, por lo tanto, fortaleciendo la seguridad del sistema en su totalidad.
72

Predicate-preserving collision-resistant hashing

Camacho Cortina, Philippe January 2013 (has links)
Doctor en Ciencias, Mención Computación / Se estudian funciones de hash resistentes a colisiones (FHRC) que permiten validar eficientemente predicados sobre las entradas, usando solamente los valores de hash y certificados cortos. Para los predicados, consideramos conjuntos y cadenas de caracteres. La idea de computar el valor de hash de un conjunto con el fin de demostrar (no)pertenencia aparece en la literatura bajo el nombre de acumuladores criptográficos (Benaloh y De Mare, CRYPTO 1993). En esa tesis se propone primero un acumulador criptográfico que permite manipular conjuntos dinámicos (es decir donde es posible insertar y borrar elementos) y cuya seguridad no depende de ninguna autoridad de confianza. Luego mostramos que no existe ningún acumulador criptográfico que permite la actualización de todos los certificados en tiempo constante después de varias modificaciones. Este resultado resuelve un problema abierto propuesto por Nicolisi y Fazio en su estado del arte sobre acumuladores criptográficos (2002). La siguiente contribución de esa tesis es una FHRC que permite la comparación de cadenas largas según el orden lexicográfico. Usamos esa FHRC para construir un esquema de firma digital transitivo que permite autenticar árboles dirigidos. Esa construcción es la más eficiente a la fecha, y mejora de forma sustancial el resultado de Gregory Neven (Theoretical Computer Science 396). Finalmente usamos una FHRC similar para demostrar que una cadena corresponde a la expansión binaria de un cierto valor. Con la ayuda de técnicas de pruebas de nula divulgación usamos esa construcción para implementar un protocolo que permite revelar gradualmente un secreto. Luego este protocolo se usa para poder intercambiar de forma equitativa firmas cortas de Boneh-Boyen (EUROCRYPT 2004) sin la necesidad de recurrir a una autoridad de confianza. ----------- We study Collision-Resistant Hash Functions (CRHF) that allow to compute proofs related to some predicate on the values that are hashed. We explore this idea with predicates involving sets (membership) and strings (lexicographical order, binary decomposition). The concept of hashing a set in order to prove (non)membership first appears in the literature under the name of cryptographic accumulators (Benaloh and De Mare, CRYPTO 1993). In this thesis we start by introducing a cryptographic accumulator that handles dynamic sets (it is possible to insert and delete elements) and whose security does not involve a trusted third party. Then we show that no cryptographic accumulator can have the property of batch update (efficient refresh of all the proofs after several updates to the set via a single operation) and thus solve an open problem stated by Nicolisi and Fazio in their survey on cryptographic accumulators (2002). We then describe a CRHF that enables efficient comparison of large strings through their lexicographical order. We use this CRHF to build a practical transitive signature scheme to authenticate directed trees. To the best of our knowledge, this is the first practical construction for signing directed trees. In particular, signatures for paths in the tree are of constant size. This dramatically improves the previous better bound by Gregory Neven (Theoretical Computer Science 396). Finally we use a similar CRHF to prove that a binary string corresponds to the binary expansion of some other value. Using zero-knowledge techniques we build upon this construction to obtain a protocol for releasing a secret gradually. This tool is then used to fairly exchange Boneh-Boyen short signatures (EUROCRYPT 2004) without relying on a trusted third party.
73

Arquitecturas de interoperabilidad para Sistemas de Mando y Control aplicado a gestión de emergencias

Pérez Carrasco, Francisco José 28 December 2017 (has links)
Esta tesis se ha desarrollado dentro del marco de la interoperabilidad en la gestión de emergencias, a partir de la colaboración en los proyectos de investigación SECTOR y DESTRIERO, financiados por la comisión Europea dentro del programa FP7, llevándose a cabo en el grupo de investigación SATRD del Departamento de Comunicaciones de la UPV. Debido al creciente número de catástrofes que se producen a lo largo del planeta y la gran cantidad de pérdidas tanto humanas como económicas que generan, en la actualidad, es imprescindible disponer de una gestión de emergencias lo más efectiva y coordinada posible. Esto se consigue a través de la colaboración de diferentes agencias especializadas en realizar tareas concretas. El problema surge cuando se trata de coordinar a los equipos involucrados, ya que, cada agencia dispone de procedimientos, sistemas y estrategias diferentes. Agravándose más si cabe cuando el incidente se produce cerca de fronteras entre varios países. Por lo tanto, la interoperabilidad es algo esencial en la gestión colaborativa de una emergencia. En esta tesis se ha especificado una arquitectura de interoperabilidad genérica para poder utilizarse en diferentes entornos. La arquitectura se ha diseñado para permitir a los sistemas actuales, compartir información a través de la plataforma propuesta. Para conseguirlo, es necesaria la utilización de una serie de adaptadores, encargados de transformar los datos procedentes de los sistemas a un modelo de información común. Tras el diseño, se ha llevado a cabo el despliegue de la arquitectura en dos contextos diferentes. El primero de ellos, es el proyecto SECTOR, que tiene como objetivo mejorar los procesos de gestión de emergencias por medio del intercambio de información y recursos entre las distintas herramientas que disponen las agencias involucradas en una emergencia. El segundo, el proyecto DESTRIERO, pretende unificar los servicios de una serie de herramientas ya desarrolladas e independientes en un interfaz común, y además, proporcionar un espacio de información compartido para optimizar los procesos de recuperación y reconstrucción después de una catástrofe. Para concluir, los proyectos se validaron por medio de dos escenarios de pruebas simulados. Una inundación en SECTOR y un terremoto en DESTRIERO. Además, durante las demostraciones, los asistentes pudieron observar las mejoras obtenidas con la utilización de las arquitecturas desarrolladas, y valoraron de forma muy positiva los resultados obtenidos. / This thesis has been developed within the framework of interoperability in the management of emergencies, from the collaboration in the research projects on SECTOR and DESTRIERO, funded by the European Commission of the FP7 program, being carried out in the research group Distributed Real Time Systems and Applications (SATRD) from the Department of Communications of the UPV. Due to the increasing number of catastrophes occurring throughout the planet and the large number of both human and economic losses generated, currently, it is essential to have an emergency management as effective and coordinated as possible. This is reached through the collaboration of different agencies specialized in performing specific tasks. The problem arises when it comes to coordinating the teams involved, as each agency has different procedures, systems and strategies. It worsens when the incident occurs near borders between several countries. Therefore, interoperability is essential in the collaborative management of an emergency. This thesis has specified a generic interoperability architecture for using it in different environments. The architecture is designed to allow current systems to share information through the proposed platform. To achieve this, it is necessary to use a series of adapters, responsible of transforming data from the systems to a common information model. After the design, the deployment of the architecture has been carried out in two different contexts. The first of these is the SECTOR project, which aims to improve emergency management processes through the exchange of information and resources between the different tools available to the agencies involved in an emergency. The second one, the DESTRIERO project, aims to unite the services of a series of already developed and independent tools in a common interface, and to provide a shared information space to optimize the processes of recovery and reconstruction after a catastrophe. In conclusion, the projects were validated using two simulated test scenarios. A flood in SECTOR and an earthquake in DESTRIERO. In addition, during the demonstrations, the attendees could observe the improvements obtained with the use of the architectures developed and they evaluated the results gained very positively. / Aquesta tesi s'ha desenvolupat dins el marc de la interoperabilitat a la gestió d'emergències, a partir de la col·laboració als projectes d'investigació SECTOR i SETRIERO, finançats per la comissió europea dins el programa FP7, portant-se a terme al grup d'investigació Sistemes i Aplicacions de Temps Real Distribuït (SATRD) del Departament de Comunicacions de la UPV. A causa del creixent nombre de catàstrofes que es produeixen al llarg del planeta i a la gran quantitat de pèrdues tant humanes com econòmiques que generen, en l'actualitat, es imprescindible disposar d'una gestió d'emergències tan efectiva i coordinada com siga possible. Açò s'aconsegueix mitjançant la col·laboració de diferents agències especialitzades a realitzar tasques concretes. El problema sorgeix quan es tracta de coordinar els equips involucrats, ja que cada agència disposa de procediments, sistemes i estratègies diferents; agreujant-se, si més no, quan l'incident es produeix a prop de fronteres entre diversos països. Per la qual cosa, la interoperabilitat és un ens essencial per la gestió col·laborativa d'una emergència. En aquesta tesi s'ha especificat una arquitectura d'interoperabilitat genèrica per poder utilitzar-se en diferents entorns, la qual ha estat dissenyada per permetre els actuals sistemes compartir informació gràcies a la plataforma proposada. Per aconseguir-ho, és necessària la utilització d'una sèrie d'adaptadors, encarregats de transformar les dades procedents dels sistemes a un model d'informació comuna. Després del disseny, s'ha dut a terme el desplegament de l'arquitectura en dos contexts diferents. El primer d'ells, és el projecte SECTOR, que té com objectiu millorar els processos de gestió d'emergències mitjançant l'intercanvi d'informació i recursos entre les diferents ferramentes de què disposen les agències involucrades en una emergència. El segon, el projecte DESTRIERO, pretén unificar els serveis d'una sèrie de ferramentes ja desenvolupades a una interfície comuna i, a més, proporcionar un espai d'informació compartit per optimitzar els processos de recuperació i reconstrucció d'una catàstrofe. Per concloure, els projectes es validaren mitjançant dos escenaris de proves simulats. Una inundació en SECTOR i un terratrèmol en DESTRIERO. A més, durant les demostracions, els assistents van poder observar les millores obtingudes amb la utilització de les arquitectures desenvolupades i valorar, de manera molt positiva, els resultats obtinguts. / Pérez Carrasco, FJ. (2017). Arquitecturas de interoperabilidad para Sistemas de Mando y Control aplicado a gestión de emergencias [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/93519 / TESIS
74

Publicación y enriquecimiento semántico de datos abiertos en bibliotecas digitales

Candela, Gustavo 02 July 2019 (has links)
La Biblioteca Virtual Miguel de Cervantes, con dirección web http://www.cervantesvirtual.com, es una biblioteca digital española creada en 1999 con el objetivo principal de difundir la cultura hispánica. Siguiendo los pasos de las grandes bibliotecas, a principios de 2015 la BVMC lanzó su primera versión de datos abiertos basada en el vocabulario RDA que se encuentra disponible en la dirección http://data.cervantesvirtual.com. El proyecto de datos abiertos de la BVMC tiene como objetivos promover la compartición y reutilización de datos, así como la difusión de buenas prácticas. Esta tesis presenta los pasos seguidos para publicar y enriquecer semánticamente los datos abiertos de la BVMC e incluye las siguientes aportaciones: • Construcción de un entorno de publicación y enriquecimiento de datos abiertos que permite comprender mejor el contexto, los problemas y necesidades organizacionales, reduciendo las posibilidades de fracaso de este tipo de proyectos. • Establecimiento de una metodología que sistematiza y facilita el descubrimiento e identificación de entidades en un dominio de bibliotecas digitales. • Desarrollo de herramientas y algoritmos para automatizar el procesamiento de conjuntos de datos basados en registros bibliográficos de manera eficiente. • Propuesta de una metodología para la evaluación de la calidad de los datos que incluye la precisión, la consistencia y la accesibilidad, entre otros criterios. Como resultado del trabajo realizado se han publicado tres artículos en revistas indexadas, dos de ellos en Journal of Information Science y uno en Semantic Web Journal, además una publicación en la conferencia Advances in Information Retrieval, así como numerosas comunicaciones a nivel nacional e internacional, en colaboración con otras instituciones.
75

Webinar: ¿Estadísticas?, ¿datos?, cómo encontrarlos para tu investigación

Montoya Cantoral, Ada, Altamirano Puerta, Gerardo 04 June 2021 (has links)
Ada Montoya Cantoral (Perú) - Expositora / Gerardo Altamirano Puerta (Perú) - Expositor / El webinar estuvo a cargo de Ada Montoya y Gerardo Altamirano, bibliotecólogos del Sistema de Bibliotecas de la UPC. El webinar presentó una introducción a los conceptos de datos abiertos y datos de investigación como insumo emergente que podemos usar, además de los ya conocidos artículos académicos, en nuestra actividades de investigación. En la primera parte se presentaron portales de datos abiertos como la Plataforma Nacional de Datos Abiertos (Perú) y Datos de libre acceso del Banco Mundial (Internacional) así como aplicaciones de servicio a los ciudadanos construidos a partir de datos abiertos gubernamentales. En la segunda parte se definió el concepto de datos de investigación y se presentaron algunos portales como Dataset Search (Google) y Mendeley Data (Elsevier). A continuación se realizaron ejemplos prácticos de búsqueda de conjuntos de datos. Finalmente, se indicó cómo citar los -datos de investigación de acuerdo a la 7ª edición del Manual de Publicaciones (APA).
76

Herramienta de visualización y agrupación de imágenes para twitter

Vásquez Laval, Juan Ignacio January 2012 (has links)
Ingeniero Civil en Computación / Este informe detalla el proceso de investigaci on y desarrollo de un prototipo de aplicación WEB que, a partir de los mensajes de la red social Twitter que se muestran a un usuario, genera un collage con im agenes que representan visualmente la información. Para lograr esto se aprovecha el hecho de que un gran n umero de los mensajes desplegados contienen un v nculo hacia alguna p agina WEB y a su vez, estas contienen una imagen relevante a la informaci on transmitida, ya sea un logo corporativo o una ilustraci on. Utilizando la API de Twitter y una serie de librer as externas, se logra obtener estos mensajes junto con sus respectivas im agenes para generar su posterior procesamiento. El contenido descargado es agrupado autom aticamente haciendo uso de herramientas de minería de datos. El objetivo de este proceso es generar una agrupaci on por t opicos y una selección de mensajes representativos de cada grupo con la nalidad de hacer m as simple la visualización de la información. Por último, el prototipo generado es evaluado en cuanto a rendimiento y percepción por parte de los usuarios. Los resultados y sus conclusiones son discutidos en este informe.
77

Datos de prueba de productos farmacéuticos. Análisis de la legislación local y tratados aplicables. Primeros casos - Perú

Reátegui Valdiviezo, Maritza 04 November 2014 (has links)
La presente exposición se refiere a la implementación de la Protección de los Datos de Prueba para productos farmacéuticos a propósito de la implementación del Tratado de Libre Comercio suscrito entre el Perú y Estados Unidos de América y la aplicación de las definiciones dadas por el Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual Relacionados con el Comercio (TRIPS, por su siglas en ingles) para esta figura. Se analiza la legislación nacional y los tratados aplicables así como los primeros casos de protección a las nuevas entidades químicas dadas por la autoridad regulatoria. Los aciertos y desaciertos de la nueva legislación de datos de prueba. Su impacto en temas de salud.
78

Identification and characterization of high impact news events on twitter

Quezada Veas, Mauricio Daniel January 2014 (has links)
Magíster en Ciencias, Mención Computación / Motivación: El problema de manejar grandes cantidades de datos producidos por usuarios de los llamados sitios de social media ya no parece ser nuevo. Por ejemplo, en la red social online Twitter cada día se publica más de 400 millones de mensajes. Y este diluvio de datos está afectando a cada vez más escenarios. En particular, el problema de comprender qué está pasando en el mundo se vuelve un problema cada vez más difícil, debido a la gran cantidad de fuentes de noticias. Breaking News corresponde a noticias que interrumpen el flujo normal de radio y televisión. En las redes sociales son un fenómeno más complicado de estudiar, debido a un paradigma distinto: la producción y el consumo descentralizado de datos en modo streaming. Comprender el impacto de las noticias en las redes sociales online es un problema difícil e interesante de investigar. Propósito: El objetivo principal de este proyecto es responder a la pregunta: ¿Es posible predecir si un evento noticioso causará impacto en las redes sociales online, poco después de su publicación? Se utiliza Twitter como la fuente de datos. Contribuciones: Se define la noción de impacto, basado en la tasa de llegada de los tweets que discuten los eventos. Luego, se predice el impacto de los eventos usando características de los mensajes, como el número de veces que son compartidos, el puntaje de sentimiento, etc. La tarea de predicción tiene buenos resultados de clasificación incluso usando el primer 5% de los datos, y aunque mejora al agregar más datos, F-score y accuracy decrecen al usar el 100%. Además, se caracterizan los eventos en Twitter, encontrando propiedades distintivas entre eventos de alto y bajo impacto. En los eventos de alto impacto la información se propaga a una mayor velocidad y escala. Además, son más focalizados en términos de vocabulario, y muestran mayor puntaje de sentimiento. Eventos de bajo impacto son más conversacionales: los usuarios que hablan acerca de esos eventos usan un vocabulario más extenso y comparten más recursos, como URLs o hashtags. Metodología: Se propone y desarrolla una metodología de recolección de datos e identificación de eventos. El conjunto de datos final contiene 9,000 eventos y 45 millones de tweets, aproximadamente. Para asignar la categoría de impacto de un evento, se usan métodos de clustering para aprender una representación multidimensional de éstos. Luego, se distingue entre eventos de alto y bajo impacto. Usando un clasificador de regresión logística sobre porciones de los datos, se clasifican eventos para predecir su categoría de impacto, usando la representación multidimensional como base para la evaluación. Valor: El valor de este trabajo yace en sus posibles aplicaciones: puede apoyar el trabajo periodístico, sirve para generar resúmenes automáticos valiosos, desarrollar sistemas de recomendación, publicidad focalizada, encontrar contenido relevante, entre otras.
79

Efficient algorithms for risk averse optimization

Chicoisne, Renaud Pierre January 2015 (has links)
Doctor en Sistemas de Ingeniería / Muchos problemas de decisión industriales o logísticos pueden ser vistos como problemas de optimización y para muchos de ellos no es razonable ocupar datos deterministas. Como veremos en este trabajo en el contexto de despachos de emergencia o de planificación de seguridad, las condiciones reales son desconocidas y tomar decisiones sin considerar esta incertidumbre pueden llevar a resultados catastróficos. La teoría y la aplicación de optimización bajo incertidumbre es un tema que ha generado un amplio área de investigación. Sin embargo, aún existen grandes diferencias en complejidad entre optimización determinista y su versión incierta. En esta tesis, se estudian varios problemas de optimización con aversión al riesgo con un enfasis particular en el problema de camino más corto (RASP), problemas estocásticos en redes en general y juegos de seguridad de Stackelberg. Para obtener distribuciones de tiempos de viaje precisos sobre una red vial a partir de datos GPS del sistema de tránsito, se presenta una revisión de los métodos existentes para proyectar trayectorias GPS y se definen dos nuevos algoritmos: Uno que permite la proyección de datos óptima con respecto a una medida de error convenientemente definida (MOE), y un método heurístico rápido que permite proyectar grandes cantidades de datos de manera contínua (MMH). Se presentan resultados computacionales en redes reales y generadas de gran tamaño. Luego, se desarrollan algoritmos eficientes para problemas de ruteo con aversión al riesgo utilizando métodos de Sample Average Approximation, técnicas de linealización y métodos de descomposición. Se estudian la medida de riesgo entrópica y el Conditional Value at Risk considerando correlaciones entre las variables aleatorias. Se presentan resultados computacionales prometedores en instancias generadas de tamaño mediano. Sin embargo, la naturaleza combinatorial de los problemas los vuelve rapidamente intratable a medida que el tamaño del problema crece. Para hacer frente a esta dificultad computacional, se presentan nuevas formulaciones para problemas en redes difíciles, que tienen un menor número de variables enteras. Estas formulaciones ayudan a derivar esquemas de brancheo que se aprovechan de la estructura especial de las formulaciones propuestas. Se muestra como aplicar estas ideas a los conjuntos de camino simple y de circuito hamiltoniano en redes generales, así como los conjuntos de camino simple y de corte en grafos dirigidos acíclicos (DAG). Este trabajo preliminar muestra ideas prometedoras para resolver problemas difíciles. Finalmente, se exploran las implicaciones de los métodos algortmicos y las formulaciones desarrolladas para resolver RASP en un área diferente. Se presentan nuevas formulaciones y enfoques de resolución para juegos de seguridad de Stackelberg cuando el defensor es averso al riesgo con respecto a la estrategia del atacante. Esto se puede resolver de manera polinomial cuando se enfrenta a un adversario y resolviendo un problema de optimización convexa en números enteros cuando el defensor enfrenta varios tipos de adversarios.
80

Implantación de un sistema de ventas que emplea una herramienta de data mining

Berrospi Ramírez, Miguel Angel 02 December 2013 (has links)
El proyecto que se presenta en este documento tiene como objetivo exponer el flujo de procesos o serie de pasos que se realiza en un proceso de implantación de un ERP y en un proceso algorítmico de Data Mining; se realiza lo antes mencionado porque la empresa a la que se aplicará ambos conjuntos de procesos necesita ordenar su información en el área de ventas y obtener información que beneficie a la empresa respecto a cómo se comportan sus clientes cuando compran en todo un periodo de tiempo. Para que el objetivo final del proyecto se cumpla, se usaron herramientas de software, herramientas de planificación y de organización, estas últimas se usaron porque son herramientas estandarizadas y aceptadas internacionalmente en sus respectivos campos; además, sirvieron eficientemente para su propósito porque son una guía de pasos detalladas y específicas para cada actividad que se necesitaba en el proyecto. Con respecto a las herramientas software usadas, estas fueron seleccionadas mediante una comparación de criterios, las cuales eran necesarias por los requerimientos y necesidades planteadas en la justificación y viabilidad del proyecto. En conclusión, el proyecto se llevó a cabo con éxito previniendo los efectos negativos o eventos inoportunos que puedan generarse durante su ejecución mediante un plan de riesgos ya incluido previamente en la planificación. Esta planificación y el planteamiento de objetivos generales y específicos con sus respectivos métodos y actividades, ayudaron a mantener una idea clara y concisa de lo que se pretendía realizar desde los inicios del proyecto. / Tesis

Page generated in 0.4501 seconds