• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 247
  • 9
  • Tagged with
  • 256
  • 256
  • 118
  • 113
  • 95
  • 90
  • 89
  • 75
  • 74
  • 71
  • 40
  • 37
  • 36
  • 34
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

A meta-process for defining adaptable software processes

Hurtado Alegria, Julio Ariel January 2012 (has links)
Doctor en Ciencias, Mención Computación / Lograr proyectos de software productivos y con calidad dentro de una industria dinámica y competitiva, requiere definir modelos de proceso correctos y adecuados al contexto. Así, el mejor proceso debe estar correctamente definido y debe ser adecuado a las particularidades del proyecto en el que será usado. Típicamente, un ingeniero de procesos define un proceso específico para cada proyecto en forma ad-hoc, lo cual resulta costoso, irrepetible y propenso al error. Por otro lado, la especificación de procesos demanda un esfuerzo enorme y una vez éstos son especificados, son pocos los enfoques y aún menos las herramientas, que asistan al ingeniero de procesos a analizar la calidad de sus modelos de proceso. En los últimos cinco años hemos asesorado empresas de software en la especificación de sus procesos de software. Como parte de este trabajo una serie de problemas fueron identificados, éstos indican la presencia potencial de incorrectas concepciones y especificaciones, así como inadecuadas adaptaciones en el modelo del proceso. Para prevenir errores en la adaptación de procesos, esta tesis propone CASPER, un metaproceso para definir modelos de proceso adaptables al contexto. CASPER usa un enfoque basado en modelos para adaptar el proceso de desarrollo generando procesos específicos a proyectos a partir del proceso organizacional y el contexto específico del proyecto. El enfoque es sistemático, repetible y no depende de un usuario experto en ingeniería de procesos. Para asistir al ingeniero de procesos en el análisis de problemas concepuales y de especificación, en esta tesis se desarrolló AVISPA. AVISPA es una herramienta que gráficamente presenta diferente patrones de error de un modelo de proceso de software resaltando los errores potenciales a través de indicadores comprensibles e intuitivos. Los enfoques de CASPER y AVISPA han sido validados aplicándolos en la definición y análisis de algunos modelos de proceso de la industria de software Chilena y algunos procesos públicos disponibles desde la comunidad de Eclipse Process Framework. Estos enfoques muestran ampliamente la utilidad práctica del enfoque dirigido por modelos para lograr modelos de proceso de alta calidad.
22

Diseño, implementación y evaluación de una colección adaptativa

Maass Olea, Sergio Andrés January 2016 (has links)
Ingeniero Civil en Computación / La creación y manipulación de colecciones de valores está ampliamente soportada por los lenguajes de programación modernos. A pesar de que cada lenguaje viene con su propia implementación de colecciones, la mayoría de las implementaciones encontradas son muy similares en estructura y funcionalidad ofrecida. Una excepción notable es el caso de Lua, pues presenta una sola colección: la tabla. Esta estructura es la unificación de una colección expansible secuencial y un arreglo asociativo o diccionario. La tabla es una estructura híbrida, compuesta por una parte de hash y una parte de arreglo, y hará uso de sus estructuras internas según su uso: si es utilizada como lista hará uso del arreglo y si es usada como diccionario usará el hash. Esto permite flexibilidad y eficiencia pues las estructuras internas sólo se crean cuando requieren ser usadas. Este comportamiento adaptativo es interesante en cuanto sugiere buen rendimiento mientras que se muestra muy simple para el usuario. A pesar de que Lua ha logrado bastante popularidad, las tablas no han sido cuidadosamente estudiadas por la comunidad científica. La eficiencia no solo depende de la implementación de las colecciones, sino también de si se escoge la colección correcta, con los parámetros adecuados, para cada situación particular. La selección inadecuada de colecciones puede resultar en un sobrecosto severo. Por este motivo, contar con una forma automática de asignar la colección más adecuada para cada caso sería muy valioso en la práctica. El experimento Chameleon aborda este problema sobre la JVM, mediante la identificación automática de elecciones inadecuadas de colecciones a través de análisis en tiempo de ejecución. El reemplazo de las colecciones identificadas por otras más adecuadas permitió reducir el consumo de memoria hasta en un 55% y el tiempo de ejecución en un 60% en algunas aplicaciones. Este trabajo enfrenta el problema de determinar la aplicabilidad de la tabla de Lua, o un derivado de esta, en lenguajes con bibliotecas ricas de colecciones. Para esto se desarrollan tres colecciones en el lenguaje Pharo: SLua, SmartCollection y SmartCollection2. Estas luego se evalúan en comparación con las colecciones normales de Pharo y con una versión lazy de las mismas mediante distintos tipos de benchmarks que miden su tiempo de ejecución y consumo de memoria, y se realiza análisis dinámico para entender las diferencias en los resultados. Además, se aborda el problema de la selección adaptativa de colecciones y se replica el experimento Chameleon. Luego se usa la herramienta de selección y reemplazo automático de colecciones para evaluar las colecciones desarrolladas. Los resultados de los experimentos realizados mediante instrumentación muestran reducciones de hasta un 30% en consumo de memoria y hasta un 15% en tiempo de ejecución en algunos escenarios al reemplazar las colecciones tradicionales por las desarrolladas. Sin embargo, la evaluación posterior mediante la herramienta de reemplazo de colecciones a nivel de código fuente no reveló diferencias estadísticamente significativas entre los tiempos de ejecución y uso de memoria entre las distintas colecciones. Esto indica una amplificación de los resultados introducida por la instrumentación. Las colecciones de las librerías externas utilizadas por las aplicaciones estudiadas no fueron reemplazadas, por lo que se plantea estudiar el impacto del reemplazo de colecciones sobre estas como trabajo futuro.
23

Smart quiz

Cruz Donayre, Milagros Cristell 12 January 2016 (has links)
Actualmente en el Perú los temas de cultura general, como por ejemplo nuestra historia, son poco valorados y conocidos por personas de todas las edades, esto a partir del gran impacto que ha generado la televisión con el contenido de los llamados programas “basura”. Este proyecto tiene objetivo promover los temas culturales que se han dejado de lado a través de la implementación de un juego trivia para los Smart TV en el que se podrán encontrar preguntas de diferentes categoría y se pondrán a prueba los conocimientos de cada jugador. De esta manera se pueda enfocar el uso de este medio de comunicación a algo más productivo, como el aprendizaje de la cultura general de nuestro Perú a través del juego y la competencia. Para explicar a detalle el proyecto, se ha dividido este documento en cinco capítulos. En el capítulo 1 se detallará el objeto de estudio y el problema encontrado, así como también la solución a tomar, los objetivos y los indicadores de éxito. En el capítulo 2 se explicarán los conceptos relacionados al proyecto, como la definición de Smart TV, trivia y se explicará en qué consiste la gamificación y se explicará más a fondo esta tendencia. En el capítulo 3 se definirá el mercado de aplicaciones Smart TV en el mundo para posteriormente explicar el mercado de aplicaciones a nivel de educación. Posteriormente se explicarán los beneficios de la gamificación en ambientes educativos y sus casos de éxito relacionados. En el capítulo 4 se describirá el desarrollo del proyecto. Finalmente en el capítulo 5 se describirá el producto final y los principales planes de gestión. / Actually in Peru, topics about general knowledge, like our history, are little valued an known by people of all ages, this because the great impact TV has generated with TV Shows called "junk". The goal of this project is promoting general knowledge that citizens have forgotten, this through developing a trivia game for Smart TV's. This app has questions of different topics or categories and will test players’ skills. In this way, it can change the point of view about how people think about TV. People would think about TV like a mean of learning about Peru through the game and competition instead of only a mean for watch TV. To explain this project, this document has been divided into five chapters. In the first chapter, we are going to talk about the the object of study and the problem to solve, then about the solution, the goals and success indicators. In chapter 2, we are going to talk about concepts related to the project, such as: definition of Smart TV, trivia, and gamification. In chapter 3, the Smart TV applications market will be defined. Then we will talk about the benefits of gamification in educational environments and the status of education in Peru. Chapter 4 describes the final product, and finally in chapter 5, management plans of the final product are described.
24

Development of bioinformatics resources for the integrative analysis of Next Generation omics data

Hernández de Diego, Rafael 20 November 2017 (has links)
The advances in high-throughput sequencing techniques and the technological development accompanying them have favoured the development and popularisation of a new range of genomic research disciplines, collectively known as the omics. These technologies are capable of simultaneously measuring thousands of molecules which are essential for life, including DNA, RNA, proteins, and metabolites. Historically, classical genomic research has followed a reductionist approach by studying the structure, regulation, and function of these biological units independently. However, despite being a powerful analytical tool, the reductionist method cannot explain many of the biological phenomena that take place in living systems. This is because these biological events are not represented by the sum of their components, rather, only the interacting dynamics of the different omics elements can explain their complexity. In recent years Systems Biology has established itself as a multidisciplinary area of research which tries to model the dynamic behaviour of biological systems by holistically studying the interactions between the different omics disciplines; it combines simultaneous measurements of different types of molecules and integrates multiple sources of information in order to identify changing components in a coordinated way and under controlled study conditions. Thus, Systems Biology is an interdisciplinary area that requires biologists, mathematicians, biochemists, and other researchers to work closely together, and in which computer sciences plays a fundamental role because of the volume and complexity of the data handled. This thesis addresses the problem of data management, integration, and analysis in multi-omics studies. More specifically, this research focused on two of the most characteristic computational challenges in Systems Biology: the development of integrated databases and the problem of integrative visualisation. Therefore, the first part of this work was devoted to designing and creating a bioinformatics resource for managing multi-omics experiments. The resulting platform, known as STATegra EMS, offers a complete set of tools that facilitate the storage and organisation of the large datasets generated during omics experiments, and also provides tools for data annotation in the later stages of processing and analysis of the information. The development of this platform required overcoming problems created by the heterogeneity, volume, and high variability of the data. Thus, as part of the solution to these problems, detailed metadata can be recorded within STATegra EMS, allowing dataset discrimination and successful data integration. To aid this process, the platform also offers a collaborative and easy-to-use web interface that combines modern web technologies and well-known community standards to represent the different components of the integrated experiments. The second part of this thesis examines the current situation and challenges in integrative data visualisation in multi-omic experiments, and presents the PaintOmics 3 web tool which was developed to address these issues. Since the capacity of the human brain for visual processing is highly evolved, integrative visualisation combined with data analysis techniques is probably one of the most powerful tools for interpreting and validating results in Systems Biology. PaintOmics 3 provides a comprehensive framework for performing biological function enrichment analyses in experiments with multiple conditions and data types; it combines powerful tools for integrative data visualisation on KEGG molecular-interaction diagrams, biological-process interaction-networks, and statistical analyses. Moreover, unlike similar tools, PaintOmics 3 is interactive and easy to use, and stands out for its flexibility and the variety of omics data types it accepts, which include epigenomics data based on genomic regions, proteomics data, and miRNA-study data. / Los avances en las técnicas de secuenciación y el abaratamiento tecnológico han favorecido el desarrollo y la popularización de una nueva gama de disciplinas de investigación genómica, conocidas como "ómicas". Estas tecnologías son capaces de realizar mediciones simultáneas de miles de moléculas esenciales para la vida, tales como el ADN, el ARN, las proteínas y los metabolitos. Históricamente, la investigación genómica clásica ha seguido un enfoque reduccionista al estudiar la estructura, regulación y función de estas moléculas de manera independiente. Sin embargo, el método reduccionista es incapaz de explicar muchos de los fenómenos biológicos que tienen lugar en un sistema vivo, sugiriendo que la esencia del sistema no puede explicarse simplemente mediante la enumeración de elementos que lo componen, sino que radica en la dinámica de los procesos biológicos que entre ellos acontecen. La Biología de Sistemas se ha establecido en los últimos años como el área de investigación multidisciplinaria que trata de modelar el comportamiento dinámico de los sistemas biológicos a través del estudio holístico de las interacciones entre sus partes, combinando mediciones simultáneas de diferentes tipos de moléculas e integrando múltiples fuentes de información para identificar aquellos componentes que cambian de manera coordinada en las condiciones estudiadas. La BS es un área interdisciplinar que requiere que biólogos, matemáticos, bioquímicos y otros investigadores trabajen en estrecha colaboración, y en la que la informática tiene un papel fundamental dado el volumen y la complejidad de los datos. Esta tesis aborda el problema de la gestión, integración y análisis de los datos en estudios multi-ómicos. Más específicamente, la investigación se ha centrado en dos de los retos computacionales más característicos de la BS: el desarrollo de bases de datos integrativas y el problema de la visualización integrativa. Así, la primera parte de este trabajo se ha dedicado al diseño y creación de un recurso bioinformático para la gestión de experimentos multi-ómicos. La plataforma desarrollada (STATegra EMS) ofrece un conjunto de herramientas que facilitan el almacenamiento y la organización de los grandes conjuntos de datos que son generados durante los experimentos, así como la anotación de las posteriores etapas de procesamiento y análisis de la información. La heterogeneidad, el volumen y la variabilidad de los datos son algunos de los obstáculos que han sido abordados durante el desarrollo del STATegra EMS, con el fin de alcanzar un registro detallado de la meta-información que permita discriminar cada conjunto de datos y lograr así una integración exitosa de la información. Para ello, la plataforma desarrollada ofrece una interfaz web colaborativa y de fácil manejo en la que se combinan modernas tecnologías web y conocidos estándares comunitarios para la representación de los diferentes componentes del experimento. En la segunda parte de esta tesis se discuten la situación actual y las dificultades de la visualización integrativa de datos multi-ómicos, y se presenta la herramienta desarrollada, PaintOmics 3. La visualización integrativa combinada con técnicas de análisis de datos es probablemente una de las herramientas más poderosa para la interpretación y validación de los resultados en BS. PaintOmics 3 proporciona un completo marco de trabajo para realizar análisis de enriquecimiento de funciones biológicas en experimentos con múltiples condiciones y tipos de datos, en el que se combinan potentes herramientas de visualización integrativa sobre diagramas de interacción molecular y redes de reacción KEGG, redes de interacción de procesos biológicos, y estudios estadísticos de los datos. Además, a diferencia de otras herramientas, PaintOmics 3 destaca por su facilidad de uso e interactividad, así como por su flexibilidad y variedad de los datos / Els avenços en les tècniques de seqüenciació d'alt rendiment i l'abaratiment tecnològic posterior han afavorit el desenvolupament i la popularització d'una nova gamma de disciplines d'investigació genòmica, conegudes col¿lectivament com a "òmiques". Aquestes tecnologies permeten realitzar mesuraments simultanis de milers de molècules essencials per a la vida, com ara l'ADN, l'ARN, les proteïnes i els metabòlits. Històricament, la investigació genòmica clàssica ha seguit un enfocament reduccionista a l'hora d'estudiar l'estructura, la regulació i la funció d'aquestes unitats biològiques de manera independent. No obstant això, el mètode reduccionista és incapaç d'explicar molts dels fenòmens biològics que tenen lloc en un sistema viu, suggerint que l'essència del sistema no es pot explicar simplement mitjançant l'enumeració d'elements que el componen, sinó que radica en la dinàmica dels processos biològics que tenen lloc entre ells. La Biologia de Sistemes (BS) ha esdevingut els darrers anys l'àrea d'investigació multidisciplinària que tracta de modelar el comportament dinàmic dels sistemes biològics a través de l'estudi holístic de les interaccions entre les seues parts, combinant mesuraments simultanis de diferents tipus de molècules i integrant múltiples fonts d'informació per a identificar aquells components que canvien de manera coordinada en les condicions objecte d'estudi. La BS és una àrea interdisciplinar que requereix que biòlegs, matemàtics, bioquímics i altres investigadors treballen plegats i en la qual la informàtica té un paper fonamental, atès el volum i la complexitat de les dades emprades. Aquesta tesi aborda el problema de la gestió, la integració i l'anàlisi de les dades en estudis multi-òmics. Més concretament, la investigació s'ha centrat en dos dels reptes computacionals més característics de la BS: el desenvolupament de bases de dades integratives i el problema de la visualització integrativa. Així, la primera part d'aquest treball s'ha dedicat al disseny i creació d'un recurs bioinformàtic per a la gestió d'experiments multi-òmics. La plataforma desenvolupada (STATegra EMS) ofereix un conjunt d'eines que faciliten l'emmagatzematge i l'organització dels grans conjunts de dades que són generats durant aquests experiments, així com l'anotació de les etapes posteriors de processament i anàlisi de la informació. L'heterogeneïtat, el volum i l'alta variabilitat de les dades òmiques són alguns dels obstacles que han estat abordats durant el desenvolupament de l'STATegra EMS, amb la finalitat d'assolir un registre detallat de la meta-informació que permeta discriminar cada conjunt de dades i aconseguir així una integració reeixida de la informació. Per a aconseguir-ho, la plataforma desenvolupada ofereix una interfície web collaborativa i fàcil de fer servir que conjumina modernes tecnologies web i coneguts estàndards comunitaris per a la representació dels diferents components de l'experiment. En la segona part d'aquesta tesi s'hi estudia la situació actual i les dificultats de la visualització integrativa de dades en experiments multi-òmics i s'hi presenta l'eina web desenvolupada: PaintOmics 3. La visualització integrativa en combinació amb tècniques d'anàlisi de dades és probablement una de les eines més poderosa per a la interpretació i validació dels resultats en BS. PaintOmics 3 proporciona un marc complet de treball per a fer anàlisis d'enriquiment de funcions biològiques en experiments amb múltiples condicions i tipus de dades; s'hi combinen eines potents de visualització integrativa de dades sobre diagrames d'interacció molecular i xarxes de reacció KEGG, xarxes d'interacció de processos biològics i estudis estadístics de les dades. A més, a diferència d'altres eines desenvolupades, PaintOmics 3 és molt interactiva i fàcil d'usar, i destaca per la flexibilitat i varietat de dades que accepta, co / Hernández De Diego, R. (2017). Development of bioinformatics resources for the integrative analysis of Next Generation omics data [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/91227 / TESIS
25

Propuesta de un plan estratégico de TI para la división de negocios IBM GTS del Perú

Giraldo Canta, Richard Eduardo, Montero Quispe, Carlos Alberto 01 December 2016 (has links)
Desarrolla el análisis de la división de negocios IBM GTS. Esto a través de la arquitectura empresarial con el objetivo de identificar la estrategia de negocio que permite direccionar a toda la división de negocio en pro del cumplimiento de la misión y visión empresarial. Esta estrategia de negocio finalmente permite realizar una propuesta de mejora, en el Plan estratégico de TI, el cual es implementar un proceso de gestión de la demanda. Para ello en el capítulo 1 se desarrolla un breve marco teórico, en el cual se ven conceptos como la arquitectura empresarial, el framework de Zachman, las buenas prácticas de ITIL y el proceso de Gestión de la Demanda. En el capítulo 2 se muestra la información del negocio de IBM, donde se presenta a la empresa, tomando como división principal sobre la cual se desarrollará el proyecto, es decir, IBM GTS; su visión, misión, valores, estructura organizacional y los objetivos estratégicos. En el capítulo 3, una vez planteados los objetivos estratégicos, se desarrollará la arquitectura empresarial, definiendo el mapa de procesos, realizando un alineamiento entre los procesos identificados y los objetivos empresariales, asimismo definiremos la matriz de responsabilidades empresariales, el modelo de dominio empresarial, la matriz de las entidades vs los procesos y la arquitectura de dichos procesos. En el capítulo 4, una vez identificada la estrategia de negocio, se formula el plan estratégico de TI (PETI), en donde se detalla las acciones estratégicas, a nivel de tecnología, que soportarán y favorecerán el cumplimiento de los objetivos estratégicos del negocio de IBM GTS. En el análisis estratégico se ha encontrado que la gestión de la demanda es una de las acciones estratégicas, de mayor relevancia, que se encuentra alineada en pro de los objetivos empresariales de IBM GTS. En el capítulo 5, se desarrolla la problemática y el impacto al negocio, así como la propuesta de mejora referente a la gestión de la demanda, la cual es de suma importancia para soportar, a través de buenas prácticas, las demandas de los clientes de IBM GTS, para luego mostrar los indicadores de logro y la matriz de factores de riesgos. Posteriormente, en el capítulo 6 se colocan las conclusiones y las recomendaciones a las cuales se ha llegado en el presente proyecto, para finalmente mostrar un glosario de los principales términos utilizados y la bibliografía / Tesis
26

Plantilla para elaborar Trabajo de suficiencia profesional de Ingeniería de Software / Programa Académico de Ingeniería de Software. Facultad de Ingeniería

Dirección de Gestión del Conocimiento 02 1900 (has links)
Plantilla para elaborar Trabajo de suficiencia profesional de Ingeniería de Software para optar el título profesional de Ingeniero de Software en el Programa Académico de Ingeniería de Software. Facultad de Ingeniería. Universidad Peruana de Ciencias Aplicadas.
27

Una herramienta CASE basada en un repositorio con interfaz hipermedial

Fabini, Darío, Sobota, Gustavo January 1998 (has links)
No description available.
28

Reingeniería de una herramienta de administarción de requisitos: ReqAdmin

Hafon Acuña, Francisco Yensung January 2014 (has links)
Ingeniero Civil en Computación / La administración de requisitos de un proyecto de software puede parecer un trabajo fácil, pero en realidad es una labor compleja, puesto que los requisitos están sujetos a cambios, ambigüedades, malas interpretaciones y pérdida de información. Además, la cantidad requisitos y las posibles relaciones entre ellos pueden obstaculizar su visibilidad, especialmente al momento de determinar el impacto de un cambio en las especificaciones de requisitos. Los alumnos del curso CC5401: Ingeniería de Software II, deben aprender a resolver estos y otros problemas rápidamente, sobre proyectos reales. Afortunadamente cuentan con una herramienta de administración de requisitos, la cual fue desarrollada específicamente para dar visibilidad y mantener la trazabilidad de los requisitos involucrados en los proyectos manejados por los estudiantes. La herramienta también ofrece instrumentos automatizados que permiten detectar tempranamente riesgos e inconsistencias sobre las especificaciones de los requisitos. Sin embargo, la interfaz y otras características de esa herramienta presentan problemas de usabilidad. Esto hace que los usuarios pierdan tiempo valioso al utilizarla, teniendo además que contrarrestar errores presentes en la implementación actual. Para resolver dicho problema, este trabajo de memoria desarrolló una nueva versión de la herramienta. Para la nueva versión de la herramienta se reutilizaron sólo los conceptos de la herramienta original. La nueva herramienta tiene una interfaz totalmente renovada y fue implementada usando un framework Web que permite una mayor extensibilidad y mantenibilidad del software. Además, incluye el feedback de los usuarios en el proceso de desarrollo, e incorpora nuevos servicios útiles para los usuarios. Las principales ventajas que ofrece esta nueva solución son las siguientes: una navegación intuitiva, generación rápida de documentos, fácil reconocimiento de potenciales conflictos en la especificación de requisitos, evita la pérdida de datos y los usuarios requieren menos tiempo para usar la herramienta. Pruebas de usuario basadas en metodologías de usabilidad han mostrado, luego de varias iteraciones, que el software es estable y que los requisitos planteados fueron alcanzados de manera satisfactoria. Además, las encuestas finales revelan un mejor nivel de aceptación y facilidad de uso para los alumnos.
29

Sistema de revisión de evaluaciones para U-Cursos

Garrido Arroyo, José Ignacio January 2016 (has links)
Ingeniero Civil en Computación / El proceso de evaluación corresponde a uno de los proceso elementales en el ámbito académico en la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile. Dentro del transcurso de este proceso, ocurre un sub-proceso de revisión de evaluaciones conocido informalmente como reclamo . Este se desarrolla de manera presencial y permite a los estudiantes revisar la corrección de sus evaluaciones en caso de dudas con respecto al resultado y solicitar una re-corrección en caso de errores. Sin embargo, este proceso implica la utilización de tiempo que no se encuentra contabilizado en las horas de docencia de un curso y, además, se convierten en una oportunidad para que los estudiantes soliciten una nota mayor sin tener razones fundamentadas para ello. Por otro lado, la plataforma U-Cursos fue desarrollada por el Área de Infotecnologías de la Facultad en el año 2001 y provee diversos servicios orientados a apoyar la docencia presencial y mejorar las metodologías de trabajo, siendo principalmente un nexo entre los estudiantes y el equipo docente. En sus más de 10 años de existencia, se ha convertido en la principal herramienta digital entre los diversos actores de la universidad. En este trabajo de memoria se propuso diseñar e implementar un sistema de revisión de evaluaciones que consiste en la digitalización, en caso de ser necesario, de las respuestas y la integración con la plataforma de U-Cursos, que sea útil y usable. Para esto, el trabajo consistió de dos etapas fundamentales: la digitalización e identificación de las evaluaciones y la integración con el sistema de U-Cursos. Para la primera etapa se realizó el proceso de estandarización de la hoja de respuesta de las evaluaciones, de manera de proveer un mecanismo de identificación al momento de escaneo que permita relacionar una hoja con un estudiante de manera automática, utilizando herramientas de reconocimientos de patrones. De esta forma, una vez cargadas las digitalizaciones en el sistema, se puede realizar de manera rápida la revisión de evaluaciones por parte de los estudiantes en la plataforma U-Cursos, permitiendo agregar comentarios y obtener respuestas por parte del equipo docente. El sistema finalmente implementado cumple con los requisitos propuestos para su diseño, encontrándose buenos resultados en las pruebas de uso realizadas, en las que el resultado de identificación en un curso real fue del 76%, y en donde el principal motivo de los errores se debió a errores de los mismos estudiantes que no completaron correctamente la hoja de respuesta. Finalmente, este trabajo representa una primera aproximación a la integración de nuevas tecnologías al proceso de revisión de evaluaciones en la plataforma U-Cursos, mostrando las ventajas que se pueden obtener al llevar acabo el proceso de manera digital, entre las que se encuentra principalmente la transparencia del proceso.
30

Gestión de proyectos y recursos de una fábrica de software sobre la plataforma .NET basada en Moprosoft gestión 2010

García Casas, José Michael, Castillo Tipian, Mario Miguel 2013 March 1919 (has links)
El presente documento representa la memoria de la planificación y administración, por parte de las Gerencias de Proyectos y Recursos, de la empresa NET Factory durante el ejercicio 2010. NET Factory es una empresa que nace en agosto del 2008 (periodo 2008-02) con el objetivo de satisfacer la necesidad que tienen las empresas en los talleres de proyecto, de las carreras de Ingeniería de Sistemas de Información e Ingeniería de Software, de contar con una factoría de software que ofrezca los servicios de desarrollo y pruebas1 de aplicaciones de software, así como el de consultoría especializada en el ámbito de la informática, teniendo siempre como base las herramientas que nos da la plataforma .NET y de manera general la tecnología que ofrece Microsoft en el campo de la computación. La misión resultante para la empresa fue la siguiente “Producir productos de software de calidad bajo demanda. Brindar servicios de calidad en asesoría de arquitectura y capacitaciones en herramientas Microsoft para satisfacer las necesidades de nuestros clientes”. A continuación se describirá el contenido del presente documento el cual ha sido estructurado según las actividades realizadas a lo largo del ciclo. En el Capítulo 1, se realiza una breve descripción del presente proyecto, así como también la sustentación de la necesidad de este proyecto, objetivos, alcances, indicadores y otros. En el Capítulo 2, se describen los conceptos y metodologías bajo los cuales se basa la organización y gestión de la empresa NET Factory, además se establece el marco de referencia para el trabajo tanto en los proyectos como en los procesos de la empresa NET Factory. Dentro de este capítulo se verán principalmente temas de MoProSoft y RUP. En el Capítulo 3, se describe el macro proceso de Gestión de Negocio y cada uno de los sub-procesos que lo conforman.2 En los Capítulos 4 y 5, se presentan los objetivos específicos a la Gerencia de Proyectos y los resultados obtenidos en cada uno de los periodos de gestión. Dentro de estos capítulos se tocan temas tales como el Plan de Gestión de Proyectos, la cartera de proyectos internos, externos y oportunidades de negocio, el análisis a nivel de proyectos y procesos de gestión y finalmente, las conclusiones y acciones de mejora para la Gestión de Proyectos. En los Capítulos 6 y 7, se presentan los objetivos específicos a la Gerencia de Recursos en cada uno de los periodos de gestión; luego, describe las actividades planificadas y realizadas por la Gerencia de Recursos. Finalmente, se expone la gestión segregada a nivel de recursos humanos y tecnológicos, así como el análisis de los resultados, conclusiones y acciones de mejora. Finalmente, se exponen las conclusiones a las que se llegaron para la organización y gestión de la empresa NET Factory; así también, las recomendaciones para la mejora de la misma y los pasos que esta debería seguir bajo el plan de trabajo que se ha desarrollado durante el ejercicio 2010.

Page generated in 0.1019 seconds